728x90
반응형
참고 자료 : http://aikorea.org/cs231n/neural-networks-3/
손실함수는 신경망이 학습할 수 있도록 나타내는 지표를 의미하며, 모델의 출력 값과 정답 값 간의 오차를 말한다.
딥러닝 모델에 대한 학습을 진행하다 보면, 학습률(Learning Rate)에 따라서 전역 최적값이나 지역 최적값에 도달하게 된다.
왼쪽 그림은 학습률에 따른 에폭 당 손실함수를 나타낸다. 적당한 학습률은 전역 최적 손실값을 얻기 때문에 낮은 값으로 수렴하게 되고, 너무 낮거나 높을 경우 지역 최적값에 빠지게 된다. 오른쪽 그림은 적당한 손실함수의 형태를 보이고 있으며, 위아래로 진동하는 이유는 배치 사이즈가 너무 낮기 때문이다. 그 이유는 모든 데이터에 대하여 그래디언트 업데이트가 수행되면 손실 함수(오차)가 향상시킬 것이기 때문이다. (비용 감소)
손실 함수 그래프는 최적의 모델 성능을 나타내진 않지만, 참고해 볼수 있는 지표 중 하나이다.
반응형
'Image processing > Deep-learning' 카테고리의 다른 글
딥러닝 모델 경량화 기술 (0) | 2020.01.30 |
---|---|
[Deep Learning] 훈련, 검증 정확도를 통한 최적 모델얻기 (0) | 2020.01.17 |
NMS(Non-Maximum Supression) (0) | 2020.01.14 |
[Deep Learning] 선형 회귀(Linear Regression) (0) | 2020.01.10 |
[Deep Learning] 입력 데이터에서 데이터 정규화를 하는 이유 (0) | 2020.01.07 |