728x90
반응형
참고 자료
[1] https://light-tree.tistory.com/133
[2] https://twinw.tistory.com/247
확률적 경사 하강법(Stochastic Gradient Descent)은 추출된 데이터 한개에 대해서 그래디언트를 계산하고, 경사 하강 알고리즘을 적용하는 방법을 말한다.
전체 데이터를 사용하는 것이 아니라, 랜덤하게 추출한 일부 데이터를 사용하는 것이다. 따라서 학습 중간 과정에서 결과의 진폭이 크고 불안정하며, 속도가 매우 빠르다. 또한, 데이터 하나씩 처리하기 때문에 오차율이 크고 GPU의 성능을 모두 활용하지 못하는 단점을 가진다. 이러한 단점들을 보완하기 위해 나온 방법들이 Mini batch를 이용한 방법이며, 확률적 경사 하강법의 노이즈를 줄이면서도 전체 배치보다 더 효율적인 것으로 알려져 있다.
그림 2는 배치(학습데이터 샘플의 크기)에 따른 방법을 나타낸다.
Batch는 모든 데이터를 한꺼번에 학습하는데 활용하기 때문에 부드럽게 수렴하나 샘플의 개수만큼 계산해야하기떄문에 시간이 다소 소요된다.
Stochastic 방법은 데이터를 한개씩 추출해서 처리해보고 이를 모든 학습데이터에 대해 적용한 것이다.
Mini-Batch 는 전체 학습데이터를 배치 사이즈로 나누어서 순차적으로 진행한다. 일반적으로 딥러닝 학습에 사용되는 방법이며, Batch 보다 빠르고 SGD 보다 낮은 오차율을 가진다.
반응형
'Image processing > Deep-learning' 카테고리의 다른 글
[Deep Learning] 입력 데이터에서 데이터 정규화를 하는 이유 (0) | 2020.01.07 |
---|---|
[Pytorch] 선형 레이어와 비선형 레이어 (0) | 2019.12.26 |
[Deep Learning] 배치 경사 하강법(Batch Gradient Decent) (0) | 2019.12.10 |
[Pytorch] 딥러닝 신경망에서 사용되는 기본 구조 (0) | 2019.11.12 |
[Pytorch] 차원에 따른 Tensor (0) | 2019.03.24 |