작성한 질문수
딥러닝 CNN 완벽 가이드 - Fundamental 편
미니 배치(Mini-batch) 경사하강법 구현하기
해결된 질문
작성
·
336
0
GD는 만약 features들의 값이 매우 많아진다면 weighted sum과 activation function을 거치면서 예측값이 나오는데 굉장히 오래걸릴거같습니다.
반면 미니배치는 전체 features들의 값을 일정하게 분할하여 계산의 효율성을 증가시키고 메모리 효율성을 높이는데에 있다고 생각합니다.
그래서 미니배치가 더욱 더 딥러닝 FrameWork에 채택되는것이 맞을까요??
답변 1
1
안녕하십니까,
네, 맞습니다.
GD의 경우 feature 갯수가 많거나 학습 데이터가 많을 경우 많은 Computing 자원이 소모 됩니다.
반면에 Mini batch 의 경우 batch 크기만 추출해서 계산하므로 상대적으로 효율성이 높습니다.
감사합니다.