Training set이 10000개라고 할 때, 이 데이터를 모두 1번씩 모델에 학습 시키는 것이 1 epoch이라고 하셨는데, 이렇게 1번 epoch을 학습시킨 후에도, 여러번 epoch을 학습시키게 되면 어떤 의미가 있는 지 알 수 있을까요? 얼핏 보기엔 같은 데이터로만 반복 학습 시킨 것 같아보여서 큰 의미가 없을 것 같지만, 실제로는 weight를 업데이트 시키면서(학습과정) cost를 줄여나가는게 보여서요.
늦었는데도, 답변 해주시면 감사하겠습니다...