해결된 질문
작성
·
416
·
수정됨
0
안녕하세요 선생님. 강의중 12분 20초쯤에 손실값과 정확도가 둘 다 높은 상태로 보이는데, 정확도가 높으면 손실값이 낮아야하는거 아닌가요? 아무리 테스트 데이터에 대한 평가라고 해도 정확도에 비해 손실값이 너무 높은게 좀 이상해보입니다. 학습할 때는 손실값을 낮게, 정확도는 높게라는 개념이 모델을 평가할 때는 조금 다른건가요?
답변 1
0
안녕하십니까,
손실값이 크다라는 것이 어떤 기준으로 생각하시는지 잘 모르겠지만, 손실값이 크다는 기준은 고정되어 있지는 않습니다.
(당연히 그럴거라 생각하시겠지만) 손실값은 1 - 정확도가 아닙니다.
정확도와 손실값은 계산 기준 척도 자체가 다릅니다. 때문에 손실값이 크다 작다라는 개념 보다는 손실값이 학습을 수행할 때 마다 지속적으로 감소하는 방향으로 진행이 되는 것을 확인하는 것이 더 중요합니다.
원하시는 답변이 아니면 다시 글 부탁드립니다.
감사합니다.
잘 학습된 모델이라면 검증/테스트 데이터에 대한 예측 결과가 정확도도 높고 손실값도 낮은게 좋은게 아닌지 궁금합니다
=> 네 맞습니다.
그리고 지금 생각해보니 이 모델이 그냥 오버피팅된 것으로 보이는데 제 생각이 맞는지 궁금합니다.
=> epochs를 거듭한다고 지속적으로 검증/테스트 데이터로 모델 성능이 높아지지는 않습니다. (강의에서도 말씀드리지만) 어느정도 epochs 이후에는 검증/테스트 데이터에서는 오버피팅이 일정 수준 발생해서 더 이상 성능이 좋아지지 않고 있습니다.
질문이 잘못전달된거 같아서 다시 질문드립니다.
모델 학습시에 출력되는 에폭 로그를 보면, 학습 데이터에 대한 손실값은 계속 줄어드는 반면, 검증 데이터에 대한 손실값은 일정치 이하로 줄어든 후 같은 값을 유지하는 것으로 보입니다.
또 학습된 모델에 대한 평가 함수 호출 시 출력되는 로그의 손실값을 보면 검증 데이터의 평균적인 손실값과 비슷한 수치를 보여줍니다.
잘 학습된 모델이라면 검증/테스트 데이터에 대한 예측 결과가 정확도도 높고 손실값도 낮은게 좋은게 아닌지 궁금합니다. 그리고 지금 생각해보니 이 모델이 그냥 오버피팅된 것으로 보이는데 제 생각이 맞는지 궁금합니다.