작성한 질문수
딥러닝 이론 + PyTorch 실무 완전 정복
[실습] Fully Connected NN 만들기
해결된 질문
작성
·
28
1
여기서 네트워크를 구성할 때 맨 마지막에 sigmoid를 태운 후에 마지막에 또 Softmax를 태우는데, 이렇게 할 거면 애초부터 네트워크의 마지막단을 sigmoid가 아닌 softmax를 태우면 되는 거 아닌가요?
왜 sigmoid를 거친 후에 softmax를 태워야 하는 것인지 알 수 있을까요?
답변 1
안녕하세요!
좋은 질문 감사합니다!
네 Sigmoid을 통과한 logit은 각각 0~1 사이의 값을 가지지만 logit 값들의 합은 1이 되지 않습니다!
따라서 예측 확률값으로 변환하기 위해서 Softmax 함수를 사용했습니다!