해결된 질문
작성
·
340
·
수정됨
0
안녕하세요 교수님
개념이 헷갈리는거 같아서 확인차 질문글에 남깁니다!
퍼셉트론과 심층망에서 경사하강법을 통해 weight값을 갱신하는데 퍼셉트론은 hidden layer가 없어 손실함수에서의 parameter값의 편미분을 쉽게 할수있지만,
hidden layer가 있는 심층망에서는 parameter에 대한 미분이 쉽지 않아, chain rule을 이용한 backpropagation으로 각 layer마다 전해지는 weight값의 편미분 값을 경사하강법 공식에 대입하여 weight값을 update하는게 맞을까요??
제가 남들보다 이해력이 좋지않아서 죄송합니다.. ㅎㅎ..
답변 1
1
안녕하십니까,
제대로 이해하신 것 같습니다.
말씀하신대로 layer가 많아질 수록 편미분을 수행하기가 어렵기 때문에 back propagation(역전파) 방식으로 weight 값을 업데이트 합니다.
감사합니다.