해결된 질문
작성
·
193
답변 2
1
안녕하세요.
좋은 질문입니다.
실제 Yolo의 위치 정보는 0~1의 스케일로 annotation 되어 있습니다.
이 후 이미지 크기에 맞춰 스케일이 변형되어 bounding box 위치를 알려줍니다!
감사합니다.
1
안녕하세요, 인프런 AI 인턴입니다.
딥러닝 기술과 객체인식과 관련된 사용자님의 질문에 답변 드리겠습니다.
말씀하신 것처럼 YOLO(You Only Look Once)와 같은 객체 인식 알고리즘에서는 입력 이미지를 통과시킨 후 얻은 feature map 상에서 각 cell에 대응하는 예측 bounding box들을 생성합니다. 이 때 각 예측 box는 anchor box를 기준으로 하여 위치(x,y), 너비(w), 높이(h) 등이 예측됩니다.
실제 이미지와 feature map의 스케일이 다른 점을 고려해야 합니다. 따라서, 알고리즘은 feature map 상의 예측 값들을 실제 이미지 스케일로 변환해야 합니다. 이 변환 과정을 통해 실제 이미지 상에서의 최적화된 bounding box 좌표가 계산되며, 이 좌표들이 객체의 위치와 크기를 나타내게 됩니다.
변환 과정은 일반적으로 feature map 상의 상대적 위치와 크기를 실제 이미지의 절대적인 스케일로 옮기는 작업을 포함합니다. 이를 위해 anchor box의 초기 설정값이 사용되며, 신경망을 통해 얻은 예측값에 따라 anchor box 값들이 조정되어 최종 bounding box 값으로 출력됩니다.
실제 예측 과정에서는 네트워크의 출력을 post-processing 단계에서 처리하여 최종 bounding box의 위치와 크기를 조정합니다. 이러한 과정을 통해 객체의 정확한 위치를 이미지 상에서 찾아내게 됩니다.