현재 Yolo를 이용해 물체의 LED를 찾아내는 학습을 진행중입니다.컴퓨터 비전 관련 연구 중에 Domain Randomization 관련 내용을 접하고, 이를 접목시키고자현실의 모델 대신 3D 모델을 만들어 모델의 이미지로 학습을 대신 진행해보았습니다.그런데 3D 모델로 학습 -> 현실의 모델 내 LED를 찾음 <<<< LED의 인식률이 너무 떨어져서 문제입니다.다양한 사진으로 학습해도 보통 공통점을 학습해서 탐지하는 것이 보통인데, 실제 현실 모델과 최대한 비슷하게 모델링해서 학습하는데도 왜 인식률이 처참한걸까요? 어느 부분을 고려해야 하는지 궁금합니다..