묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection (mask_rcnn) 인퍼런스 관련 질문입니다.
안녕하세요. 좋은강의 잘 듣고 있습니다. 얼마전에 mmd-to-tensorrt 질문을 올렸었는데요. 사실 해당 라이브러리를 사용해보려 한 목적이 Inference의 속도를 향상시키려는 시도의 일환이었습니다. 혹시 mmdetection을 이용한 mask_rcnn 의 추론 속도를 향상시키는 다른 방안을 알고계신가 싶어 질문 드립니다. mmdetection에 포함된 다른 instance segmentation 검출 로직인 yolact를 사용하면 미세하게 속도의 향상이 있으나 검출 정확성 측면에서 mask rcnn이 더 낫더라구요. 항상 좋은 강의 감사드립니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Semi-supervised 러닝 문의
안녕하세요 강사님,최근 온라인 경진대회 준비한다고 하였던 수강생 입니다.Run length Encoding에 대해 알려주셨는데, 알고보니이 과제가 준지도학습(Semi-supervised 러닝) 문제였습니다.제가 이 강의 뒷부분만 들어서 '준지도학습' 과제를 클리어 할 수 있을지 잘 모르겠네요 ㅠㅠ혹시 준지도학습 문제를 풀기위해, 이 강의말고 CNN Fundamental 이라던지, 더 들으면 좋을 강의 같은게 있을까요?감사합니다.
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
MASK_RCNN Segmentation polygon 변환관련
안녕하세요 강사님수업 잘 듣고 있는 수강생입니다.작년, 강사님의 굉장한 강의로 사내(KT) AI분야 CEO 상을 받았고굉장한 믿음으로, 현재 이 강의또한 수강하고 있습니다.현재 저는 '22 인공지능 온라인 경진대회를 준비중입니다.Segmentaion 문제를 참여하려하는데, 아래와 같은 조건이 있습니다. '모든 이미지 픽셀에 대하여 값을 표기하는 방식 대신, 마스크를 1차원으로 변환한 뒤, 물체가 존재하는 픽셀들에 대하여 (시작점) (그로부터 연속되는 점의 개수) (다음 시작점) (그로부터 연속되는 점의 개수) 의 형태로 표기'제가 아직 MaskRCNN 강의는 듣지 못하였는데,혹시, MaskRCNN 결과로 나온 Segmentation 부분을 1차원으로 변환하는 방법이 따로 있을까요?'segmentation to polygon convert' 로 구글검색을 해봤는데, 아직 정보를 못찾았습니다. 마지막으로, (시작점) (그로부터 연속되는 점의 개수) (다음 시작점) (그로부터 연속되는 점의 개수) 의 형태로 표기' 이 키워드는제가 풀어야 할 숙제 인데, 혹시 위 문제를 지혜롭게 해결하기 위해 참고할만한 문서라던가 사이트 혹시 있으신지 문의드립니다. 항상 수고해주셔서 감사드립니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
큰 object와 작은 object 동시 segmentation성능 관련 질문
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요 선생님, 선생님 덕분에 segmentation 과제를 재미있게 수행하고 있습니다 제가 하고 있는 과제 중에 큰 object와 작은 object를 동시에 판별하는 task가 있습니다 비유를 하자면 콩이 큰콩과 작은콩이 섞여 있고 나머지 특성은 동일한 콩이라 class는 한개로 했습니다 (큰 콩과 작은콩은 많으면 지름 기준 최대 10~20 배 차이) 그런데 작은 콩은 많으면 1000~2000 개씩 있고 큰 콩만 있는 이미지 (30~100 개)도 있습니다 또 쪼개진 콩도 있습니다 (쓰고 나니까 task가 너무 어렵네요...) 그래서 제가 이문제를 잘 맞추기 위해 접근한 방식은 mmdetection에서 max object를 3000 개로 늘리고 roi 제안은 6000개로 늘렸습니다 (cfg.model.test_cfg.rcnn.max_per_img = 3000 #default 100 cfg.model.test_cfg.rpn.nms_pre = 6000 # default 1000 cfg.model.test_cfg.rpn.max_per_img = 6000 # default 1000) 그 다음에 anchor generator stride라는것이 중요하다는 것을 찾아서 기존 [8]에서 [1, 2, 4]로 바꿨습니다 (구글 검색해서 찾은건데 사이트를 지금은 못 찾겠네요;;;) (cfg.model.rpn_head.anchor_generator.scales = [1, 2, 4] # default [8]) 그랬더니 어느정도 작은 입자를 잘 찾는 모델을 만들었습니다만 문제는 큰입자가 있을때 큰입자의 일부분을 쪼개서 작은입자로 찾는 문제가 발견되었습니다 여기서 여쭈어 보고 싶은 점은 1) anchor generator stride 의 정확한 의미가 궁금합니다 제가 이해하기로는 피쳐맵에서 anchor 를 찾는 stride 같은데 (8로 하면 8 grid에 한번 4면 4 grid에 한번) 이걸 1, 2, 4로 하는 것은 무슨 의미인지 아시나요? 2) 큰입자를 찾으면 작은입자를 못잡고 작은입자를 찾으면 큰입자를 못잡는 (잡긴하는데 실제로는 쪼개진 영역이 아닌데 쪼개서 잡는 영역 존재) 문제가 발생하는데 두가지 task를 동시에 하는것이 가능할까요? 3) 다른 모델 (efficient det 등?)을 써야할지 아니면 다른 일반적인 해결책인 있는지 문의드립니다 감사합니다!!