묻고 답해요
150만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
순위 정보를
불러오고 있어요
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
RTMDet video 느린 문제
안녕하세요 강의는 들었는데 외적으로 질문이 있습니다.현재 회사 개발로 Object Detection 모델을 사용할려고 하는데 yolo는 라이센스 문제로 인해 사용을 못하고 MMDetection으로 RTMDet를 학습하여 video_demo.py를 통해 검출 결과 테스트를 진행을 했는데output으로 저장된 동영상은 정상적인 속도로 실행이 되지만 show 옵션을 통해gui 영상으로 보면 video frame이 낮은듯 엄청 느리고 끊기게 실행이 됩니다. 이게 정상적인건지 나중에 web cam으로 갔을때도 frame이 낮게 끊기듯이 보일지 궁금해서 질문 남깁니다. 그리고 실무에서도 라이센스 문제 없이 가장 많이 쓰이는 object detection 알고리즘이 있는지도 궁금합니다. 좋은 강의 항상 감사합니다.
-
미해결딥러닝 CNN 완벽 가이드 - Pytorch 버전
numpy, pandas
안녕하세요. 선생님numpy, pandas가 아직 익숙하지 않은데, 이 경우 어떤 교재나 강의를 보면서 하는걸 추천드리시나요?
-
미해결최신 딥러닝 기술과 객체인식
질문하나 있습니당
혹시 메일 하나 받을 수 있을까요? 뭐 하나 제안드리고 싶은게 있어서요...ㅎㅎㅎ
-
미해결최신 딥러닝 기술 Vision Transformer 개념부터 Pytorch 구현까지
mean attention distance
vit 결과 부분에서 mean attention distance가 멀다는게 왜 전체적으로 본다는걸 의미하는지 잘 모르겠습니다
-
미해결[AI 실무] AI Research Engineer를 위한 논문 구현 시작하기 with PyTorch
cuda sdk 설치 중 질문이 있습니다.(쌤~~추가질문 댓글로 올려놨으니 답변 부탁드려용~~)
cuda sdk에서 6.0을 설치할려고 하는데 pytouch install에서 링크(https://pytorch.org/get-started/previous-versions/)여기서 어느부분을 복사해야할까요?윈도우입니다.
-
미해결[AI 기초] AI Research Engineer를 위한 CNN 이해하기
input_channel, output_channel은 질문입니다.
강의 CNN (2) - input_channel, output_channel은 무엇을 의미하는가 ? 이 파트 질문입니다.3분에 8채널이 되면, 필터가 어마무시하게 많아진다고 하셨는데 아래 그림같이 엣지 필터나 블러필터 하나로 1,1열 적용하고 1,2행 적용하는거 아닌가요?[[-1, 0, 1],[-2, 0, 2],[-1, 0, 1]])
-
미해결[AI 기초] AI Research Engineer를 위한 CNN 이해하기
.
.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolo 학습 관련
안녕하세요 강사님! 강사님의 강의를 듣고 현재 yolo를 이용해 간단한 프로젝트를 하나 진행해보려고 하는데 몇가지 질문 사항이 생겨 글을 적습니다.전체적인 프로젝트 개요는 식물앞에 카메라를 두고 식물에 해충 및 질병 발생을 detect하는 모델을 만드려고 합니다.이때 카메라에 라즈베리파이 같은 소형 컴퓨터를 달아 모델을 운용하려는 계획이라 yolo의 높은 버전보다 yolo v5 간소화 버전들을 사용해야 겠다고 결정했는데 괜찮은 선택인지 궁금합니다.해충과 식물의 질병 부위 이미지 데이터셋으로 모델을 학습 시키려고 하는데 이때 coco dataset으로 pretrained된 모델을 사용해야 하는지 아니면 모델 구성부터 새로 한 후 원하는 해충/질병 이미지만 학습 시켜야 하는건지 궁금합니다.감사합니다!!
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
[section 14 / [실습] 직접 만든 CNN 모델과 ResNet, VGGNet을 활용한 CV 프로젝트] transforms.Normalize 질문
cifar10 데이터셋에 대하여 Normalize를 적용하는 이유가 궁금합니다.mean과 std 리스트에 들어있는 값의 의미가 무엇인가요?이미 ToTensor()로 0~1값의 스케일링 된 데이터를, 표준화까지 적용하여 평균0, 분산 1로 만드는데 장점이 있는건가요??normalize = transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]) def get_dataloaders(): train_data = torchvision.datasets.CIFAR10( root="../.cache", train=True, download=True, transform=transforms.Compose([torchvision.transforms.ToTensor(), normalize]), )
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection과 opencv 사용 차이.
지금까지 진행한 inference에서 질문이 생겨 글 남깁니다!현재까지 실습에서는 inference와 결과물 시각화 과정에서 mmdetection 자체 함수를 사용하는 것과 opencv를 사용해 직접 inference 함수를 작성해 사용하는 방법 두 가지 다 사용중인데, 둘의 장단점이 무엇인지 궁금합니다!지금까지는 opencv 이용 직접 제작 함수가 좀더 유연하고 결과물을 저장하는데 용이하다는 느낌을 받기는 했으나 명확한 차이를 모르겠어 질문 남깁니다.
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
[section 14 / VGGNet ] receptive filed 질문
안녕하세요. 항상 강의 잘 듣고 있습니다. 감사합니다. 다름이 아니라 section14. vggnet 강의를 듣던 중 receptive field에 대해 의문이 생겨 질문하게 되었습니다. 교안 82페이지에 (3,3) conv layer 2개를 쌓으면 receptive field가 (5,5)가 아니라 왜 (7,7)이 되는 것인지 궁금합니다.(1,1) 픽셀이 직전 에 (3,3)에서 왔고, (3,3)은 직전 (5,5)에서 convolution 연산으로 오는 것이 아닌가요?
-
미해결하루 10분 한달완성 최적화이론 1
최적화이론 2
안녕하세요 최적화이론1을 거의 완강한 수강생입니다.강의중에 몇몇 내용들은 최적화이론2에서 다룰거라고 몇 번 말씀을 하셨는데, 아직 최적화이론2 강의가 있는거 같지 않아서 여쭤봅니다.혹시 최적화이론2 강의 계획이 있으신가요?최적화이론1 강의가 도움이 너무 많이 되어서 2 강의도 꼭 듣고 싶습니다.
-
미해결[AI 기초] AI Research Engineer를 위한 CNN 이해하기
pytorch 설치시 anaconda를 더이상 지원하지 않는다고 합니다.
pip3로 설치해도 괜찮을까요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
YOLO 학습
안녕하세요 강사님최근에 YOLO를 이용해 이것 저것 연습을 하는데 궁금한 점이 있습니다.데이터셋의 크기가 너무 커서(2TB) 일단 필요한 부분만 선택해서 학습을 했습니다. 그런데 이렇게 하면 새로운 데이터셋을 추가해서 학습을 시키려면 <기존 1TB + 새로운 데이터셋> 이렇게 합친 데이터셋을 다시 학습을 해야 하나요...?예를 들어 a, b, c, d를 탐지할 수 있게 학습을 하고 추가적으로 ㄱ, ㄴ, ㄷ, ㄹ도 탐지할 수 있게 데이터를 추가해서 총 a, b, c, d, ㄱ, ㄴ, ㄷ, ㄹ을 모두 탐지할 수 있도록...마지막 출력 계층만 새롭게 학습을 하는 방법은 기존 데이터셋에 대한 성능이 떨어질 수 있어 좋은 선택은 아닌가요...?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습 질문입니다.
@DATASETS.register_module(force=True) class KittyTinyDataset(CustomDataset): # 커스텀 데이터셋에서 사용할 클래스명 저장. CLASSES = ('Car', 'Truck', 'Pedestrian', 'Cyclist') ##### self.data_root: /content/kitti_tiny/ self.ann_file: /content/kitti_tiny/train.txt self.img_prefix: /content/kitti_tiny/training/image_2 #### ann_file: /content/kitti_tiny/train.txt # annotation에 대한 모든 파일명을 가지고 있는 텍스트 파일을 __init__(self, ann_file)로 입력 받고, 이 self.ann_file이 load_annotations()의 인자로 입력 def load_annotations(self, ann_file): print('##### self.data_root:', self.data_root, 'self.ann_file:', self.ann_file, 'self.img_prefix:', self.img_prefix) print('#### ann_file:', ann_file) cat2label = {k:i for i, k in enumerate(self.CLASSES)} image_list = mmcv.list_from_file(self.ann_file) # 포맷 중립 데이터를 담을 list 객체 data_infos = []datasets = [build_dataset(cfg.data.train)]클래스 설정 후(위 박스) 아래박스 코드로 데이터셋을 생성하면 load_annotations의 ann_file에 cfg.data.train.ann_file의 값이 자동으로 들어가는 것으로 이해했습니다.또한 self.ann_file 값으로는 KittyTinyDataset이 상속받은 CustomDataset의 ann_file 값이 들어가는데 이 또한 데이터셋 생성시 CustomDataset에 cfg.data.train.ann_file의 값이 자동으로 들어가는 것으로 이해했습니다. 이 과정이 맞다면 데이터셋 생성시 self.ann_file과 ann_file에 들어가는 값이 동일한데 두가지 방식 모두 사용하는 이유가 궁금합니다.과정이 틀렸다면 self.ann_file과 ann_file의 값이 언제 어떤 방식으로 할당되는지 궁금합니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습 질문입니다.
현재 제가 이해한 내용이 맞는지 궁금하여 질문 남깁니다!mmdetection은 하나의 특정 모델 이름이 아닌 faste-rcnn이나 yolo같은 모델을 사용할때 그들의 아키텍처나 모듈을 효과적으로 관리하는 라이브러리라고 이해하면 되는 것 일까요??
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습 질문입니다.
질문 1) 강의의 마지막 부분에서 결론적으로 t와 t*의 차이가 동일시 되도록 학습을 진행하는것이 맞을까요?질문 2) 강의 7분부터 나오는 슬라이드의 맨 위에 적힌 글에서는 "g.t-예측 박스 차이"와 "anchor-g.t 차이"를 동일하게 하라고 적혀있는데 아래 식과 다음 챕터 강의 내용으로 보았을 때는 "anchor-예측 박스 차이"와 "g.t-anchor 차이"를 동일하게 하라고 하는 것 같습니다. 무엇이 맞는지 궁금합니다.
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습 질문입니다.
제가 이해한 바로는 G.T와 Positive Anchor box의 차이와 예측 bounding box와 Positive Anchor box의 차이가 동일시 되도록 학습을 진행하는것으로 이해했습니다.이렇게 되면 최종 학습을 마친 이상적인 예측 바운딩 박스는 G.T와 가장 가까운 Positive Anchor box의 위치와 동일하게 되는것이 맞는지 궁금합니다.가장 이상적인 답은 g.t의 위치를 따라가야 하는게 아닐까 하는 의문이 들어 질문 남깁니다.
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
RCNN 학습 개요에 대해 질문있습니다.
제가 이해한 바로는원본 이미지(ex. pascalVoc)와 Annotation 파일을 이용해 selective search를 진행해 후보 바운딩 박스 2000개 추출. 이때 G.T는 Annotation 파일에 담겨있던 정답 바운딩 박스 정보로, 바운딩 박스 좌표와 정답 object label이 담겨있고, SS predicted는 selective search로 뽑은 후보 바운딩 박스로, 바운딩 박스 좌표만 존재.이렇게 얻은 2000개의 후보 바운딩 박스를 딥러닝 네트워크에 주입하기전, ImageNet 데이터로 Feature Extractor Pre-train.질문1) 이 Pre-train의 목적이 무엇인가요? AlexNet이 입력으로 이미지를 받으면 출력으로 그 이미지의 클래스를 예측하도록 훈련하는 것인가요? G.T와 SS 영역 IOU가 0.5 이상인 경우만 해당 클래스로, 나머지는 Background로 fine-tuning질문2) 이때 fine-tuning이라는 것은 iou 점수에 따라 SS 즉, 후보 바운딩 박스에 이 바운딩 박스와 IOU가 높은 G.T에 담긴 label을 부여하는 작업. 즉, 데이터 전처리 같은 작업인 것인가요? 아니면 pre-train 된 AlexNet에 2000개의 후보 바운딩 박스와 G.T를 입력해 어떠한 학습이 진행되는 것인가요.위의 과정으로 얻은 Feature Map을 1차원으로 만들고, 그 값을 SVM에 넣어 예측값을 만드는데, 그 전에 SVM을 G.T로만 학습한다.질문3) 여기서 G.T로만 학습한되 0.3 IOU 이하인 SS는 background로 설정, 0.3 이상이지만 G.T와 label이 다른 SS는 무시하고 학습한다는데, 저는 이 말이 SS 중에서 IOU 점수와 label에 따라 background와 무시할 것을 정하고 그 이외에 것으로 SVM을 학습한다고 이해되는데, 이 말이 첫번째 줄의 G.T로만 학습한다는 말과 맞지 않은것 같아 이해가 힘듭니다.
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
[섹션3, PyTorch로 구현해보는 Loss Function] 분류task loss함수 질문입니다.
좋은 강의 정말 잘 듣고있습니다. 항상 감사합니다.다름이 아니라 nn.BCEloss 나 nn.BCEWithLogitsLoss에서 이름에 B(Binary)가 들어가 이진분류 문제에 사용하는 함수인가 싶었는데, 실습 강의때 처럼 다중 분류 문제의 loss 함수로 사용해도 괜찮은 것인지 여쭙고 싶습니다.generate_onehot 함수는 클래스가 10개인 다중분류 데이터를 생성합니다.batch_size = 16 n_class=10 def generate_onehot(batch_size=16, n_class=10): pred = torch.nn.Softmax()(torch.rand(batch_size, n_class)) gt = torch.rand(batch_size, n_class) gt = torch.tensor(gt == torch.max(gt, dim=1, keepdim=True)[0]).float() # convert to onehot return pred, gt
주간 인기글
순위 정보를
불러오고 있어요