묻고 답해요
148만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결예제로 배우는 딥러닝 자연어 처리 입문 NLP with TensorFlow - RNN부터 BERT까지
transformer 기계번역 강의 오류 질문
class Encoder(tf.keras.layers.Layer): def __init__(self, num_layers, d_model, num_heads, dff, input_vocab_size, maximum_position_encoding, rate=0.1): super(Encoder, self).__init__() self.d_model = d_model self.num_layers = num_layers self.embedding = tf.keras.layers.Embedding(input_vocab_size, d_model) self.pos_encoding = positional_encoding(maximum_position_encoding, self.d_model) self.enc_layers = [EncoderLayer(d_model, num_heads, dff, rate) for _ in range(num_layers)] self.dropout = tf.keras.layers.Dropout(rate) def call(self, x, training, mask): seq_len = tf.shape(x)[1] # adding embedding and position encoding. x = self.embedding(x) # (batch_size, input_seq_len, d_model) x *= tf.math.sqrt(tf.cast(self.d_model, tf.float32)) x += self.pos_encoding[:, :seq_len, :] x = self.dropout(x, training=training) for i in range(self.num_layers): x = self.enc_layers[i](x, training, mask) return x # (batch_size, input_seq_len, d_model)위와 같이 클래스 인코더가 정의 되어있고아래와 같이 테스트를 진행했습니다오류가 발생하여 [training=False, mask=None] 으로 수정하여 진행을 해도 같은 오류가 발생합니다.sample_encoder = Encoder(num_layers=2, d_model=512, num_heads=8, dff=2048, input_vocab_size=8500, maximum_position_encoding=10000) temp_input = tf.random.uniform((64, 62), dtype=tf.int64, minval=0, maxval=200) sample_encoder_output = sample_encoder(temp_input, training=False, mask=None) print(sample_encoder_output.shape) # (batch_size, input_seq_len, d_model) 오류내용ValueError: Exception encountered when calling Encoder.call(). Only input tensors may be passed as positional arguments. The following argument value should be passed as a keyword argument: False (of type <class 'bool'>) Arguments received by Encoder.call(): • x=tf.Tensor(shape=(64, 62), dtype=int64) • training=False • mask=None문제가 무엇일까요 ㅜㅠ
-
미해결비전공자를 위한 진짜 입문 올인원 개발 부트캠프
react에 반영이 되지 않습니다.
App.js, child.js 모두 강의 내용과 같이 작성 후 터미널에서 실행시켜 보았는데 리액트 초기화면만 표시되고 있습니다. 캐시 삭제, vscode 재시작 등을 시켜보았으나 변함이 없습니다. 왼쪽 화면이 App.js 코드 내용대로 바뀌지 않는 이유가 무엇일까요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
YOLO 학습
안녕하세요 강사님최근에 YOLO를 이용해 이것 저것 연습을 하는데 궁금한 점이 있습니다.데이터셋의 크기가 너무 커서(2TB) 일단 필요한 부분만 선택해서 학습을 했습니다. 그런데 이렇게 하면 새로운 데이터셋을 추가해서 학습을 시키려면 <기존 1TB + 새로운 데이터셋> 이렇게 합친 데이터셋을 다시 학습을 해야 하나요...?예를 들어 a, b, c, d를 탐지할 수 있게 학습을 하고 추가적으로 ㄱ, ㄴ, ㄷ, ㄹ도 탐지할 수 있게 데이터를 추가해서 총 a, b, c, d, ㄱ, ㄴ, ㄷ, ㄹ을 모두 탐지할 수 있도록...마지막 출력 계층만 새롭게 학습을 하는 방법은 기존 데이터셋에 대한 성능이 떨어질 수 있어 좋은 선택은 아닌가요...?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습 질문입니다.
@DATASETS.register_module(force=True) class KittyTinyDataset(CustomDataset): # 커스텀 데이터셋에서 사용할 클래스명 저장. CLASSES = ('Car', 'Truck', 'Pedestrian', 'Cyclist') ##### self.data_root: /content/kitti_tiny/ self.ann_file: /content/kitti_tiny/train.txt self.img_prefix: /content/kitti_tiny/training/image_2 #### ann_file: /content/kitti_tiny/train.txt # annotation에 대한 모든 파일명을 가지고 있는 텍스트 파일을 __init__(self, ann_file)로 입력 받고, 이 self.ann_file이 load_annotations()의 인자로 입력 def load_annotations(self, ann_file): print('##### self.data_root:', self.data_root, 'self.ann_file:', self.ann_file, 'self.img_prefix:', self.img_prefix) print('#### ann_file:', ann_file) cat2label = {k:i for i, k in enumerate(self.CLASSES)} image_list = mmcv.list_from_file(self.ann_file) # 포맷 중립 데이터를 담을 list 객체 data_infos = []datasets = [build_dataset(cfg.data.train)]클래스 설정 후(위 박스) 아래박스 코드로 데이터셋을 생성하면 load_annotations의 ann_file에 cfg.data.train.ann_file의 값이 자동으로 들어가는 것으로 이해했습니다.또한 self.ann_file 값으로는 KittyTinyDataset이 상속받은 CustomDataset의 ann_file 값이 들어가는데 이 또한 데이터셋 생성시 CustomDataset에 cfg.data.train.ann_file의 값이 자동으로 들어가는 것으로 이해했습니다. 이 과정이 맞다면 데이터셋 생성시 self.ann_file과 ann_file에 들어가는 값이 동일한데 두가지 방식 모두 사용하는 이유가 궁금합니다.과정이 틀렸다면 self.ann_file과 ann_file의 값이 언제 어떤 방식으로 할당되는지 궁금합니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습 질문입니다.
현재 제가 이해한 내용이 맞는지 궁금하여 질문 남깁니다!mmdetection은 하나의 특정 모델 이름이 아닌 faste-rcnn이나 yolo같은 모델을 사용할때 그들의 아키텍처나 모듈을 효과적으로 관리하는 라이브러리라고 이해하면 되는 것 일까요??
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습 질문입니다.
질문 1) 강의의 마지막 부분에서 결론적으로 t와 t*의 차이가 동일시 되도록 학습을 진행하는것이 맞을까요?질문 2) 강의 7분부터 나오는 슬라이드의 맨 위에 적힌 글에서는 "g.t-예측 박스 차이"와 "anchor-g.t 차이"를 동일하게 하라고 적혀있는데 아래 식과 다음 챕터 강의 내용으로 보았을 때는 "anchor-예측 박스 차이"와 "g.t-anchor 차이"를 동일하게 하라고 하는 것 같습니다. 무엇이 맞는지 궁금합니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습 질문입니다.
제가 이해한 바로는 G.T와 Positive Anchor box의 차이와 예측 bounding box와 Positive Anchor box의 차이가 동일시 되도록 학습을 진행하는것으로 이해했습니다.이렇게 되면 최종 학습을 마친 이상적인 예측 바운딩 박스는 G.T와 가장 가까운 Positive Anchor box의 위치와 동일하게 되는것이 맞는지 궁금합니다.가장 이상적인 답은 g.t의 위치를 따라가야 하는게 아닐까 하는 의문이 들어 질문 남깁니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
RCNN 학습 개요에 대해 질문있습니다.
제가 이해한 바로는원본 이미지(ex. pascalVoc)와 Annotation 파일을 이용해 selective search를 진행해 후보 바운딩 박스 2000개 추출. 이때 G.T는 Annotation 파일에 담겨있던 정답 바운딩 박스 정보로, 바운딩 박스 좌표와 정답 object label이 담겨있고, SS predicted는 selective search로 뽑은 후보 바운딩 박스로, 바운딩 박스 좌표만 존재.이렇게 얻은 2000개의 후보 바운딩 박스를 딥러닝 네트워크에 주입하기전, ImageNet 데이터로 Feature Extractor Pre-train.질문1) 이 Pre-train의 목적이 무엇인가요? AlexNet이 입력으로 이미지를 받으면 출력으로 그 이미지의 클래스를 예측하도록 훈련하는 것인가요? G.T와 SS 영역 IOU가 0.5 이상인 경우만 해당 클래스로, 나머지는 Background로 fine-tuning질문2) 이때 fine-tuning이라는 것은 iou 점수에 따라 SS 즉, 후보 바운딩 박스에 이 바운딩 박스와 IOU가 높은 G.T에 담긴 label을 부여하는 작업. 즉, 데이터 전처리 같은 작업인 것인가요? 아니면 pre-train 된 AlexNet에 2000개의 후보 바운딩 박스와 G.T를 입력해 어떠한 학습이 진행되는 것인가요.위의 과정으로 얻은 Feature Map을 1차원으로 만들고, 그 값을 SVM에 넣어 예측값을 만드는데, 그 전에 SVM을 G.T로만 학습한다.질문3) 여기서 G.T로만 학습한되 0.3 IOU 이하인 SS는 background로 설정, 0.3 이상이지만 G.T와 label이 다른 SS는 무시하고 학습한다는데, 저는 이 말이 SS 중에서 IOU 점수와 label에 따라 background와 무시할 것을 정하고 그 이외에 것으로 SVM을 학습한다고 이해되는데, 이 말이 첫번째 줄의 G.T로만 학습한다는 말과 맞지 않은것 같아 이해가 힘듭니다.
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
배치 정규화의 이해와 적용 2 강의 질문
선생님 안녕하세요좋은 강의 감사드립니다. 배치 정규화의 이해와 적용 02 강의의 12:19 ~ 12:20 를 보시면 코드에 이상한(?) 부분이 있는 것 같습니다. x = Conv2D(filters=64, kernel_size=3, padding='same')(x) x = Activation('relu')(x) x = Activation('relu')(x) x = MaxPooling2D(pool_size=2)(x)코드가 이렇게 되어있는데요. 왜 activation을 2번 해주시는 것이죠? 아래와 같이 수정되어야 하는 것이 아닌지, 질문드립니다.x = Conv2D(filters=64, kernel_size=3, padding='same')(x) x = BatchNormalization()(x) ########### 수 x = Activation('relu')(x) x = MaxPooling2D(pool_size=2)(x)
-
미해결비전공자를 위한 진짜 입문 올인원 개발 부트캠프
터미널 npm install -g create-react-app 작성 후 오류
터미널에서 npm install -g create-react-app 작성 후에아래와 같은 메세지가 뜹니다.이럴 경우 어떻게 해야 하나요??adminui-MacBook-Pro:grab-market-web admin$ npm install -g create-react-appnpm warn deprecated inflight@1.0.6: This module is not supported, and leaks memory. Do not use it. Check out lru-cache if you want a good and tested way to coalesce async requests by a key value, which is much more comprehensive and powerful.npm warn deprecated fstream-ignore@1.0.5: This package is no longer supported.npm warn deprecated uid-number@0.0.6: This package is no longer supported.npm warn deprecated rimraf@2.7.1: Rimraf versions prior to v4 are no longer supportednpm warn deprecated glob@7.2.3: Glob versions prior to v9 are no longer supportednpm warn deprecated fstream@1.0.12: This package is no longer supported.npm warn deprecated tar@2.2.2: This version of tar is no longer supported, and will not receive security updates. Please upgrade asap.changed 64 packages in 968ms4 packages are looking for funding run npm fund for detailsadminui-MacBook-Pro:grab-market-web admin$
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
모델학습에서 문제가발생합니다. 도와주세요
에포크 5에서 오류가 발생합니다. AttributeError Traceback (most recent call last) <ipython-input-19-00485008cd01> in <cell line: 0>() 13 #config.save_freq = eval;config.map_freq = 5 14 # 1 epoch시마다 P100에서 약 3분30초 걸림. 적절한 epochs 수 설정 필요. ---> 15 model.fit( 16 get_dataset(True, config), 17 epochs=15, 5 frames/usr/local/lib/python3.11/dist-packages/numpy/__init__.py in __getattr__(attr) 322 def _sanity_check(): 323 """ --> 324 Quick sanity checks for common bugs caused by environment. 325 There are some cases e.g. with wrong BLAS ABI that cause wrong 326 results under specific runtime conditions that are not necessarily AttributeError: module 'numpy' has no attribute 'float'. `np.float` was a deprecated alias for the builtin `float`. To avoid this error in existing code, use `float` by itself. Doing this will not modify any behavior and is safe. If you specifically wanted the numpy scalar type, use `np.float64` here. The aliases was originally deprecated in NumPy 1.20; for more details and guidance see the original release note at: https://numpy.org/devdocs/release/1.20.0-notes.html#deprecations
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection 문제발생합니다.
# 아래를 수행하기 전에 kernel을 restart 해야 함. from mmdet.apis import init_detector, inference_detector import mmcv /usr/local/lib/python3.11/dist-packages/mmcv/__init__.py:20: UserWarning: On January 1, 2023, MMCV will release v2.0.0, in which it will remove components related to the training process and add a data transformation module. In addition, it will rename the package names mmcv to mmcv-lite and mmcv-full to mmcv. See https://github.com/open-mmlab/mmcv/blob/master/docs/en/compatibility.md for more details. warnings.warn( --------------------------------------------------------------------------- ImportError Traceback (most recent call last) <ipython-input-1-635200d92710> in <cell line: 0>() 1 # 아래를 수행하기 전에 kernel을 restart 해야 함. ----> 2 from mmdet.apis import init_detector, inference_detector 3 import mmcv 5 frames /usr/lib/python3.11/importlib/__init__.py in import_module(name, package) 124 break 125 level += 1 --> 126 return _bootstrap._gcd_import(name[level:], package, level) 127 128 ImportError: libcudart.so.11.0: cannot open shared object file: No such file or directory --------------------------------------------------------------------------- NOTE: If your import is failing due to a missing package, you can manually install dependencies using either !pip or !apt. To view examples of installing some common dependencies, click the "Open Examples" button below. --------------------------------------------------------------------------- mmdetection 임포트 문제발생합니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection 다운에 문제가 있는 것 같습니다.
안녕하세요 강의 정말 잘 듣고있습니다!다름이 아니라 기존에는 잘 작동되었던 mmdetection 다운이 갑자기 안되서 말씀드립니다.열심히 구글링해봤는데 안나와서 여기에 올려봅니다.torch와 torchvision 설치시에 error가 발생합니다.여기서 발생하는 error는 pip depency에러가 아닙니다.최종적으로 mmdet.apis 호출에 error가 발생합니다.에러 내용은 import error로 "ImportError: libcudart.so.11.0: cannot open shared object file: No such file or directory" 이렇게 나타납니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
이제는 이 사이트가 안되는것 같습니다...
이상한 사이트로 접속이 되네요
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
dataset.yaml 은 애노테이션인가요?
dataset.yaml 은 애노테이션인가요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
정확도 문제
video 에서는 inference 점수가 0.35와 같은것도 추론이 되는데 실제로 이러한 낮은 추론 점수가 실제로도 쓰이거나 의미가 있다고 볼 수 있나요?
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
어디다가 작성해야할 지 몰라 여기에 작성합니다..
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요 교수님. 강의 정말 잘 듣고있습니다.교수님의 fast api를 듣고싶은 수강생인데 환경때문에 어디다가 질문해야할지 고민하다가 여기다가라도 써봅니다.(죄송합니다.)저는 인공지능을 활용해 제가 원하는 앱, 웹을 만들고 싶은 꿈을 가지고 교수님 강의를 들으며 공부하고 있습니다.그러던 중 여기까지 오게 되었고(머신러닝 완벽 가이드 -> cnn -> object detection) 다음 강의로 fast api 강의를 듣고자 합니다. 여기서 질문을 드리겠습니다. 제가 현재 군인으로 사지방에서 공부를 진행하는데 github의 codespace 환경만으로도 수행하는데 문제는 없을까요?sql, html에 대해서는 아직 공부를 안해봤는데 어느정도의 지식을 알아야 할까요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
PCO는 어떻게 결정되나요?
그 이미지일 확률은 어떻게 계산되는건가요? PCO * IOU 가 Ci가 되는데 어떻게 결정되는건가요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
에러 문의
이러한 에러가 발생하는데 왜 일어나는건가요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
에러 발생 질문
여러번 다시 했는데 아래와 같은 에러가 발생하네요kernel 을 다시하니까 되는데 왜 그런건가요? 무엇때문에 생기는지가 궁금합니다.