묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part4]
from_pretrained 에 관한 질문입니다
강의 4:53 에 나오는 from_pretrained 함수에 관한 질문입니다.공식 문서를 아무리 찾아봐도, 더 미궁 속으로 빠지는 듯한 느낌만 들어서(...) 질문 올립니다. from_pretrained 메소드는 huggingface에서 제공하는 그 어떠한 클래스에도 공통적으로 적용이 가능한 것인지 궁금합니다.공식 문서에서 from_pretrained를 검색해본 결과, 각 검색 페이지마다 from_pretrained의 파라미터가 다르게 나오고, 그에 대한 설명조차도 찾을 수가 없었습니다...예를 들어, FeatureExtractionMixin 의 from_pretrained 메소드의 파라미터는 9개인 반면, AutoTokenizer의 from_pretrained 메소드의 파라미터는 13개 라고 서술되어 있는 경우를 볼 수 있었습니다.또한, 강의에서 사용하였던feature_extractor = ViTFeatureExtractor.from_pretrained("google/vit-base-patch16-224-in21k") feature_extractor이 코드와,model = ViTForImageClassification.from_pretrained('google/vit-base-patch16-224-in21k', num_labels=10, # 10개의 클래스로 분류를 해야 함 id2label=id2label, label2id=label2id)이 코드에서도 역시 from_pretrained 메소드가 사용되었는데,공식 문서에서 ViTFeatureExtractor와 ViTForImageClassification을 아무리 찾아보아도 from_pretrained 메소드에 관한 설명은 볼 수가 없었으며, 각각의 경우에 적용되는 파라미터에 관한 내용 역시 찾아볼 수 없었습니다.이런 경우, 다른 코드에 from_pretrained 메소드를 적용할 때에는 해당되는 내용을 어떻게 찾아야 하는 것인지 궁금합니다.
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
CVAT 툴 사용
안녕하세요, 강사님.한줄기 빛처럼 따라가며 강의 잘 듣고있습니다! 정말 감사드립니다.섹션10. Ultralytics Yolo 실습 - 02에서 CVAT 툴을 소개해주셨는데강의 안에서 말씀해주신 cvat.org 페이지는 접속이 불가하던데 혹시 cvat.ai로 바뀐걸까요?
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
안녕하세요 선생님 질문입니다!
강의 내용에서 이터레이션이 1000이고 전체 데이터수가 10만이라면 단순히 연산량으로 봤을 때 10만건의 데이터를 각각 1000번씩 돌려서 웨이트를 업데이트 한다라는 의미가 맞나요?
-
해결됨수학 없이 시작하는 인공지능 첫걸음: 기초부터 최신 트렌드까지
강의자료 PDF파일과 실습자료 어디서 구하나요?
강의자료 PDF파일과 실습자료 어디서 구하나요?강의 페이지 찾아봐도 어디서 받는지 알 수 없어서 이렇게 질문을 남깁니다.
-
미해결비전공자/입문자를 위한 Data Science(DS)와 AI 학습 & 취업 가이드
강의 자료 부탁드립니다!
안녕하세요. 이제 강의를 듣기 시작했습니다!강의를 더욱 잘 이해하기 위해서 강의 자료를 요청 드립니다.yhj9855@naver.com 으로 자료 보내주시면 감사하겠습니다.
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
pretrained model 재학습 관련 질문
안녕하세요.tensorflow object detection 공부 중 몇 가지 궁금증이 생겨 질문드립니다. pretrained model을 이용해 "사과"라는 객체를 탐지하는 A모델을 만들었을 경우, 이 A 모델에 추가적으로 "바나나"라는 객체를 학습 시켜, 최종적으로 "사과","바나나"를 탐지하는 A모델을 만들 수 있는지 궁금합니다.만약, 1번이 가능하다면,기존 A모델의 labelmap에 id를 추가하여 "바나나" 입력기존 A모델의 config 파일에 num class를 2로 변경, "바나나" 학습 데이터(tfrecord) 위치로 변경하면 되는 걸까요?만약, 1번이 가능하지 않다면,"사과" tfrecord와 "바나나"tfrecord를 합쳐서 새로운 tfrecord를 만들고pretrained model를 불러와 새로운 B 모델을 만들어야 할까요?
-
해결됨최신 논문과 유튜브 동영상으로 만드는 2D Pose estimation 실전 프로젝트 따라하기
맥북 페러럴즈 우분투 개발 환경 셋팅
맥북 페러럴즈에 우분투를 설치해서 실습해 보려는데요. nvidia가 없이 셋팅하는 방법 없을까요?
-
미해결YOLO 구현으로 배우는 딥러닝 논문 구현 with TensorFlow 2.0
model.py의 Activation Function
GlobalAveragePooling2D()에서 InceptionV3의 다차원 Feature Map을 1차원 스칼라로 차원변환 해주는데, 여기서 GlobalAveragePooling2D()를 사용하심은, 아래 이미지에서 Flatten된 Vector를 구현 하심이 맞으실까요? 왜 2D 해당 기법은, CNN + FCN을 대체하기위해 사용된다는정도로만 인지하고 있습니다. x = tf.keras.layers.GlobalAveragePooling2D()(x) # Multi dimension featuremap to one dimension scalar value.YOLO Format으로 Flatten 시킬때, 활성화 함수는 지정할 필요가 없나요? 원 논문에서 마지막 Layer에 대해 linear activation function을 사용했는데, 수업에서 사용한 코드에서는 'None'으로 지정된 이유가 어떻게 될까요? output = tf.keras.layers.Dense(cell_size * cell_size * (num_classes + 5 * boxes_per_cell), activation="None")(x) # Yolo 형태에 맞는 Flatten 된 벡터로 변환
-
미해결YOLO 구현으로 배우는 딥러닝 논문 구현 with TensorFlow 2.0
코랩에서 train.py 실행 시 오류
운영환경Colab (프로 GPU 버전 사용)이슈아래 코드 실행 시, InvalidArgumentError` 발생.if __name__ == '__main__': app.run(main)/usr/local/lib/python3.9/dist-packages/tensorflow/python/framework/ops.py in raise_from_not_ok_status(e, name) 7213 def raise_from_not_ok_status(e, name): 7214 e.message += (" name: " + name if name is not None else "") -> 7215 raise core._status_to_exception(e) from None # pylint: disable=protected-access 7216 7217 InvalidArgumentError: {{function_node __wrapped__Squeeze_device_/job:localhost/replica:0/task:0/device:GPU:0}} Can not squeeze dim[1], expected a dimension of 1, got 24 [Op:Squeeze] Q. 운영환경 상, 리눅스 또는 윈도우를 활용하지못하는데 코랩에서 강의에서 주어진 코드 실행 시 문제가 되는 부분이 있나요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
kaggle 에서 cpu 설정 하는 창이 보이지 않아요.
kaggle 에서 cpu 설정 하는 창이 보이지 않아요.창이 잘못 닫힌것 같은데 다시 띄우려면 어떻게 해야 될까요?
-
미해결AI 포트폴리오 만들기 - Airbnb 클론 프로젝트
강의자료 부탁드립니다!
paul1142@naver.com 입니다! 감사합니다!
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
object detection 거리 감지를 위한 질문 (YOLO V5)
안녕하세요. 철민 강사님께 늘 좋은 강의 내용에 감사하면서 오늘도 질문을 드립니다. object detection 에서 물체 간의 거리 감지를 위한 질문 (YOLO V5)을 드리려고 합니다. 강의에서 배운 내용을 바탕으로 입력 영상으로 실시간 객체간의 거리를 측정하는 기능을 개발하고 있는데 아래와 같이 중장비와 사람간의 바운딩 박스의 가운데 좌표를 읽어 거리를 측정하고 있는데 근본적이 오류가 있었습니다. 오류사람의 위치가 이동하여 중장비 옆에서 잡은 거리가 2m라고 했을 때 뒤에서 잡은 거리는 2.7m가 되고 위에 지점에서 잡은 거리는 3.8미터가 되는 오류가 있습니다. 이 문제를 해결하기 위해 바운딩 박스의 가장 중심점 에서 거리를 측정 오류를 벗을 수는 없는 것인가요? semantic segmentation 픽셀 단위 이미지를 이용하면 되지만 이 경우에는 사람이 너무 가까이 가면 하나로 클래스로 인식하고 이것을 Instance Segmentation 으로 해결하려고 하는데 GPU 연산의 하드웨어적인 한계가 있었습니다. object detection 알고리즘으로 객체 간 위치별 거리측정의 오차를 없앨 수 있는 방법에 대해서 조언을 부탁드립니다.
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part4]
out = out[:, -1] 코드에 관한 질문입니다
강의 8:30 부분에서 나오는out = out[:, -1] 코드에 관한 질문입니다. 우선, 다음과 같이 예시를 작성해 보았습니다이렇게 test_data를 만들고, 여기에 test_data[:, -1] 을 적용해 보았는데요,shape이 (3, 2, 4) 에서 (3, 4) 로 바뀌는 것은 확인하였지만, 이 코드가 '왜 사용되었는지' 에 관한 궁금증이 생겼습니다. 단지 shape을 맞춰주기 위해서 전체 데이터 중 일부를 slicing 하는 것이라면, view 메소드를 사용해서 shape을 맞춰주는 방법도 있을텐데요,전체 데이터 중에서 일부를 slicing 하는 방식으로 이렇게 코드를 작성한 이유가 무엇인지 궁금합니다!
-
미해결[파이토치] 실전 인공지능으로 이어지는 딥러닝 - 기초부터 논문 구현까지
register_forward_hook을 활용한 피쳐맵 추출에서 문제가 발생합니다ㅠㅠ
안녕하세요. 현재 코랩환경에서 파이토치 제공 Mask-RCNN을 활용하고 있습니다. 강의에서 알려주신 Hook를 활용하여 중간 레이어의 피쳐맵을 추출하고자 진행하던 과정에서 문제가 발생하여 질문드립니다ㅠㅠ모델은 제가 가진 데이터셋에 맞춰 출력층을 바꾸어준 후에 학습을 완료한 상태입니다. 이후 for문을 통해 모델에 여러 입력 이미지들을 넣어주어 이미지별 중간 레이어의 피쳐맵을 얻으려고 하였으나, 출력결과 하나의 이미지에 대한 피쳐맵만 반복적으로 출력되는 문제가 발생합니다...모델 학습 및 가중치 로드 후 코드는 다음과 같습니다.Hook 함수def get_activation(name): def hook(models, input, output): activation[name] = output return hook입력 이미지별 피쳐맵 저장activation = {} device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") models.to(device) for i in range(1, 5): test_img = Image.open("입력 이미지 루프").convert('RGB') test_img = test_img.resize((800, 800)) test_img = tr.functional.to_tensor(test_img) test_img = test_img.reshape(1, 3, 800, 800) with torch.no_grad(): models.eval() models.backbone.fpn.extra_blocks.register_forward_hook(get_activation("fm{}".format(i))) test_img = test_img.to(device) models(test_img)출력 결과activation["fm1"] 부터 ["fm4"] 까지 동일한 값이 들어가 있음아무리 찾아보고 여러 시도를 해보아도 해결이 되지않아 답답하네요ㅠㅠ추가로 위의 코드를 한번 돌리면 런타임을 다시 시작하지 않는 이상 이후에 코드를 수정하여 hook 함수부터 다시 돌려도 적용이 되지 않는 문제도 발생합니다...
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection show_result 함수관련
안녕하세요강사님 강의 덕분에 항상 연구에 큰 도움받고 있습니다 :) 강의에 나온 mmdetection show_result 함수 관련하여 질문드립니다. 상황:from mmdet.api import init_detector # config 파일과 checkpoint를 기반으로 Detector 모델을 생성. model = init_detector(config_file, checkpoint_file, device='cuda:0') model.show_result(img_arr, results, pixel_list, score_thr=0.7, bbox_color=(0,0,0), thickness=0.01,font_size=8, out_file= f'{save_dir1}{rgb_file_name}')위 코드와 같이 init_detector 함수로 model을 생성show_result 함수로 이미지 위에 추론결과를 시각화하려고 합니다. 이때, show_result 함수에 pixel_list라는 인자를 추가하였는데 다음과 같은 에러를 만났습니다. "TypeError: show_result() got multiple values for argument 'score_thr'" 그래서 mmdetection/mmdet/models/detectors/base.py 모듈의 show_result 함수를 수정하였더니 문제가 해결되었습니다. 하지만 mmdetection 내의 mmdet 원본코드를 직접 수정한다면 mmdetection 버전이 바뀔때 마다 매번 해당 코드를 수정해줘야 할 것 같아서요. 혹시 원본코드를 수정하지 않고 새로운 모듈(new_base.py)을 만들고 override를 할 수 있는 방법이 있을까요? (mmdetection/mmdet/api/inference.py의 init_detector와 mmdetection/mmdet/models/detectors/base.py의 show_result 함수가 뭔가 엮여있는 것 같은데 도저히 방법을 모르겠습니다 ㅠㅠ)
-
미해결혼자 공부하는 머신러닝+딥러닝
K최근접 모델 이웃선정 기준
5강의 K최근접 분류 모델에선 무게와 길이로 이웃을 찾고 클래스를 분류했다면 6강의 K최근접 회귀 모델에선 길이로만 이웃을 찾고 무게를 구한건가요?또한 K최근접 회귀로 예측한 값의 무게와 길이로 구한 이웃과 길이로만 구한 이웃과 다를 수 있나요?
-
해결됨처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part4]
batch normalization과 standard scaler에 관한 질문입니다
안녕하세요, batch normalization과 standard scaler의 사용에 관해 질문드립니다! 우선, batch normalization은 학습 과정에서 각 배치 단위 별로 데이터가 다양한 분포를 가지더라도 각 배치별로 평균과 분산을 이용해 정규화하는 것을 뜻하고, 결국 평균 0, 분산 1로 데이터의 분포를 조정하는 과정으로 이해를 하였습니다. 또한, 이전에 학습하였던 standard scaler 역시 전처리 과정에서 평균 0, 분산 1로 데이터를 조정하는 역할을 한다고 이해하였는데요 batch normalization과 standard scaler의 작동 방식 자체가 조금 유사하게 느껴지는데, 이 둘은 각각 전처리 과정과 학습 과정에서 따로 사용되는 것으로 보면 되는 것인가요??
-
해결됨파이썬을 활용한 머신러닝 딥러닝 입문
numpy의 shape
안녕하세요 인프런에서 강사님의 강의(파이썬을 활용한 머신러닝 딥러닝 입문)를 수강 중인 손승운입니다.질문'파이썬을 활용한 머신러닝 딥러닝 입문' 강의 12강 내용 7분 18초를 보면 주피터 노트에서는 z.shape의 값이 (axis2, axis0, axis1) 순서로 나오고 제가 직접 주피터노트에 실습한 결과도 동일했습니다.하지만 7분 33초 중앙을 보면 shape를 (axis0, axis1, axis2)로 표현하셨는데, 이는 구글링을 통해 다른 사람들이 표현한 것과 같습니다.그럼 (axis2, axis0, axis1)와 (axis0, axis1, axis2) 둘 중 어느 것이 맞는 표현인가요? 혹시 원래는 (axis0, axis1, axis2)로 표현해야 하지만 numpy를 활용해 shape를 볼 때만 (axis2, axis0, axis1)로 표현되는 건가요?강사님의 강의 덕에 머신러닝 개발자가 되는데 한걸음 내딛을 수 있었습니다. 감사합니다. 편하신 시간에 답변주시면 감사하겠습니다.
-
미해결AI 포트폴리오 만들기 - Airbnb 클론 프로젝트
강의자료 요청드립니다!
안녕하세요! 이번에 새로 강의 듣게 되었습니다강의 자료 메일로 요청드립니다.kd03100@naver.com
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part4]
딥러닝 코드에 Batch Normalization 적용해보기 질문입니다
해당 강의 8:18 에서self.layers를 선언할 때, Layer(input_dim, 256. batch_norm, dropout),Layer(256, 256, batch_norm, dropout),Layer(256, 128, batch_norm, dropout),으로 계층들을 선언을 하는 과정에서,Layer들을 선언 했을 때, Layer 클래스 안에 있는 init 매소드만 실행이 되서 생성된 Layer 객체들 안에 self.layer에 값들이 할당이 된것인지.Layer 객체들에서 forward 매소드에서 필요한 인자 (x)를 할당받은 부분이 없기 때문에 DNNModel 클래스의 self.layers를 할당하는 과정에서는 Layer 객체들의 forward 매소드가 실행을 하지 않은 것인지 2가지 질문을 드립니다.