묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mm_faster_rcnn_train_coco_bccd.ipynb 코드 오류 발생
선생님 안녕하세요.mm_faster_rcnn_train_coco_bccd.ipynb 코드 실행하다가 오류가 발생해서 해결방법을 모르겠어서 질문남깁니다..코드는 수정한건 없고 그대로 실행하였습니다. 버전도 통일했는데, 해당오류가 발생해서 혹시 해결방법을 알 수 있을까요?감사합니다
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
wget 문의
안녕하세요 선생님저는 주피터노트북으로 선생님 코드를 따라 실습해보고 있습니다.!wget -O /content/pretrained/yolov3.cfg https://github.com/pjreddie/darknet/blob/master/cfg/yolov3.cfg?raw=true 위와 같이 파일을 wget으로 다운로드 받을 때 마다wget.download(다운경로, 저장경로)로 구현하고 있었는데요.raw=True에 대해서는 주피터노트북으로 어떻게 구현할 수 있을까요?
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
pytorch downgrade 문의
안녕하세요,pytorch 1.13 설치하는 과정에서 아래와 같은 에러가 발생합니다. (주피터노트북 환경)원인과 해결 방법을 알 수 있을까요..?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
경로 설정 문의
안녕하세요!평소 파이썬 공부를 하다가 헷갈렸던 부분이 있는데,경로를 설정할 때 ./과 /의 차이에 대해서 알 수 있을까요?cv2_image = cv2.imread('./content/data/beatles01.jpg')cv2_image = cv2.imread('/content/data/beatles01.jpg')
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
Llama2 학습시 일반 질문 답변
Llama2 학습시 일반 질문 답변 관련 해서 문의드립니다. 이번강의에서 Llama2를 파인튜닝하는것 으로 알고있는데,기본적으로 학습되어있는 모델을 추가 정보를 넣어준다는 개념으로 알고 있었습니다. 결과 테스트시, 20문장 외엔 어떠한 답변도 못하는것을 확인 했는데, 저희가 사용한 모델(TinyPixel/Llama-2-7B-bf16-sharded)이 정보도 가지고 있지않아서그런건가요? 기본적인 대화가 가능한 모델은 어떤게 있을까요?
-
미해결인공지능을 활용한 이상거래 검출 기법
실습: 001. Imbalanced Dataset Sampling 관련 질문
안녕하세요. 좋은 강의 감사합니다. 실습 001. 템플릿을 주피터에서 사용하다 아래와 같은 에러가 발생하였는데 해결책을 찾지 못해 문의드립니다.라이브러리의 import가 되지 않았다는 내용인 것 같아서, pip show imblearn도 해보았더니 unknown으로 나오는데 혹시 관련이 있는 내용인지요. ImportError Traceback (most recent call last) Cell In[3], line 5 3 import seaborn as sns 4 from sklearn.datasets import make_classification ----> 5 from imblearn.over_sampling import RandomOverSampler 6 from imblearn.under_sampling import RandomUnderSampler File ~/anaconda3/lib/python3.11/site-packages/imblearn/__init__.py:52 48 sys.stderr.write("Partial import of imblearn during the build process.\n") 49 # We are not importing the rest of scikit-learn during the build 50 # process, as it may not be compiled yet 51 else: ---> 52 from . import ( 53 combine, 54 ensemble, 55 exceptions, 56 metrics, 57 over_sampling, 58 pipeline, 59 tensorflow, 60 under_sampling, 61 utils, 62 ) 63 from ._version import __version__ 64 from .base import FunctionSampler File ~/anaconda3/lib/python3.11/site-packages/imblearn/combine/__init__.py:5 1 """The :mod:`imblearn.combine` provides methods which combine 2 over-sampling and under-sampling. 3 """ ----> 5 from ._smote_enn import SMOTEENN 6 from ._smote_tomek import SMOTETomek 8 __all__ = ["SMOTEENN", "SMOTETomek"] File ~/anaconda3/lib/python3.11/site-packages/imblearn/combine/_smote_enn.py:12 9 from sklearn.base import clone 10 from sklearn.utils import check_X_y ---> 12 from ..base import BaseSampler 13 from ..over_sampling import SMOTE 14 from ..over_sampling.base import BaseOverSampler File ~/anaconda3/lib/python3.11/site-packages/imblearn/base.py:21 18 from sklearn.utils.multiclass import check_classification_targets 20 from .utils import check_sampling_strategy, check_target_type ---> 21 from .utils._param_validation import validate_parameter_constraints 22 from .utils._validation import ArraysTransformer 25 class SamplerMixin(BaseEstimator, metaclass=ABCMeta): File ~/anaconda3/lib/python3.11/site-packages/imblearn/utils/_param_validation.py:908 906 from sklearn.utils._param_validation import generate_valid_param # noqa 907 from sklearn.utils._param_validation import validate_parameter_constraints # noqa --> 908 from sklearn.utils._param_validation import ( 909 HasMethods, 910 Hidden, 911 Interval, 912 Options, 913 StrOptions, 914 _ArrayLikes, 915 _Booleans, 916 _Callables, 917 _CVObjects, 918 _InstancesOf, 919 _IterablesNotString, 920 _MissingValues, 921 _NoneConstraint, 922 _PandasNAConstraint, 923 _RandomStates, 924 _SparseMatrices, 925 _VerboseHelper, 926 make_constraint, 927 validate_params, 928 ) ImportError: cannot import name '_MissingValues' from 'sklearn.utils._param_validation' (/Users/marco_local/anaconda3/lib/python3.11/site-packages/sklearn/utils/_param_validation.py) Name: imblearn Version: 0.0 Summary: Toolbox for imbalanced dataset in machine learning. Home-page: https://pypi.python.org/pypi/imbalanced-learn/ Author: UNKNOWN Author-email: UNKNOWN License: UNKNOWN Location: /Users/marco_local/anaconda3/lib/python3.11/site-packages Requires: imbalanced-learn Required-by: Note: you may need to restart the kernel to use updated packages.커널을 다시 시작해도 동일한 문제가 발생하여 문의드립니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
iou 계산 식 문의
안녕하세요! 너무 좋은 수업을 들을 수 있어 감사합니다!질문이 있는데요,위 코드에서 iou를 구하려면 cand_box에서와 같이 gt_box의 2,3번째 값도 x max와 y max로 바꿔줘야 하는게 아닌가요??
-
해결됨머신러닝/딥러닝으로 이어지는 선형대수
그람슈미츠 프로세스 증명
그람슈미츠 프로세스 증명 시 u1 v1을 같다고 하고 시작하셨는데요. orthonamal vector는 크기가 1인데 기존의 벡터가 크기가 1이라는 보장이 없잖아요? 근데 어떻게 저런 가정이 갑자기 되는지 잘 모르겠습니다 ㅠ
-
미해결[Pytorch] 파이토치를 활용한 딥러닝 모델 구축
IMDBDataset 파일 다운로드가 안되는데 어떻게 받을 수 있을까요?
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요.IMDBDataset 파일 다운로드가 안되는데 어떻게 받을 수 있을까요? > !gdown https://drive.google.com/uc?id=1RFs-jV18dy9I3cWQ2M80kHfON-fDCerg ------------------------------------------- Access denied with the following error: Cannot retrieve the public link of the file. You may need to change the permission to 'Anyone with the link', or have had many accesses. You may still be able to access the file from the browser: https://drive.google.com/uc?id=1RFs-jV18dy9I3cWQ2M80kHfON-fDCerg
-
해결됨Google 공인! 텐서플로(TensorFlow) 개발자 자격증 취득
슬랙초대 부탁 드립니다.
안녕하세요.강의 열심히 듣고 있습니다.슬랙 초대 부탁 드립니다.1sunpa@gmail.com
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
한국번호판 머신러닝
안녕하세요~한국 번호판도 OCR 인식이 가능할까요?데이터셋에 필요한게 무엇이 있을까요? 한국 번호판은 생성을 했는데..groundtruth.csv 파일도 필요할까요?
-
해결됨처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part4]
실제 캐글(Kaggle) 문제 풀고, 제출해보며, 성능 개선 기법 익히기5 강의에서 질문입니다
실제 캐글(Kaggle) 문제 풀고, 제출해보며, 성능 개선 기법 익히기5 강의에서 질문입니다.해당 강의 2:50 부분부터 Evaluation 코드에 관해 설명을 해주셨는데요,with torch.no_grad() 안쪽의 코드에서는 with torch.no_grad(): model.eval() ret = None for img, fileid in data_loader: img = img.to(device) pred = model(img) ids += list(fileid) # ex) [1, 2] + [3, 4] -> [1, 2, 3, 4] if ret is None: ret = pred.cpu().numpy() else: ret = np.vstack([ret, pred.cpu().numpy()]) return ret, ids pred.cpu().numpy()와 같이detach()를 따로 사용하지 않은 걸 볼 수 있었습니다. detach()의 사용에 관해서 찾아보니, with torch.no_grad() 블록은 역전파(gradient 계산)를 비활성화 하므로,pred는 gradient 계산과 관련이 없기에, detach()를 따로 호출하지 않고 numpy 배열로 변환할 수 있다 라는 내용을 찾을 수 있었습니다. 그 전에 수업 시간에 보여주신 코드에서는 model.eval() with torch.no_grad(): for x_minibatch in x_test_batch_list: y_minibatch_pred = model(x_minibatch) print(len(y_minibatch_pred), y_minibatch_pred.shape) y_pred_list.extend(y_minibatch_pred.squeeze().detach().tolist())이와 같이with torch.no_grad() 안에서도 detach()를 사용하신 코드들을 볼 수 있었는데요,Evaluation 단계에서 detach()의 사용이 필수적인 것인지 여쭙고 싶습니다!
-
해결됨실전 인공지능으로 이어지는 딥러닝 개념 잡기
XOR 파트에서 질문 있습니다.
초반에 bias를 열벡터로 표현시다가 강의 6분부터는 행 벡터로 나오는데요 bias에는 Transpose 표기가 되어 있지 않습니다 왜그런지 궁금합니다
-
해결됨실전 인공지능으로 이어지는 딥러닝 개념 잡기
SGD + 모멘텀 등의 코드
안녕하세요 강사님 ㅎㅎ강의 너무 잘 듣고 있습니다.다름이 아니라.15:40 에 많이 사용하는 것이SGC + 스케줄링 또는 SGD + 모멘텀 + 스케줄링 이라고 말씀하셨는데요.해당 부분을 코드로 나타내면 이렇게 되는게 맞을까요?import torch import torch.optim as optim # SGD + 스케줄링 optimizer = optim.SGD(model.parameters(), lr=0.01) # SGD + 스케줄링 + 모멘텀 optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9) scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=30, gamma=0.1) for epoch in range(num_epochs): ... for inputs, targets in train_loader: optimizer.zero_grad() outputs = model(inputs) loss = criterion(outputs, targets) loss.backward() optimizer.step() scheduler.step() 감사합니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
에러 정보 문의드립니다.
colab무료 자원이 없어서, jupyter notebook환경에서 fine-turning을 진행하는데 CUDA Version: 12.2 에서 autotrain llm시libcusparse.so.11: cannot open shared object file: No such file or directory 에러가 발생하고 있습니다. 혹시 해결방법을 조언받을수 있을까요?
-
해결됨[딥러닝 전문가 과정 DL1101] 딥러닝을 위한 파이썬 레벨1
수강 기간 연장
[딥러닝 전문가 과정DL1101] 딥러닝을 위한 파이썬 레벨 1 듣고 있는데, 다른 일로 바빠서 3개월이 금방 지나가버렸습니다 ㅠㅠ 50%까지 들었는데, 조금이라도 기간 연장해주실 수 있을까요? 끝까지 강의 듣고싶습니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
PEFT 실습 4에서 training시작할때 out of memory가 발생합니다.
PEFT 실습 4에서 training시작할때 out of memory가 발생합니다.
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
CRNN_license_plate_data_fine_tuning_example_solution.ipynb 코랩 url 알려주세요.
pdf에 없는거 같아요.영상시작할때도 페이지 열려있는 상태에서 시작해서들어가는 방법을 모르겠구요.그리고 차량번호판 OCR때문에 영상듣는건데전체 프로젝트 파일은 따로 없는 건가요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
문제에 봉착했습니다!!도움 부탁드립니다.
openai.FineTuningJob.create(training_file="file-G8e3McuXFWVZnm1XSNB-----", model="gpt-3.5-turbo")위의 코드에 대해서 아래와 같이 메세지가 나오면서 실행이 안됩니다 ㅠㅜ { "name": "AttributeError", "message": "module 'openai' has no attribute 'FineTuningJob'", "stack": "--------------------------------------------------------------------------- AttributeError Traceback (most recent call last) /Users/loveyourself/dev/LLM/chatBot/worKBee/worKBee.ipynb 셀 3 line 1 ----> <a href='vscode-notebook-cell:/Users/loveyourself/dev/LLM/chatBot/worKBee/worKBee.ipynb#W3sZmlsZQ%3D%3D?line=0'>1</a> openai.FineTuningJob.create(training_file=\"file-G8e3McuXFWVZnm1XSNBtMrmA\", model=\"gpt-3.5-turbo\") AttributeError: module 'openai' has no attribute 'FineTuningJob'" } FineTuningJob 이 없다고 하는데 어떻게 해야하나요..
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
Korquad 데이터셋
강의잘듣고있습니다.Korquad데이터셋을 나만의 데이터로 만드는 쉬운 방법이 있나요? 하나하나 직접 작성해야되는건지 문의드립니다. 또한 나만의 데이터는 gpt를 통해서 학습 등이 어려워서 추가데이터를 만들때 사용을 못할 것 같은데 방법이 있는지 문의드립니다