묻고 답해요
150만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
순위 정보를
불러오고 있어요
-
해결됨[파이토치] 실전 인공지능으로 이어지는 딥러닝 - 기초부터 논문 구현까지
overfitting이 나는 이유가 궁금합니다.
데이터의 4가지만 고려했다는 것은, 주식예측에 대해서 재무제표나 그런 지표들을 고려를 안했다는 의미로 말씀하신거 같습니다 근데 그 외에 이유도 있을지 궁금하여 질문 드립니다!
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
소량의 fineTuning 이 미치는 영향
주어진 메세지를 학습할 때 20 개의 데이터를 학습시키는데 이미 엄청난 양의 데이터가 학습이 되어 있는데 이런 자아(system)이 반영될 수 있는건가요?
-
미해결[AI 기초] AI Research Engineer를 위한 CNN 이해하기
pytorch 설치시 anaconda를 더이상 지원하지 않는다고 합니다.
pip3로 설치해도 괜찮을까요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
파인튜닝모델에게 일반적인 질문 할 경우에 대한 궁금증
Llama2 Fine-Tuning 예제를 보며 meta-llama/Llama-3.1-8BLlama-3.1을 파인튜닝을 하였습니다.파인튜닝한 모델과 Llama-3.1을 병합하여 파인튜닝된 데이터를 물어보니 어느 정도 대답을 잘 하였습니다.하지만 파인튜닝된 이외의 질문을 해봤더니 계속해서 파인튜닝된 데이터만 출력해 주고 있습니다. 예를 들어지구에 대해서 설명해줘라고 했지만 지구와 전혀 상관없는 파인튜닝된 데이터를 출력합니다. 기존 모델의 문제인가 확인하기 위해 파인튜닝과 병합안한 기본 Llama-3.1모델에게 질문하면 지구에 대한 설명을 아주 잘해주고 있습니다. 기본 모델과 파인튜닝한 모델을 병합하면 파인튜닝한 모델 데이터에서만 결과 값을 도출하는지 궁금합니다.
-
미해결6일 만에 배우는 파이토치 딥러닝 기초
2일차 참조 답안
2일차 참조 답안을 보면 학습을 두 번 시키는 이유가 있을까요? 학습을 두 번 시키면 과적합이 발생하지 않나요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
모델에 대한 성능평가 방법
다른 모델들에 대한 성능을 어떤 방법으로 비교 하였나요?
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
파이토치 설치
안녕하세요 강사님 말씀대로 주피터 노트북 환경에서 파이토치를 설치해 보았습니다. 근데 conda 환경에서는 더 이상 지원을 하지 않는다고 하면서 pip로 설치하라는 얘기합니다. pip로 설치를 해도 괜찮은지, 아니면 다른 방법이 있는지 궁금합니다.
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
[섹션3, PyTorch로 구현해보는 Loss Function] 분류task loss함수 질문입니다.
좋은 강의 정말 잘 듣고있습니다. 항상 감사합니다.다름이 아니라 nn.BCEloss 나 nn.BCEWithLogitsLoss에서 이름에 B(Binary)가 들어가 이진분류 문제에 사용하는 함수인가 싶었는데, 실습 강의때 처럼 다중 분류 문제의 loss 함수로 사용해도 괜찮은 것인지 여쭙고 싶습니다.generate_onehot 함수는 클래스가 10개인 다중분류 데이터를 생성합니다.batch_size = 16 n_class=10 def generate_onehot(batch_size=16, n_class=10): pred = torch.nn.Softmax()(torch.rand(batch_size, n_class)) gt = torch.rand(batch_size, n_class) gt = torch.tensor(gt == torch.max(gt, dim=1, keepdim=True)[0]).float() # convert to onehot return pred, gt
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
[Pytorch 기울기의 누적 곱? 누적 합?]
optimizer.zero_grad()를 호출하여 모델 매개변수의 변화도를 재설정합니다. 기본적으로 변화도는 더해지기(add up) 때문에 중복 계산을 막기 위해 반복할 때마다 명시적으로 0으로 설정합니다.파이토치 한국어 커뮤니티에서 봤었던 내용이랑 너무 헷갈려서 질문 드립니다. 강사님이 6:00 시작부터 왜 zero_grad()를 사용하는지 설명하시는 부분에서 새로운 출력값에 대한 오차값의 편미분이 누적해서 "곱"해지는 것 처럼 설명해주시는데 , 제가 이해한 바로는 기울기가 이전 반복의 기울기에 "더해지는 것"으로 알고 있거든요 제가 잘못 이해하고 있는 것인지 궁금합니다. 아래가 제가 이해하고있는 과정입니다.(기울기 초기화를 하지 않을시 Pytorch의 누적 과정)
-
미해결[AI 실무] AI Research Engineer를 위한 논문 구현 시작하기 with PyTorch
Loss (4) 강의 마지막 부분 jupyter notebook 재시작 관련 질문
강사님께서 마지막 부분에서 jupyter notebook으로 style_loss을 출력하실 때 jupyter를 재시작 하셨는데, 혹시 재시작한 이유가 있을까요? 저도 재시작을 하지 않고 코드를 실행하면 아무것도 출력이 안되다가, 재시작하고 모든 코드를 재실행하니, 출력이 되어서 질문드립니다.
-
미해결강화학습 입문에서 Deep Q-learning/Policy Gradient까지
실습에러 TImelimit
안녕하세요. Frozen lake 실습에서 해당 코드 실행하면 에러가 나옵니다.ㅜㅜ코드 잘못짠건 아니고 올려주신 파일 그대로 실행했을때 에러납니다.에러코드transitions = env.P 여기서 문제가 생기는것 같습니다.감사합니다.
-
해결됨강화학습 입문에서 Deep Q-learning/Policy Gradient까지
실습
안녕하세요. 말씀하신대로cd 디렉토리명 입력하고 code .입력하면code 는 내부 또는 외부명렬 실행할수 있는 프로그램 또는 배치 파일이 아닙니다 라고 나옵니다. 또 spyder 에서 001 cart visualize 를 실행해봤는데 No module named 'gymnaisum' 이 나옵니다.pip install gymnasium 은 해놓은 상태이고 gym 이 설치되있는것까지 확인했습니다. 어떻게 해결하면 될까요? 감사합니다.
-
해결됨강화학습 입문에서 Deep Q-learning/Policy Gradient까지
강의자료
강의자료는 따로 없나요?
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
3d 텐서에서의 축 구분 질문
import torch data1 = torch.DoubleTensor([ [[1, 2, 3], [4, 5, 6]], [[7, 8, 9], [10, 11, 12]] ]) print (data1.shape, "높이(k):", data1.size(0), "너비(n):", data1.size(1), "깊이(m):", data1.size(2))위와 같이 예제 코드를 보다 의문이 들어 문의 남깁니다.기존에 배웠던 넘파이 데이터 구조에서와 마찬가지로 생각했는데,여기 텐서에서도 순서가 깊이(depth) - 높이(row) - 너비(column) (2, 2, 3) 순이 아닌지 하여 질문 드립니다.혹시 제가 오개념을 잡고 있다면, 알려주시면 정말 감사하겠습니다!
-
해결됨처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
항상 tensor([0., 0., 0.]) 형식으로만 나오는 이유
- 강의 영상에 대한 질문이 있으시면, 상세히 문의를 작성해주시면, 주말/휴일 제외, 2~3일 내에 답변드립니다 (이외의 문의는 평생 강의이므로 양해를 부탁드립니다.)- 강의 답변이 도움이 안되셨다면, dream@fun-coding.org 로 메일 주시면 재검토하겠습니다. - 괜찮으시면 질문전에 챗GPT 와 구글 검색을 꼭 활용해보세요~- 잠깐! 인프런 서비스 운영(다운로드 방법포함) 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요 파이토치 실습 코드 부분 수강시 마다,강의와 동일하게 torch.FloatTensor 메서드를 쓰는데도 강의에서 나오는 출력값 : tensor([2.1218e+28, 1.8070e+29, -4.3554e+28]) 실제 출력값 : tensor([0., 0., 0.]) 계속 위와 같은 결과가 나옵니다. 타 웹페이지를 검색해봐도 나오지 않아, 원인 및 조치방법 문의드립니다.
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
강의자료 PDF 다운로드에 관하여
- 강의 영상에 대한 질문이 있으시면, 상세히 문의를 작성해주시면, 주말/휴일 제외, 2~3일 내에 답변드립니다 (이외의 문의는 평생 강의이므로 양해를 부탁드립니다.)- 강의 답변이 도움이 안되셨다면, dream@fun-coding.org 로 메일 주시면 재검토하겠습니다. - 괜찮으시면 질문전에 챗GPT 와 구글 검색을 꼭 활용해보세요~- 잠깐! 인프런 서비스 운영(다운로드 방법포함) 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하십니까? 선생님 강의를 여러개 꾸준히 듣고 있는 학생입니다.처음하는 딥러닝과 파이토치 강의를 들으며 강의자료에 필기를 하고 싶은데 다운로드가 불가능하여 학습에 조금 불편함을 느끼고 있습니다. 드라이브 강의자료 다운로드 권한을 구매자에 한에 풀어주실순 없으실까요?
-
미해결6일 만에 배우는 파이토치 딥러닝 기초
2일차 종합실습 모델 평가 MAPE 지표
안녕하세요. 강의 잘 듣고 있습니다.종합실습에서 모델을 만들고 돌린 후에 모델 평가 코드를 실행했습니다. 다른 지표는 이전 실습(강의)에서 했던 것과 비슷하게 나왔습니다. 하지만 MAPE 지표는 엄청 큰 값이 나왔습니다. 예)MAPE : 352267848908800.0혹시 몰라서 참조답안 코드도 전체 실행하고 MAPE 지표를 확인했고 마찬가지로 (MAPE : 380158091460608.0 ) 엄청 큰 값이 나왔습니다. 왜 이렇게 큰 값이 나온 걸까요?chat한테 물어보니까 다음과 같은 답변을 받았습니다. MAPE 값이 매우 큰 것은 비정상적입니다. 일반적으로 MAPE는 100% 미만의 값을 가집니다.이렇게 큰 MAPE 값은 다음과 같은 이유로 발생할 수 있습니다:실제값 중 0 또는 0에 매우 가까운 값이 있어 분모가 극히 작아진 경우데이터 스케일링 문제로 인해 예측값과 실제값의 차이가 극단적으로 큰 경우계산 과정에서의 오류이러한 MAPE 값은 신뢰할 수 없으며, 데이터나 모델에 문제가 있을 가능성이 높습니다. MSE와 MAE는 상대적으로 합리적인 값을 보이고 있으므로, MAPE 계산 과정이나 데이터를 재검토해볼 필요가 있습니다.
-
미해결[AI 실무] AI Research Engineer를 위한 논문 구현 시작하기 with PyTorch
vgg19 입력 이미지의 width, height 에 관하여.
안녕하세요, 수업 정말 잘 들었습니다 🙂 하나 궁금한 건,vgg19 의 features 및 classifier 를 확인해보니, """(features): Sequential( (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)) (1): ReLU(inplace=True)... (34): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)) (35): ReLU(inplace=True) (36): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)(classifier): Sequential( (0): Linear(in_features=25088, out_features=4096, bias=True) (1): ReLU(inplace=True)"""이렇게 생겼더라구요. 입력 이미지의 원래 width, height 를 X 라고 했을 때,vgg19 에서 다섯 번의 maxpool2d 및 Conv 레이어를 거치며,최종적인 width, height, channel 은 X/(2^5), X/(2^5), 512 이 될 것 같고,이게 Fully Connected Layer 의 입력 unit 25088 개와 같은 숫자가 되려면,X = 224 가 맞는 것 같은데, 강의 코드에서 512 로 설정하신 이유가 특별히 있으실까요?
-
해결됨[AI 실무] AI Research Engineer를 위한 논문 구현 시작하기 with PyTorch
loss.py 와 train.py 역할 명료화
안녕하세요, 수업 정말 잘 들었습니다 🙂 하나 궁금한 건, loss.py 에서 ContentLoss, StyleLoss 를 정의하고, 이후 해당 클래스들을 train.py 에서 불러온 다음 total_loss 를 계산하였는데. 혹시 loss.py 에서 total_loss 의 클래스도 구현하는게 정석적인 건지 아니면 이처럼 train 과정에서 새로운 loss term 을 하이퍼파라미터와 함께 초기화하여 사용하는게 더 일반적인 건지 궁금합니다.
-
해결됨[AI 기초] AI Research Engineer를 위한 CNN 이해하기
논문구현 강의수강 관련
안녕하세요, 선생님의 논문구현 강의 수강 전에 문의드릴 것이 있어 부득이하게 여기에 질문 드립니다.가용할 gpu가 마땅치 않아 코랩을 이용해야 할 것 같은데 해당 강의를 수강하는데 문제가 될까요?감사드립니다
주간 인기글
순위 정보를
불러오고 있어요