묻고 답해요
150만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
순위 정보를
불러오고 있어요
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
LSTM 모델 학습 관련한 질문입니다.
- 강의 영상에 대한 질문이 있으시면, 상세히 문의를 작성해주시면, 주말/휴일 제외, 2~3일 내에 답변드립니다 (이외의 문의는 평생 강의이므로 양해를 부탁드립니다.)- 강의 답변이 도움이 안되셨다면, dream@fun-coding.org 로 메일 주시면 재검토하겠습니다. - 괜찮으시면 질문전에 챗GPT 와 구글 검색을 꼭 활용해보세요~- 잠깐! 인프런 서비스 운영(다운로드 방법포함) 관련 문의는 1:1 문의하기를 이용해주세요.올려준 강의 중에서 섹션 16의 주식 데이터 예측하기를 수강하던 중에 궁금한 점이 생겼습니다.각 날짜의 시작 가격을 입력으로 넣고 마감 가격을 정답으로 했는데, 그러면 추후 학습된 모델을 이용해서 예측을 할 때 2일 또는 3일 뒤의 가격을 예측할 수 있나요?다른 학습 모델을 만들어야 하나요?
-
미해결딥러닝 CNN 완벽 가이드 - Pytorch 버전
numpy, pandas
안녕하세요. 선생님numpy, pandas가 아직 익숙하지 않은데, 이 경우 어떤 교재나 강의를 보면서 하는걸 추천드리시나요?
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
MSE LOSS 관련
안녕하세요. 강의 듣다가 의문사항이 있어 질문드립니다.공유해주신 pdf 파일에서 07.multilabel_classification.pdf 에서BCELOSS 함수와 Binary classification(이진분류)에 적힌 내용입니다. Regression 문제에서 mse loss 함수를 사용하면 , 함수가 non-convex 한 이슈가 있다고 적혀있는데Regression 이 아니라 classification 문제에서 발생하는 이슈가 아닌가싶어 질문드립니다. mse loss 함수가 non-convex한 이슈가 발생한다는 점이 왜 언급된건지 궁금합니다.
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
test시 minibatch 사용?
안녕하세요. 강의 잘 보고 있습니다.학습시 minibatch를 사용했다면, test시에서 minibatch 수만큼 사용하여 prediction한다고 하셨는데,제가 알고 있던 것과 좀 달라 문의드립니다.학습할때는 minibatch gradient descent를 사용해 학습하더라도, 테스트할때는 minibatch 만큼 인풋을 사용할 필요가 없을것 같은데요.예를들어 한개의 데이터(여러 feature를가진)만을 인풋으로 넣어도 당연히, output인 집값을 잘 예측해야하고,minibatch 이상의 데이터 수를 넣어도 역시 잘 예측해야 맞는게 아닌가 싶습니다.미니배치를 쓰더라도 데이터셋전체를 한번의 epoch안에 다 사용해서모델을 튜닝하고 epoch을 반복하니까,평가할때는 미니배치랑은 전혀 상관없는것으로 알고있었는데, 아닌가요? 감사합니다.
-
미해결최신 딥러닝 기술 Vision Transformer 개념부터 Pytorch 구현까지
mean attention distance
vit 결과 부분에서 mean attention distance가 멀다는게 왜 전체적으로 본다는걸 의미하는지 잘 모르겠습니다
-
미해결[AI 실무] AI Research Engineer를 위한 논문 구현 시작하기 with PyTorch
cuda sdk 설치 중 질문이 있습니다.(쌤~~추가질문 댓글로 올려놨으니 답변 부탁드려용~~)
cuda sdk에서 6.0을 설치할려고 하는데 pytouch install에서 링크(https://pytorch.org/get-started/previous-versions/)여기서 어느부분을 복사해야할까요?윈도우입니다.
-
미해결6일 만에 배우는 파이토치 딥러닝 기초
3-4 이진분류 모델링 실습 원핫 인코딩 질문 드립니다.
안녕하세요.3-4 이진분류 모델링 실습 .ipynb 파일에서 궁금증이 생겨 질문 드립니다.이직 여부 예측 분류 문제에서 직원 샘플에 대해 여러 가지 종류의 feature가 있는 것을 알 수 있습니다.이 feature 중에는 숫자형 데이터도 존재하고, 범주형 데이터, 문자형 데이터(drop해서 삭제)도 존재합니다.숫자형 데이터 같은 경우에는 그대로 모델링에 사용해도 되지만, 범주형 데이터 같은 경우에는숫자 1 ~ 5 혹은 1 ~ 4 형태이긴 하지만 해당 숫자가 연속성을 가진 숫자가 아니고, 특정 의미(Bad, Good 등)를 가지는 범주를 나타내는 형태로 의미가 파악이 됩니다. 그렇기에 해당 데이터들에는 원핫 인코딩을 해야 할 것이라고 생각이 되는데, 이러한 생각이맞는지 여쭈어 보고 싶습니다. 더불어 문자 데이터 feature는 삭제하고, 범주형 데이터는 원핫 인코딩을 하고, 숫자형 데이터는그대로 이용해서 모델을 학습하고 예측을 한 결과, 이직 여부에서 Yes(1.0)인 경우에서의 정밀도와 재현율이 상당히 낮게 나오는 것을 확인할 수 있었습니다.그래서 혹시 Yes(1.0)이 200개, No(0.0)이 1050개로 차이가 나서 이런 결과가 나온 것인가 싶어 훈련, 평가 데이터 분류에서 stratify=y를 하였는데도 결과는 크게 달라지지 않았습니다. 이에 대해서도 선생님께 여쭈어 보고 싶습니다. 읽어주셔서 감사합니다.
-
미해결[AI 기초] AI Research Engineer를 위한 CNN 이해하기
input_channel, output_channel은 질문입니다.
강의 CNN (2) - input_channel, output_channel은 무엇을 의미하는가 ? 이 파트 질문입니다.3분에 8채널이 되면, 필터가 어마무시하게 많아진다고 하셨는데 아래 그림같이 엣지 필터나 블러필터 하나로 1,1열 적용하고 1,2행 적용하는거 아닌가요?[[-1, 0, 1],[-2, 0, 2],[-1, 0, 1]])
-
미해결[AI 기초] AI Research Engineer를 위한 CNN 이해하기
.
.
-
미해결[파이토치] 실전 인공지능으로 이어지는 딥러닝 - 기초부터 논문 구현까지
논문 구현
강의 제목이 논문 구현인데 논문에 대해서는 너무 짧은거같습니다 ㅠ 혹시 연구원(강사) 님 다른 강의추천 해주실수있나요..
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
Average Test loss 계산식 문의
11_MILTI-LABEL-CLASSIFICATION-DROPOUT-BATCHNORMALIZATION.ipynb 파일의 테스트 셋 기반 Evaluation 코드 질문이 있어서 문의 드립니다. test_loss /= len(test_batches.dataset)평균 Test loss를 보기 위해서는 뒤에 .dataset이 빠져야 되는 것이 아닌가 싶어서 문의 드립니다.loss를 구하는 과정은 minibatch 단위로 구했기 때문에 minibatch로 나누어야 평균 Test loss가 아닌가 싶습니다.
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
[section 14 / [실습] 직접 만든 CNN 모델과 ResNet, VGGNet을 활용한 CV 프로젝트] transforms.Normalize 질문
cifar10 데이터셋에 대하여 Normalize를 적용하는 이유가 궁금합니다.mean과 std 리스트에 들어있는 값의 의미가 무엇인가요?이미 ToTensor()로 0~1값의 스케일링 된 데이터를, 표준화까지 적용하여 평균0, 분산 1로 만드는데 장점이 있는건가요??normalize = transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]) def get_dataloaders(): train_data = torchvision.datasets.CIFAR10( root="../.cache", train=True, download=True, transform=transforms.Compose([torchvision.transforms.ToTensor(), normalize]), )
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
Llama vision 이미지 해상도
안녕하세요, 지금 한번 llama3.2 vision을 다른 이미지와 테스트를 해보고 있는데, vision이 인식하기 위한 최소 이미지 사이즈나 해상도가 있나요? https://ollama.com/blog/llama3.2-vision이 링크를 통해서 제 로컬에서 실험해보고 있는데, added image는 되는데, 그 이후 답변을 안해 줘서, 혹시 다른 이미지로도 테스트 가능하신지 궁금합니다!
-
미해결[AI 실무] AI Research Engineer를 위한 논문 구현 시작하기 with PyTorch
import 오류 관련
안녕하세요 선생님, 주피터 test.ipynb 파일에서 models 파일의 StyleTransfer을 불러오는 기본적인 import가 안되어 문의 드립니다. 혹시 코드의 문제인가 싶어 loss.py라는 파일에 A라는 클래스를 만들고 똑같이 import 시도해 보았지만 실행이 되지 않습니다 ㅜ test와 loss 파일은 실행해 보았고 문제없이 돌아가는 것을 확인하였습니다. gpt를 통해 여러 방법을 시도해 보았지만 잘 풀리지 않아 질문 드립니다..
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
[section 14 / VGGNet ] receptive filed 질문
안녕하세요. 항상 강의 잘 듣고 있습니다. 감사합니다. 다름이 아니라 section14. vggnet 강의를 듣던 중 receptive field에 대해 의문이 생겨 질문하게 되었습니다. 교안 82페이지에 (3,3) conv layer 2개를 쌓으면 receptive field가 (5,5)가 아니라 왜 (7,7)이 되는 것인지 궁금합니다.(1,1) 픽셀이 직전 에 (3,3)에서 왔고, (3,3)은 직전 (5,5)에서 convolution 연산으로 오는 것이 아닌가요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
API 특정 짓는 법
안녕하세요 선생님1. GPT가 질문에 대한 적절한 답변을 하기 위해서 API 호출하는 것이 어떤 원리인지 잘 모르겠습니다.2. 정해진 API 만 사용할 수 있도록 정하는 방법이 있다면 무엇인가요? (예. 기상청 데이터만 사용하고 싶을 때)
-
해결됨[파이토치] 실전 인공지능으로 이어지는 딥러닝 - 기초부터 논문 구현까지
overfitting이 나는 이유가 궁금합니다.
데이터의 4가지만 고려했다는 것은, 주식예측에 대해서 재무제표나 그런 지표들을 고려를 안했다는 의미로 말씀하신거 같습니다 근데 그 외에 이유도 있을지 궁금하여 질문 드립니다!
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
소량의 fineTuning 이 미치는 영향
주어진 메세지를 학습할 때 20 개의 데이터를 학습시키는데 이미 엄청난 양의 데이터가 학습이 되어 있는데 이런 자아(system)이 반영될 수 있는건가요?
-
미해결[AI 기초] AI Research Engineer를 위한 CNN 이해하기
pytorch 설치시 anaconda를 더이상 지원하지 않는다고 합니다.
pip3로 설치해도 괜찮을까요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
파인튜닝모델에게 일반적인 질문 할 경우에 대한 궁금증
Llama2 Fine-Tuning 예제를 보며 meta-llama/Llama-3.1-8BLlama-3.1을 파인튜닝을 하였습니다.파인튜닝한 모델과 Llama-3.1을 병합하여 파인튜닝된 데이터를 물어보니 어느 정도 대답을 잘 하였습니다.하지만 파인튜닝된 이외의 질문을 해봤더니 계속해서 파인튜닝된 데이터만 출력해 주고 있습니다. 예를 들어지구에 대해서 설명해줘라고 했지만 지구와 전혀 상관없는 파인튜닝된 데이터를 출력합니다. 기존 모델의 문제인가 확인하기 위해 파인튜닝과 병합안한 기본 Llama-3.1모델에게 질문하면 지구에 대한 설명을 아주 잘해주고 있습니다. 기본 모델과 파인튜닝한 모델을 병합하면 파인튜닝한 모델 데이터에서만 결과 값을 도출하는지 궁금합니다.
주간 인기글
순위 정보를
불러오고 있어요