묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨[파이토치] 실전 인공지능으로 이어지는 딥러닝 - 기초부터 논문 구현까지
data의 gpu처리 질문
cnn에서는 다음과 같이 dataloader로 부터 얻은 data를 gpu로 변경 했습니다. seq, target = data[0].to(device),data[1].to(device),하지만 RNN에서는 다음과 같이 cpu로 처리 합니다. 이유가 무엇 인가요?? seq, target = data
-
해결됨최신 딥러닝 기술 Vision Transformer 개념부터 Pytorch 구현까지
행렬 차원 수 질문
안녕하세요.'비전 트랜스포머-최신 모델' 강의 11:36 근처 슬라이드를 기준으로 질문드리겠습니다. (사실 그 이후부터 계속 지속적으로 차원 혼동이 있는 것 같아서, 하나를 기준삼아서 질문드리면 나머지가 저절로 해결될 것 같습니다.) p=(size of patch)로 정의를 하고 사진을 N개로 쪼갠다고 가정했을 때, 그것을 flatten시켜준 각각의 벡터들, (x_{p}^{i}, i=1,...,N)이라고 가정했을 때, 해당 벡터는 P^2*C 차원의 벡터들이 되는 거잖아요? 그렇다면, 그 N개의 벡터들을 concatenate하여 행렬 x_p를 구축했을 때, 그 차원은 (P^2*C) by N이 되어야 하는게 아닌가요? 이 이후부터 슬라이드에서는 가로와 세로가 뒤바뀌어 있는 것 같은데 뭐 실전에서는 transpose하면 되는 문제긴 하지만 나름대로 엄청나게 궁금해져서 질문을 드려봅니다. 설명을 해주신거나 그림을 그려주시는 것은 모두 x_{p}^{i}가 열벡터이고 concatenate를 하실 때 row-wise가 아니라 column-wise로 합치신 것 같아서 그렇게 생각이 들었습니다.
-
미해결최신 딥러닝 기술과 객체인식
평가 지표 실습(4) IoU와 mAP 질문
1분 쯤에 나오는 표에서 conf는 임계치가 아닌 confidence score를 나타냅니다. 그런데 강의 내용과 오른쪽 P-R curve는 conf를 임계치로 생각하고 말씀을 해주시는데, 제가 헷갈린건지 아니면 오류가 있는건지 알려주실 수 있으실까요? 😀 또 헷갈리는게 있는데, 만약 AP를 계산할 때 IoU 임계값에 따른다고 하면 confidence 임계 값은 고정을 하고 계산하는거겠죠? 그렇다면 논문 마다 mAP를 계산하는 방식이 다른데 이는 논문에서 계산방법을 보통 알려주나요?
-
해결됨최신 딥러닝 기술과 객체인식
평가 지표 실습 (3) PR curve와 mAP 질문
안녕하세요!강의에서 Precision-Recall를 구할 때 Confidence score를 기준으로 내리차순 한 뒤 P, R을 구하는 방법을 알려주셨습니다. 근데 실제 구현에서는 바로 tp,fp,tn,fn 을 구한 뒤 P,R을 구하는게 훨씬 빠를 것 같은데 해당 방식은 왜 나온건가요? 사람이 직접 구할 때 조금 더 직관적으로 보기 위해서 사용하는 방식인가요?
-
미해결
딥러닝 머신 러닝 회귀분석 질문 있습니다.
머신러닝으로 회귀분석을 하면 훈련데이터에서는 99퍼 테스트데이터 92퍼가 나오는데 딥러닝으로 모델을 만들어서 돌리면 loss가 2천만 이렇게 나오는데 머신러닝과 딥러닝 모델이 이상한지 아니면 데이터가 이상한지 모르겠습니다 머신러닝 모델xgb_reg = xgb.XGBRegressor(booster="dart",random_state=0) params = {"subsample" : uniform(0,1), "max_depth" : randint(3,10), "n_estimators" : randint(100,300), 'learning_rate':uniform(0.01, 0.1), "gamma": randint(0,5),} xgb_reg_random = RandomizedSearchCV(xgb_reg,params,n_jobs=-1,n_iter=100,scoring='neg_root_mean_squared_error',random_state=0,cv=kf)딥러닝 모델scaled_deep_train.shape,scaled_deep_test.shape # ((180, 21), (45, 21)) scaled_deep_train = np.reshape(scaled_deep_train,(180,21,1)) scaled_deep_test = np.reshape(scaled_deep_test,(45,21,1)) # ((180, 21,1), (45, 21,1 )) model.add(keras.layers.Conv1D(16,kernel_size=3, activation="relu",padding="same",input_shape = (21,1))) model.add(keras.layers.Flatten()) model.add(keras.layers.Dense(100,activation="relu")) model.add(keras.layers.Dense(1)) adagrad= keras.optimizers.Adagrad(learning_rate=1e-5) model.compile(optimizer = sgd,loss = "mean_squared_error",metrics=["mse"]) history = model.fit(scaled_deep_train,y_train, epochs=200,batch_size=8 ,validation_split=0.2,callbacks=[early_stopping_cb])이런식으로 구성되어있습니다.
-
해결됨모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
autotrain로 fine tuning 후 embedding vector 구하는 방법이 있을까요?
안녕하세요. mistral 과 llama2를 사용해서 embedding vector를 통해 챗봇을 구현하고 있습니다. 기존 모델로 embedding vector를 구하면 답변 검색이 잘 되지 않아서 파인튜닝을 한 후에 embedding vector를 구하려고 합니다. 학습과정에서 알려주신 대로 mistral 과 llama2의 fine tuning을 완료 했습니다. fine tuning한 모델에서 generate는 잘 동작하나, embedding vector가 생성이 되질 않아 질문 드립니다. 기존 모델을 통한 임베딩 방식은 다음과 같습니다. seq_ids = tokenizer(text, return_tensors='pt')["input_ids"]embedding = model(seq_ids)["last_hidden_state"].mean(axis=[0,1]).detach().numpy()기존 원본 모델에서는 'last_hidden_state' 값을 통해서 계산하지만fine tuning한 모델에서는 'logits' 값만 존재 합니다. - 원본 모델 리턴값 : odict_keys(['last_hidden_state'])- fine tuning 모델 리턴값 : odict_keys(['logits']) 그래서 파인튜닝한 모델을 보면 Peft 와 Lora로 한번 레이어로 감싼 형태로 리턴되서 그럴꺼라 추측하는데요.기존 모델 MistralForCausalLM( (model): MistralModel( (embed_tokens): Embedding(46081, 4096, padding_idx=2) (layers): ModuleList( (0-31): 32 x MistralDecoderLayer( (self_attn): MistralAttention( (q_proj): Linear(in_features=4096, out_features=4096, bias=False) (k_proj): Linear(in_features=4096, out_features=1024, bias=False) (v_proj): Linear(in_features=4096, out_features=1024, bias=False) (o_proj): Linear(in_features=4096, out_features=4096, bias=False) (rotary_emb): MistralRotaryEmbedding() ) (mlp): MistralMLP( (gate_proj): Linear(in_features=4096, out_features=14336, bias=False) (up_proj): Linear(in_features=4096, out_features=14336, bias=False) (down_proj): Linear(in_features=14336, out_features=4096, bias=False) (act_fn): SiLUActivation() ) (input_layernorm): MistralRMSNorm() (post_attention_layernorm): MistralRMSNorm() ) ) (norm): MistralRMSNorm() ) (lm_head): Linear(in_features=4096, out_features=46081, bias=False) ) 파인튜닝한 모델 PeftModelForCausalLM( (base_model): LoraModel( (model): MistralForCausalLM( (model): MistralModel( (embed_tokens): Embedding(46081, 4096, padding_idx=2) (layers): ModuleList( (0-31): 32 x MistralDecoderLayer( (self_attn): MistralAttention( (q_proj): Linear4bit( in_features=4096, out_features=4096, bias=False (lora_dropout): ModuleDict( (default): Dropout(p=0.05, inplace=False) ) (lora_A): ModuleDict( (default): Linear(in_features=4096, out_features=16, bias=False) ) (lora_B): ModuleDict( (default): Linear(in_features=16, out_features=4096, bias=False) ) (lora_embedding_A): ParameterDict() (lora_embedding_B): ParameterDict() ) (k_proj): Linear4bit(in_features=4096, out_features=1024, bias=False) (v_proj): Linear4bit( in_features=4096, out_features=1024, bias=False (lora_dropout): ModuleDict( (default): Dropout(p=0.05, inplace=False) ) (lora_A): ModuleDict( (default): Linear(in_features=4096, out_features=16, bias=False) ) (lora_B): ModuleDict( (default): Linear(in_features=16, out_features=1024, bias=False) ) (lora_embedding_A): ParameterDict() (lora_embedding_B): ParameterDict() ) (o_proj): Linear4bit(in_features=4096, out_features=4096, bias=False) (rotary_emb): MistralRotaryEmbedding() ) (mlp): MistralMLP( (gate_proj): Linear4bit(in_features=4096, out_features=14336, bias=False) (up_proj): Linear4bit(in_features=4096, out_features=14336, bias=False) (down_proj): Linear4bit(in_features=14336, out_features=4096, bias=False) (act_fn): SiLUActivation() ) (input_layernorm): MistralRMSNorm() (post_attention_layernorm): MistralRMSNorm() ) ) (norm): MistralRMSNorm() ) (lm_head): Linear(in_features=4096, out_features=46081, bias=False) ) ) ) fine tuning을 한 모델에서는 embedding vector 를 구하는게 불가능한건가요? +추가 model.merge_and_unload() 를 써봤지만 소용없었습니다.
-
해결됨[파이토치] 실전 인공지능으로 이어지는 딥러닝 - 기초부터 논문 구현까지
nn.Linear(1024, 10) 관련 질문드립니다.
안녕하세요! 수업중 궁금한 부분이 있어 문의 드립니다. self.encoder = nn.Sequential( nn.Conv2d(1, k, 3, stride=2), # 흑백 이미지로 체널이 1개, 나머지는 임의로 설정 nn.ReLU(), nn.Conv2d(k, 2*k, 3, stride=2), nn.ReLU(), nn.Conv2d(2*k, 4*k, 3, stride=1), nn.ReLU(), Flatten(), nn.Linear(1024, 10), nn.ReLU() nn.Linear(1024, 10) 이 부분에서, MNIST의 경우 미리 계산하면 1024가 나온다고 말씀 주셨는데요, 어떻게 계산해야 하는건지 알 수 있을까요? 또한, 이 수치를 코드 작성자가 꼭 계산해서 넣어줘야 하는지도 궁금합니다! 크기(1024)를 코드로 출력해서 확인해 보는 방법이나, 저 부분에 1024 크기가 계산되어 들어가도록 코드를 작성할 수도 있을까요?
-
미해결
제발 도와주세요ㅜㅠ
import numpy as np from keras.models import Sequential from keras.layers import Dense, Dropout, Flatten, LSTM from keras.layers import BatchNormalization from keras.initializers import he_normal !pip install np_utils import np_utils from tensorflow.keras.utils import to_categorical from google.colab import drive drive.mount('/content/drive') [train_x, train_y, test_x, test_y] = np.load('/content/drive/MyDrive/LSTM_disaster_prediction_data.npy', allow_pickle = True) X_train = train_x.astype('float32') X_test = test_x.astype('float32') X_train = np.transpose(X_train,(0,2,1)) X_test = np.transpose(X_test,(0,2,1)) y_train = to_categorical(train_y, num_classes=num_classes) y_test = to_categorical(test_y, num_classes=num_classes) num_classes = y_train.shape[1] model = Sequential() model.add(LSTM(units = 4, return_sequences = True, input_shape = (168, 12))) model.add(LSTM(units = 1, return_sequences= True)) model.add(BatchNormalization()) model.add(Dense(64,activation = 'relu', kernel_initializer = 'he_normal')) model.add(Dropout(0.25)) model.add(Dense(num_classes, activation = 'softmax')) model.summary() model.compile(loss = 'categorical_crossentropy', optimizer = 'adam', metrics = ['accuracy']) model.fit(X_train, y_train, epochs = 5, batch_size = 16, verbose = 1, validation_data=(X_test, y_test)) test_loss, test_accuracy = model.evaluate(X_test, y_test) print('검증결과') print('test loss = ', test_loss) print('test accuracy = ', test_accuracy) ValueError: Shapes (None, 3) and (None, 168, 3) are incompatible이렇게 뜨는데 어떻게 고쳐야할지 모르겠어요 ㅠㅠㅠㅠㅠㅠㅠㅠㅠㅠ
-
해결됨[파이토치] 실전 인공지능으로 이어지는 딥러닝 - 기초부터 논문 구현까지
학습과 평가시 Loss 함수가 다른 이유
학습 할때는 MSE를 쓰고 평가 할때는 RMSE를 쓰는 이유가 있을까요??
-
미해결[입문자를 위한] 캐글로 시작하는 머신러닝 • 딥러닝 분석
섹션 2-1 딥러닝 모형 파트 모형 컴파일에서 에러가 발생합니다.
model.summary 명령어로 딥러닝 모형을 확인하는 데까지는 문제가 없었는데,그 이후에 모형을 컴파일해서 history 변수에 할당하는 부분에서 "Failed to convert a NumPy array to a Tensor (Unsupported object type float)." 에러가 발생합니다.구글링한 결과로는 float 형식이 아닌 타입의 데이터가 섞여 있어서 그렇다고 나오는데, 지금 학습을 돌리고 있는 x_train 데이터를 확인해 보니 아래처럼 0, 1이 아닌 True, False 값이 들어가 있었습니다.더미화 이후 강사님과는 다르게 True, False 값으로 데이터가 생성되었는데 혹시 이것 때문에 에러가 나는 걸까요?
-
미해결[입문자를 위한] 캐글로 시작하는 머신러닝 • 딥러닝 분석
1.3. 데이터 전처리 강의에서 index do not match 에러가 납니다.
안녕하세요.데이터 전처리 강의 내용 중 코드를 똑같이 따라쳤는데도 에러가 나는 부분이 있는데요, 구글링을 열심히 해봤는데도 해결하지 못해서 질문 남깁니다.df_bool = ~df.groupby('hour')['cnt'].apply(is_outliers) df_out = df[df_bool]위 코드를 실행하면 Unalignable boolean Series provided as indexer (index of the boolean Series and of the indexed object do not match). 에러가 발생합니다. df_bool.index위 메서드로 df_bool의 인덱스를 확인해보니 (hour, n) 의 튜플로 된 멀티 인덱스가 나왔습니다.df의 인덱스는 0, 1, 2, ... , 17413의 숫자로 되어 있어서 조건식으로 넣은 boolean 시리즈(df_bool)의 인덱스와 df의 인덱스가 일치하지 않아서 발생하는 에러로 이해했습니다. 다만 구글링을 아무리 해도 해결방법은 잘 모르겠습니다. 강의 내용을 똑같이 따라 쳤는데 왜 에러가 발생하는 걸까요?
-
해결됨[파이토치] 실전 인공지능으로 이어지는 딥러닝 - 기초부터 논문 구현까지
전처리 관련해서 질문 있습니다.
Detection 모델 같은 경우에는 라벨에 좌표가 들어 있습니다.Transform을 통해서 crop이나 rotate 같은 행위를 했을때 좌표도 변경이 되어야 하는데요 이런경우에 대한 해결책도 torch가 제공을 해주나요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
autotrain advanced 질문
autotrain advanced 사용시 --use_peft 옵션을 사용하면 어떤 peft 방식을 사용하게 되는건가요?autotrain advanced 사용시 LoRA, Prefix Tunning 등 특정 방식으로 학습하도록 선택이 가능한가요?autotrain advanced에서 --use_peft 등 parameter 값들에 대한 사용법이나 정보를 어디서 얻을 수 있나요? document 페이지를 찾아보려고 하는데 내용이 잘 없는것같아서요.autotrain advanced는 유료인가요? 이런 페이지를 봤습니다. https://huggingface.co/docs/autotrain/cost
-
해결됨Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
사용자 집단별 추천 강의 11:56 부분에 성별에 따른 예측값 계산에서 MergeError가 발생합니다.
# 성별에 따른 예측값 계산 merged_ratings = pd.merge(x_train,users) users = users.set_index('user_id') g_mean = merged_ratings[['movie_id','sex','rating']].groupby(['movie_id', 'sex'])['rating'].mean() g_mean코드는 이렇게 작성했고요.merged_ratings = pd.merge(x_train,users) 이 부분에서 MergeError: No common columns to perform merge on. Merge options: left_on=None, right_on=None, left_index=False, right_index=False이런 에러가 발생해요. 강의랑 똑같이 했는데 왜 에러가 나는걸까요? ㅠ ㅠ
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
Part2 강의 주제 질문있습니다.
안녕하세요, 신규 오픈돈 part2 수강고민중인 학생입니다.혹시 해당 강의가 한국어 기반의 LLM 일까요? (예, 영어가 아닌 한국어 기반 RAG,document)
-
해결됨최신 딥러닝 기술 Vision Transformer 개념부터 Pytorch 구현까지
Self Attention 질문 있습니다.
1.q와 k를 내적 하는 이유가 궁금합니다. 이는 입력의 유사도 행렬을 얻기 위함으로 알고 있습니다. 그렇다면 q와 k가 아닌 q와 q의 트랜스포즈로 내적하면 안되는걸까요?음 ...업데이트 할때 q와 k가 비슷하게 학습되었다는 가정을 가지고 내적 한걸까요?2.그리고 Multi Head와 그냥 Self attention의 차이가 궁금합니다.별도의 파라미터로 학습되기때문에 하나일때보다 많은 관점이 녹아있다고 생각하면 될까요?3.다른 댓글에서 코드A@V가 리니어 라고 하셨는데요PPT에서는 SA(z)=Av와 [SA1(z)...]Umsa가 따로 있습니다. 코드에서는 A@V만 있는데 어떻게 연결지어서 봐야 할지 잘 모르겠습니다.
-
미해결[딥러닝 전문가 과정 DL1301] 딥러닝 네트워크의 연산
affine function에 대해서(+추가질문)
챕터1의 ppt 10p에 x1,x2,x3들이 각각 fx를 통과한 g(x1*w+b), g(x2*w+b) 이런 식으로 다음 각각 Activation function을 통과하는 것으로 나타내져 있는데 제가 알기론 g((x1*w +b)+(x2*w+b)+(x3*w+b))이렇게 다 더해진 값이 activation 을 통과하는 걸로 알고 있어서 뭐가 맞는건가요?다른 질문이 생겼는데 질문 작성이 금지되어서 여기에다가 작성드립니다 강의자료 2단원 8페이지에서는 a벡터가 1xL1의 차원에 있다고 나오는데 그 다음 페이지 9페이지에서는 첫번째 레이어의 a벡터의 "트랜스포즈"가 1xL1차원에 있다고 나와있어서요그러면 a벡터는 행벡터인가요 열벡터인가요
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mm_faster_rcnn_train_coco_bccd.ipynb 코드 오류 발생
선생님 안녕하세요.mm_faster_rcnn_train_coco_bccd.ipynb 코드 실행하다가 오류가 발생해서 해결방법을 모르겠어서 질문남깁니다..코드는 수정한건 없고 그대로 실행하였습니다. 버전도 통일했는데, 해당오류가 발생해서 혹시 해결방법을 알 수 있을까요?감사합니다
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
wget 문의
안녕하세요 선생님저는 주피터노트북으로 선생님 코드를 따라 실습해보고 있습니다.!wget -O /content/pretrained/yolov3.cfg https://github.com/pjreddie/darknet/blob/master/cfg/yolov3.cfg?raw=true 위와 같이 파일을 wget으로 다운로드 받을 때 마다wget.download(다운경로, 저장경로)로 구현하고 있었는데요.raw=True에 대해서는 주피터노트북으로 어떻게 구현할 수 있을까요?
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
pytorch downgrade 문의
안녕하세요,pytorch 1.13 설치하는 과정에서 아래와 같은 에러가 발생합니다. (주피터노트북 환경)원인과 해결 방법을 알 수 있을까요..?