묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결
pycharm tensorflow를 사용중인데 속도가 너무 느린데 이럴때 정확도를 좀 낮추더라도 더 빨리 할 수 있는 방법이 있을까요?
epoch는 건드릴 수 없어서 learning_rate를 0.001에서 0.1로 높였는데도 너무 속도가 느려서요..
-
해결됨Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
ML 방식 모델 활용방안에 대해서
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요 강의 수강을 통해 추천시스템에 대해 이해에 많은 도움이 되었습니다 현업에 적용하기위해 강의를 시청하여, 추천시스템을 만들고자하는데 파이썬 및 인공지능 기초적인 지식이 부족하여 문의드립니다 인공지능을 활용한 학습모델생성 강의를 수강 후, 학습시킨 모델을 직접 활용해서 추천결과를 얻고싶은데 코드를 어떻게 구현하면 추천결과를 얻을 수 있을까요?
-
해결됨Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
화면이 안나오는데 정상인가요?
안녕하세요 아래 캡처처럼 화면이 안나오는데 제가 원래 이런건지 궁금합니다.
-
해결됨Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
아이템 기반 CF 코드 질문
안녕하세요. 강의 7분 43초에 나오는 부분이 이해가 안갑니다.. rating_matrix_t[user_id] -> 이 부분은 기존 rating_matrix에서 transpose된 matrix니까 movie_id가 들어가야 하는게 아닌가요? 제가 이해를 잘 못하겠어서 조금만 더 설명해주시면 감사하겠습니다! 좋은 강의 감사합니다!
-
해결됨Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
실시간 처리 질문
안녕하세요. 먼저 강의 잘 보고 있습니다! 강의를 보면서 의문이 드는게 있습니다. 현업에서는 데이터들이 많고 반응 속도가 중요할 것이라고 생각됩니다! 1. 많은 데이터들을 모두 메모리에 올리고 하나요? 아니면 db에 어떤 형식으로 저장을 하나요?? db에 저장한다해도 결국 cosine_similarity를 하려면 모든 정보를 다 메모리로 불러와야 되는건가요...? 이러면 다시 처음 질문으로 돌아가서 너무 궁금합니다ㅠㅠ 2. 지금 알려주시는 방법들이 실무에서 사용이 되나요? 예를 들어 쇼핑몰 제일 처음 들어갔을 때 맞춤 상품들을 보여준다고 하면, 사용자들이 로딩을 보는 시간이 몇초 될 것 같은데 제 예상과는 달리 지금 알려주시는 방법들이 빠른가요?? 아니면 다른 방법들을 사용하시는 걸까요?? 3. 지금 설명해주시는 방법들이 다 시간과는 연관이 없어보입니다! (강의 소개에서 연속값을 사용하는 개인화 추천 기술을 다룬다고 하셔서 제가 잘못 이해해서 시간도 고려한 데이터들을 사용하는 줄 알았습니다 ㅠㅠ) 제가 연속된 값들 즉 영화 A -> B -> C -> D를 본사람이 존재(p사람) 영화 A -> C -> B -> E를 본사람이 존재(q사람) 일떄 어떤 사람이 A -> B - > G 를 봤다면 다음에 볼 영화를 추천해준다 할 떄 p랑 시간 순으로 비슷하니 p가 본 C 또는 D를 추천해준다와 같이 시간도 예측 범위 안에 포함하고 싶다면 어떻게 해야하나요?? 지금 보여주시는 데이터들은 column들이 영화 이름으로 되어있어서 시간 정보가 삭제되는 것 같은데 해당 내용도 궁금합니다!! 좋은 강의 감사합니다!
-
해결됨Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
CF 관련 질문
안녕하세요. 제가 보다가 궁금증이 생겼습니다! sim_scores를 할 때 자기 자신에 대한 값은 제외하지 않고 하나요?? 좋은 강의 감사합니다!
-
해결됨Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
best-seller 정확도 측정
'추천시스템의 정확도 측정' best-seller방식으로 구한 예측값의 RMSE를 계산하는 부분에 질문이 있습니다. y_pred = movie_mean[ratings.loc[user]['movie_id']] 이렇게 하면, User가 본 영화의 전체 평점이 예측값으로 나오는데요. '특정 영화의 User의 평점 - 전체 평점평균' 에 대한 RMSE를 구하는 것이여서 Best-Seller 방식과는 관계없는 것 아닌가요? 알고리즘이 어떤 영화에대한 평균이 어떤 의미인지 잘 이해가 안되요. Best-seller방식이라면 상위 한 개를 뽑는거여서 추천방식이 'Star Kid' 영화만 y_pred로 들어가야하지 않나요?
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
원핫인코딩 질문
Dense Layer로 Fashion MNIST 예측 모델 구현하기 - 모델 설계 및 학습 수행 강의를 보다가 궁금중이 생겨 질문합니다. 1차원이던 label을 원핫인코딩을 해서 2차원으로 만들어졌는데 이유를 모르겠습니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Fast R-CNN 구현 질문
Fast R-CNN 구현중에 가장 난감한 부분이 RoI pooling layer 였는데, 논문에서 보면 mini-batch를 이미지 2개에 roi box를 128개 사용한다고 써있더라구요. 그러면 학습할 때 입력 데이터로 이미지 2개 + roi box(region proposal된 roi)가 들어간다고 이해했습니다. 그런데 여기서 이해가 안되는 점이 여러개가 있습니다 . 1. 이론상 fast rcnn은 입력 크기가 정해지지 않아도 되는데, tensorflow 에서 pre-trained vgg16 모델을 사용하려면 입력 크기가 224x224x3으로 고정되어 있어서 결국 mini-batch를 구성할 때 입력 사이즈를 모두 224x224x3으로 맞춰줘야 하는건가요? 2. 이미지 + roi box가 입력으로 들어가면 multi input으로 인풋값을 동시에 두 가지를 분리해서 넣어줘야 하나요? 3. 마지막에 box regressor와 classifier에서 box regressor는 x,y, w,h 좌표를 output으로 / classifier는 K(클래스 개수) + 1(배경) 총 K+1개 output이 도출되어야 하는데 입력 데이터 구성이 이미지 데이터 + roi box에 주어진 target 데이터는 ground truth box여서 mini-batch 구성할 때 Pascal IoU 기준에 따라 ground truth box와 이미지당 roi box 64개를 roi 비교하여 0.5이상인 경우는 1 0.2이상 0.5 미만을 0으로 구성한 후에 학습을 해야 하는건가요? 여기서 예를 들어 클래스가 4개라고 가정했을 때 target 데이터는 [N, 64, 4] (N은 데이터 개수) 크기로 구성하는게 맞을까요? (64개는 roi 개수 4개는 클래스입니다) 추가 설명 : [1, 64, 4]라고 했을 때 1개 이미지에 해당하는 64개 roi 각각 4개 클래스 중 overlap되는 roi가 0.5이상 되는 경우 1을 추가하고 클래스가 강아지, 고양이, 사람, 배경이라고 했을 때 강아지가 2마리 사람이 1명 이면 [2, 0, 1, 0] 이렇게 target 데이터가 구성되는게 맞나요..? ㅠㅠ 4. Roi pooling layer에 들어가는 input값이, 14x14x256(input 크기가 224x224x3이라고 가정했을 때) feature map + roi 인걸로 이해 했는데, tensorflow 구현시 roi는 input으로 어떻게 넘겨 줘야 할지 모르겠습니다..ㅠㅠ 5. Pre-trained model로 imagenet 데이터로 학습된 vgg16모델을 쓴다고 했을 때, 만약에 한식 이미지를 detection 해야 하는 문제가 있으면 fine tuning 한 후에 적용해야 정확도가 올라가겠죠? pre trained 된 이미지와 새로 detection할 이미지가 유사한지 유사하지 않은지는 추론해보고 결과가 좋지 못하면 fine tuning을 해야겠다 판단하는 건가요 아니면 사전에 학습된 이미지와 새로 학습하거나 추론할 이미지와 유사성을 분석 해보고 fine tuning을 하나요..? 당연히 추론해보고 결과가 좋지 못하면 할것 같지만, fine tuning을 해야 겠다 판단하는 기준이 혹시 따로 있을지 궁금합니다 논문보고 이해가 안가는 부분은 블로그도 보고 이것 저것 참조하다 보니 엄청 헷갈리는 상태가 돼서 질문이 정갈하지 않는 점 양해부탁드립니다 ㅠㅠ
-
해결됨Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
pdf 말고 강의자료가 또 있나요...?
pdf로 ppt 강의자료는 다운로드 받았는데 혹시 코드 관련 자료는 어디서 다운로드 받을 수 있나요?
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
backpropagation gradient descent
안녕하세요. backpropagation과 gradient descent에 차이를 설명한다고 하면, gradient descent는 오류 값이 최소가 되는 weights를 방식이고, backpropagation은 gradient descent를 사용해서 weights를 업데이트 시키는 방식 중 하나인가요? gradient descet에 부분 집합이 backpropagation일까요?? 감사합니다.
-
미해결
random_state 관련 질문
train_test_split(iris.data, iris.target, test_size = 0.2, random_state = 13, stratify = iris.target) iris_tree = DecisionTreeClassifier(max_depth = 2, random_state = 13) iris_tree.fit(x_train, y_train) 여기서 train_test_split와 DecisionTreeClassifier의 random_state는 어떻게 다른가요?? 그리고 DecisionTreeClassifier에서의 random_state를 변경하면 정확도도 동일해야 하는거 아닌가요? 13보다 작은 수를 입력했을 때는 정확도가 일정한데 13보다 큰 수를 입력하면 왜 정확도가 달라지는지 잘 모르겠습니다.
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
학습 과정중에 궁금한게 있어서 질문합니다.
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. EAST 모델의 코드를 보니 트레이닝 과정중에 accuracy, validation loss 는 따로 계산을 하지 않던데 그러면 과적합이 일어나는지는 어떻게 확인해야 하는지 궁급합니다. icdar2015 트레이닝 데이터셋에 10만번 학습이 이미 검증된 방법이라 따로 확인을 하지않아도 되는건가요? 또, 자동차 표지판이 아닌, 다른 커스텀 데이터셋으로 파인튜닝을 하거나, 새로 학습을 진행 할 때 validation loss없이 학습을 진행해도 문제가 없을지 궁금합니다.
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
후반부 강의자료 요청드립니다!
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 강의 잘 듣고 있습니다. 후반부 강의 자료 부탁드리겠습니다. 감사합니다 saj8k2@gamil.com
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
RPN conv 연산 질문
안녕하세요. 먼저 기본적인 질문 드리는 것 같아서 죄송합니다.. 6:39에서 40x50x512 와 1x1x9이 연산핸서 어떻게 40x50x9가 나오는건가요? 채널이 어떻게 줄었는지 이해가 안갑니다.. 미리 감사드립니다.
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
Internal Covariate Shift 관련 질문 드립니다.
선생님 안녕하세요, 공부를 하던 중 Internal Covariate Shift가 정확히 왜 개선 되어야 하는 문제인지 잘 모르겠어서 이렇게 질문을 남깁니다. 우선 제가 이해한 바로는 Covariate Shift란, 실제 데이터가 True function이라는 분포를 따른다고 할 때 아래와 같은 경우에서 발생한다고 이해했습니다. 우리가 train data를 샘플링 할 때 true function의 큰 틀은 따르지만 조금 다른 분포에서 샘플링을 하고 이를 사용해서 모델을 훈련시킬 경우, 학습 모델은 True function과 전적으로 겹칠 수 없게 됩니다. 따라서 test data를 train data가 커버하고 있지 않는 true function 영역에서 추출하게 된다면 학습시킨 모델은 잘 맞지 않게 될 것이고, 이는 학습용 데이터와 테스트 데이터의 분포가 서로 달랐기 때문에 발생한 문제라고 이해했습니다. Internal Covariate Shift란, 위와 같은 문제가 어떤 레이어의 출력이 다음 레이어의 입력으로 들어갈 때 일어나는걸로 이해했습니다. 딥러닝 특성상 한 레이어당 많은 파라미터가 존재하고 비선형적인 활성화 함수를 사용하기 때문에 A 레이어에 입력이 Z-mean scaling된 데이터가 들어온다고 해도, weighted sum과 활성화 함수를 거쳐서 B 레이어의 입력으로 들어가는 값들은 A 레이어의 정규화된 입력 분포와는 다른 분포를 가지고 있게 될 것입니다. 제가 생각하는 Internal Covariate Shift의 단점은 훈련 속도가 느려진다는 부분입니다. B 레이어의 입장에서는 A 레이어의 가중치 값이 바뀔 때마다 들어오는 입력의 분포가 달라지기 때문에 지속적으로 적응(마땅한 표현이 떠오르지 않네요 ㅠ) 해나가야 해서 결국 최적해를 찾기까지는 오랜 시간이 걸릴 것 같습니다. 이러한 문제는 네트워크가 깊어질수록 입력층에 가까운 레이어와 출력층의 가까운 레이어가 받아보는 분포의 차이는 더 크게 될 것이고, 때문에 입력층에 가까운 레이어의 가중치에서 미세한 조정이 발생해도 출력층에 가까운 레이어의 가중치에서는 상당한 임팩트의 영향력을 끼칠 수 있다고 생각이 되어 네트워크가 안정적으로 수렴하기에 어렵다고 생각됩니다. Training 과정에서는 위와 같은 부분이 문제라고 생각되는데 혹시 제가 잘못 이해한 부분이 있다면 지적 부탁드리겠습니다 선생님. 그리고 문서들을 쭉 찾아보니까 test시에도 training 과정에서 사용했던 분포와 test 할 때 사용하는 이미지 데이터의 분포가 다르기 때문에 성능 차이가 발생한다고 하는데 이 부분이 잘 이해가 안갑니다. 어차피 테스트 할 경우에는 training 할 경우와 세부적으론 다르지만 큰 틀에서는 비슷한 분포의 데이터를 사용하는데, 이러한 gap을 줄여주기 위해 training을 돌리는게 아닌가요? 항상 감사드립니다 선생님. 이와 겹치는 부분이 있지만 결국에는 다른
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
활성화 함수에 대한 전반적인 질문 드립니다.
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 권철민 선생님 안녕하세요, 딥러닝 cnn 완벽 기초 강의를 모두 수강 하고 복습을 하던 중에, 활성화 함수의 전반적인 개념, 특히 ReLu 함수에 대해 질문이 있습니다. 우선 활성화 함수가 필요한 이유는 모델의 복잡도를 올리기 위해서라고 이해했습니다. 단순 퍼셉트론에서 XOR 문제를 해결할 수 없었던 문제를 해결하기 위해 MLP가 등장했고, 여기에서 step function이 활성화 함수로 사용되어 이전 층의 결과값을 함수에 집어 넣어 다음 층으로 전달하는 역할을 맡게 되었습니다. 하지만 MLP를 넘어 더 많은 히든 레이어를 쌓아 올리는 DNN의 경우, 선형 함수의 특성상 이를 여러번 겹쳐서 쌓아 올려도 결국에는 하나의 선형 함수로 표현할 수 있기 때문에 복잡도를 올리기 위해 레이어를 더 쌓는 의미가 없다고 이해했습니다.(물론 이렇게 쌓을 경우 레이어마다 가중치가 생기기 때문에 아예 의미가 없다고는 할 수 없겠으나, 모델 자체의 복잡도를 올리기 위한 목적에는 부합하지 않는다고 생각하고 있습니다). 단순한 퍼셉트론을 넘어 다층 퍼셉트론에서는 기존의 단층 퍼셉트론만을 활용했을 때는 풀 수 없었던 복잡도의 문제 해결이 가능해졌지만, 동일한 방법으로는 아무리 레이어를 쌓아도 더욱 복잡한 문제는 풀 수 없었습니다. 때문에, 더욱 복잡한 문제를 풀기 위해서 모델의 복잡도를 올리기 위해서는 선형 활성화 함수를 여러개 사용하여 쌓아도 결국 하나의 레이어를 사용하여 나타낼 수 있는 상황을 막아야 하기 때문에 이와 반대로 비선형 활성화 함수를 사용한다고 이해하고 있습니다. 비선형 활성화 함수들의 예시로 시그모이드, 하이퍼볼릭 탄젠트와 같이 shape 자체가 비선형인 함수들이 각광받았는데, 작은 미분값으로 인해 깊은 네트워크로 갈수록 역전파 과정에서 발생하는 Gradient Vanishing 문제, 그리고 양극단으로 값이 모일수록 명확성이 떨어진다는 단점때문에 히든 레이어의 활성화 함수로는 더는 차용되지 않는다고 이해하고 있습니다. 이러한 기울기 소실 문제를 해결하기 위해 대부분의 은닉층에서는 활성화 함수로 ReLu함수를 사용한다고 이해하고 있는데요, 렐루 함수일 경우 ReLu(-1) + ReLu(1) != ReLu(-1 + 1)이기 때문에 비선형 함수이지만, (음의 무한대, 0] 그리고 [0, 양의 무한대) 구간에서는 선형이라고 알고 있습니다. 이를 고려한다면 ReLu 함수는 비록 전체 구간에서는 비선형 함수이지만, 대부분의 구간에서는 선형 함수인데 이러한 부분을 고려할 때 어떻게 ReLu 함수를 사용할 때 저희가 시그모이드와 같은 함수에서 기대하는 것과 같은 비선형적인 특성으로 모델의 복잡도를 올려줄 수 있는것인지 직관적으로 잘 와닿지가 않습니다. 또한, CNN 연산 적용 후 ReLu 함수를 적용하는 부분이 궁금합니다. 이미지의 특정 영역에 filter값을 곱해서 특정을 추출하는 feature extracting 과정에서 합성곱 연산의 값이 크게 나올수록 이미지의 해당 영역이 해당 필터가 추출하고자 하는 값(가로, 세로, 커브 모양 등등)을 강하게 나타내고 있다고 이해하였는데요, 그렇다면 이렇게 추출되서 생성된 새로운 feature map에 ReLu 함수를 적용하는 이유는 모델의 복잡도를 올리기 위해 비선형적인 함수를 추가하는것 뿐만 아니라 예를 들어서 가로 선을 추출하기 위한 필터를 통과했을 경우, 값이 커서 가로에 해당할 확률이 높은 부분은 그대로 유지하되, 음수로 결과가 나와 가로의 특성과는 전혀 맞지 않는 특성을 모두 0으로 만들어서 가로 특징이 없다고 정리하는 역할 또한 존재할까요? 혹시 제가 놓친 ReLu 함수를 CNN의 활성화 함수로 쓰는 이유가 있다면 지적 부탁드립니다. 이미지의 픽셀은 0~255의 값으로 구성된다고 알고 있는데 음수일 경우도 존재할까요? 만약 합성곱 연산의 결과로 음수값이 나왔다면 어떻게 해석하는지 궁금하고 또 이럴 경우 filter의 weight가 음수로 크게 설정되어 있어서 발생하는 경우인지도 궁금합니다. 그리고 CNN 모델의 진행 과정에서, 입력층과 가까운 Conv layer일수록 이미지의 edge, textile같은 low level 특징을 추출하는 것에서 출력층과 가까울수록 더욱 더 추출된 특징들을 일반화 시킨다고 이해했는데 제가 맞게 이해했을까요? 마지막으로 그렇다면 이때 각 filter마다 이미지 안에 가로, 세로, 혹은 다양한 모양들의 곡선적인 특징들이 존재하는지에 대해 추출하는 역할을 담당하게 될것이라고 예상되는데, 이렇게 필터마다 작업이 할당되는 자세한 로직이 알고싶다면 어떤 분야에 대해 더 공부해보아야 할지 추천 부탁드리겠습니다. 현재 머리속에서 너무 많은 부분들이 정리가 안되어서 글이 장황해진점 너무 죄송합니다. 혹시 제가 어떤 의도로 질문을 드린건지 잘 파악이 안되시는 부분이 있다면 풀어서 써보겠습니다. 항상 감사합니다 선생님!
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
전이학습 질문이요!
강의 듣는 중 질문이 있습니다. 저는 사람을 인식하는 프로젝트를 만드는 중입니다. 제가 생각하고 있는 학습 방법의 과정은 1) 맨처음 학습=> 우수한 학습모델을 가져와서 3가지의 객체를 인식하는 데이터를 학습시킨다 (이번 강의로 감을 잡음) 2) 1에서 학습된 모델을 사용하다가 인식할 객체의 추가를 위해 1의 모델을 load후 추가로 객체의 데이터를 추가학습시킨다 (지속적으로 label을 추가 시킬수 있는 모델을 만드는것이 목적) 질문) 2번과정에서 추각 학습을 할때 추가시킬 데이터만 학습을 시키면 되는건가요? 아니면 모든 객체를 처음부터 다시 학습시켜야 하나요? => 제가 원하는 방향은 추가 데이터만 학습을 시켜도 기존에 학습시켯던 label과 추가 label을 전부 검출하는것 입니다.
-
해결됨[핵집] 2024 빅데이터 분석기사(필기)_과목 1~2
빅데이터 기술 및 제도
안녕하세요! 자격증 수업을 듣다가 궁금한 게 생겨서 질문을 남깁니다. 머신 러닝의 종류는 지도학습, 비지도학습, 강화학습으로 나뉜다고 하는데, 그렇다면 딥러닝은 비지도학습에 속하는 건가요?
-
미해결
이미지데이터 학습 후 평가 시 그래프가 튀는 경우와 정확도 산정
안녕하세요 이미지 데이터를 가지고 학습 및 평가를 하고 있습니다. 모델 별(ResNet, Inception 등) 전이학습을 하고 있고 데이터수는 Train(약 2000장), Valid(약 250장), Test(약 250장) 정도로 구성되어 있습니다. 이 때 질문을 드리고 싶은 것이 몇가지 있는데 초보라 모르는 것이 많아 문의를 드립니다. 많은 조언 부탁 드립니다. 1. 다음과 같이 Valid Accuracy나 Loss 가 위아래 편차가 굉장히 심한데 어떤것이 문제이며 무엇을 바꿔야 하는지 궁금합니다. 2. 위와 같은 경우에 Accuracy를 몇이라고 해야 하는 것일까요? 평균 or 최대값 or 최소값? 3. Keras(tensorflow)를 사용하여 수행중인데 Train, Valid 등은 API내에 예제가 많이 있는데 Test(Evaluation?)에 관한 코드는 잘 없는데, 보통 Valid 까지 수행하나요 아니면 Evaluation 까지 진행해야 하는 것일까요? 4. Keras API를 사용해서 전이학습을 진행중인데 아래와 같이 conv_base에서 include_top=False, conv_base.trainable=False로 해도 전이학습의 효과가 있는 것인지, conv_base의 특정 Layer 부터 동결 혹은 학습을 할 수 있는 방법이 있는 것인지 궁금합니다. 감사합니다.