묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
local variable 'movie_ratings' referenced before assignment
안녕하세요, 사용자의 평가경향을 고려한 CF 의 강의 코드를 실습할 때 아래와 같은 에러 메시지가 발생합니다. UnboundLocalError Traceback (most recent call last) <ipython-input-4-93f75427a941> in <cell line: 1>() ----> 1 score(CF_knn_bias, 30) 2 frames<ipython-input-2-7b52bdfa2c05> in score(model, neighbor_size) 38 id_pairs = zip(x_test['user_id'], x_test['movie_id']) 39 # 모든 사용자 - 영화 쌍에 대해 주어진 예측 모델에 의해 예측값 계산 및 리스트형 데이터 생성 ---> 40 y_pred = np.array([model(user, movie, neighbor_size) for (user, movie) in id_pairs]) 41 # 실제 평점값 42 y_true = np.array(x_test['rating']) <ipython-input-2-7b52bdfa2c05> in <listcomp>(.0) 38 id_pairs = zip(x_test['user_id'], x_test['movie_id']) 39 # 모든 사용자 - 영화 쌍에 대해 주어진 예측 모델에 의해 예측값 계산 및 리스트형 데이터 생성 ---> 40 y_pred = np.array([model(user, movie, neighbor_size) for (user, movie) in id_pairs]) 41 # 실제 평점값 42 y_true = np.array(x_test['rating']) <ipython-input-3-d1a9c3391126> in CF_knn_bias(user_id, movie_id, neighbor_size) 10 sim_scores = user_similarity[user_id].copy() 11 movie_scores = rating_bias[movie_id].copy() ---> 12 none_rating_idx = movie_ratings[movie_ratings.isnull()].index 13 movie_ratings = movie_ratings.drop(none_rating_idx) 14 sim_scores = sim_scores.drop(none_rating_idx) UnboundLocalError: local variable 'movie_ratings' referenced before assignment구글링을 해보니 global 변수명을 설정해줘야 한다고 나오는데, 해결이 어려워서 질문 드립니다!강연자님께서 실행한 코드에서는 해당 오류가 발생하지 않아서.. 왜 제 환경에서는 변수명 에러가 발생하는지 알 수 있을까요?아래는 전체 코드 입니다. 감사합니다. import os import pandas as pd import numpy as np from sklearn.model_selection import train_test_split from sklearn.metrics.pairwise import cosine_similarity ####### 데이터 불러오기 데이터 셋 만들기 ###### base_src = 'drive/MyDrive/RecoSys/Data' # user u_user_src = os.path.join(base_src, 'u.user') u_cols = ['user_id', 'age', 'sex', 'occupation', 'zip_code'] users = pd.read_csv(u_user_src, sep = '|', names = u_cols, encoding = 'latin-1') users = users.set_index('user_id') # item u_item_src = os.path.join(base_src, 'u.item') i_cols = ['movie_id', 'title', 'release date', 'video release date', 'IMDB URL', 'unknown', 'Action', 'Adventure', 'Animation', 'Children\'s', 'Comedy', 'Crime', 'Documentary', 'Drama', 'Fantasy', 'Film-Noir', 'Horror', 'Musical', 'Mystery', 'Romance', 'Sci-Fi', 'Thriller', 'War', 'Western'] movies = pd.read_csv(u_item_src, sep = '|', names = i_cols, encoding = 'latin-1') movies = movies.set_index('movie_id') # rating u_data_src = os.path.join(base_src, 'u.data') r_cols = ['user_id', 'movie_id', 'rating', 'timestamp'] ratings = pd.read_csv(u_data_src, sep = '\t', names = r_cols, encoding= 'latin-1') # rmse def RMSE(y_true, y_pred): return np.sqrt(np.mean((np.array(y_true) - np.array(y_pred))**2)) def score(model, neighbor_size = 0): # test data user_id 와 movie_id pair 맞춰 튜플원소 리스트데이터 id_pairs = zip(x_test['user_id'], x_test['movie_id']) # 모든 사용자 - 영화 쌍에 대해 주어진 예측 모델에 의해 예측값 계산 및 리스트형 데이터 생성 y_pred = np.array([model(user, movie, neighbor_size) for (user, movie) in id_pairs]) # 실제 평점값 y_true = np.array(x_test['rating']) return RMSE(y_true, y_pred) x = ratings.copy() y = ratings['user_id'] x_train, x_test, y_train, y_test = train_test_split(x, y, test_size = 0.25, stratify = y) rating_matrix = x_train.pivot(index = 'user_id', columns = 'movie_id', values = 'rating') matrix_dummy = rating_matrix.copy().fillna(0) user_similarity = cosine_similarity(matrix_dummy, matrix_dummy) user_similarity = pd.DataFrame(user_similarity, index = rating_matrix.index, columns = rating_matrix.index) ####### 사용자 평가 경향을 고려한 함수 ######## rating_mean = rating_matrix.mean(axis = 1) # axis=1 (columns), user의 모든 평점의 평균) rating_bias = (rating_matrix.T - rating_mean).T # 해당 유저-아이템 평점 - 사용자의 평점 평균의 편차 #print(rating_bias) #사용자 평가 경향을 고려한 함수 def CF_knn_bias (user_id, movie_id, neighbor_size = 0): if movie_id in rating_bias.columns: sim_scores = user_similarity[user_id].copy() movie_scores = rating_bias[movie_id].copy() none_rating_idx = movie_ratings[movie_ratings.isnull()].index movie_ratings = movie_ratings.drop(none_rating_idx) sim_scores = sim_scores.drop(none_rating_idx) if neighbor_size == 0: prediction = np.dot(sim_scores, movie_ratings) / sim_scores.sum() prediction = prediction + rating_mean[user_id] else: if len(sim_scores) > 1: neighbor_size = min(neighbor_size, len(sim_scores)) sim_scores = np.array(sim_scores) movie_ratings = np.array(movie_ratings) user_idx = np.argsort(sim_scores) sim_scores = sim_scores[user_idx][-neighbor_size:] movie_ratings = movie_ratings[user_idx][-neighbor_size:] prediction = np.dot(sim_scores, movie_ratings) / sim_scores.sum() prediction = prediction + rating_mean[user_id] else: prediction = rating_mean[user_id] else: prediction = rating_mean[user_id] return prediction score(CF_knn_bias, 30)
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
VGG_Practice 실습예제 accuracy 계산값이 이상합니다.
현재 오픈된 커리큘럽 강의 소개 및 실습 환경에서 주피터 노트북 에제파일 다운로드 받아서 실행하였습니다.이상한 점은 VGG16 모델 생성 후 학습 및 성능 검증 cell 실행결과 cal_accuracy가 0.1정도 나오는데 값이 너무 낮은 것 같습니다.동영상 강죄에서 교수님이 보여주신 결과는 0.85 정도 나오는데 을 원인을 모르겠습니다.예제파일상의 어떤 부분이 문제인지 확인부탁드립니다. 감사합니다.
-
미해결[딥러닝 전문가 과정 DL1101] 딥러닝을 위한 파이썬 레벨1
슬랙 커뮤니티 신청법
다른 분들이 댓글 남겨주신 것을 보니 슬랙에서 커뮤니티가 있는 것 같은데 어떻게 참여할 수 있을까요??메일은 seongji.jo@thinkingwolf.co.kr 입니다 추가로 지금 파이썬 1 강의를 듣고 있는데 파이썬 연산이 실제 값과 차이가 있다고들 하던데 저도 예제를 풀면서 값이 피피티 슬라이드와 다르게 나오네요. 해결법이 있을까요??score1, score2, score3 = 10, 20, 30n_student = 3score_mean = (score1 + score2 + score3) / n_studentsquare_of_mean = score_mean**2mean_of_square = (score1**2 + score2**2 + score3**2) / n_studentscore_variance = mean_of_square - square_of_meanscore_std = score_variance**0.5score1 = (score1 - score_mean) / score_stdscore2 = (score2 - score_mean) / score_stdscore3 = (score3 - score_mean) / score_stdscore_mean = (score1 + score2 + score3) / n_studentsqure_of_mean = score_mean**2mean_of_square = (score1**2 + score2**2 + score3**2) / n_studentscore_variance = mean_of_square - square_of_meanscore_std = score_variance**0.5 print("평균: ", score_mean)print("표준편차: ", score_std)표준편차가 1로 나오지 않습니다!평균: 0.0 표준편차: (1.223115032695291e-15+19.974984355438178j)
-
해결됨Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
3장 CF_knn 코드 질문
안녕하세요 좋은 강의 감사합니다. (1) 코드 주석 관련 질문3장.ipynb 코드에서 def CF_knn(user_id, movie_id, neighbor_size = 0): if movie_id in rating_matrix.columns: sim_scores = user_similarity[user_id].copy() movie_ratings = rating_matrix[movie_id].copy()~~ 위 부분의 강의 중 코드 주석을 보면 movie_ratings = rating_matrix[movie_id].copy()이 부분의 주석이 주어진 영화와 다른 사용자의 유사도 추출이라고 되어있는데 영화와 사용자 유사도 추출이 아니라 주어진 영화에 대한 다른 사용자의 평점 추출 같은데 제가 이해한게 맞는지 문의드립니다!(2) 코드 질문neighbor_size 가 지정되지 않은경우 mean_rating 으로 대치하는 부분의 코드에서if neighbor_size == 0 :mean_rating = np.dot(sim_scores, movie_ratings) / sim_scores.sum()이라고 되어있는데mean_rating 이 전체 user_id의 해당 movie_id에대한 평균 평점을 의미하는 것이라면 분모가 sim_scores.sum()이 아니라 유효한 평점의 개수, 즉 len(sim_scores) 이런 게 되어야 하는거 아닌가요?왜 분자는 평점*유사도인데 나눌때 전체 사용자의 평점 합으로 나누는건지 이해가 잘 안갑니다. ㅜㅜ.
-
해결됨처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part4]
RNN과 LSTM 구현해보기2(MNIST 데이터셋) 강의에서 질문입니다
RNN과 LSTM 구현해보기2(MNIST 데이터셋) 강의의 15:04 부분에서 질문입니다. 강의에서는 다음과 같이 학습 과정에서 반복문을 작성했습니다. # |x_minibatch| = (128, 1, 28, 28) # |y_minibatch| = (128) for x_minibatch, y_minibatch in train_batches: x_minibatch = x_minibatch.reshape(-1, sequence_length, feature_size) y_minibatch_pred = model(x_minibatch) loss = loss_func(y_minibatch_pred, y_minibatch) optimizer.zero_grad() loss.backward() optimizer.step() train_losses.append(loss.item()) 이때, 아래와 같이 loss_func를 적용하는 부분에서 궁금한 점이 있는데요,loss = loss_func(y_minibatch_pred, y_minibatch)y_minibatch_pred 는 model에 x_minibatch 를 넣어서 값을 예측한 것으로, 그 shape이 (128, 10) 과 같이 2차원으로 나온다고 이해하였습니다.반면, y_miinibatch 는 (128) 과 같이 1차원으로 나오는 것을 확인했습니다. 이렇게 loss_func 안에 넣는 두 텐서의 다른 것으로 보이는데, y_minibatch의 shape을 변형해 줘야 하는 것은 아닌지 여쭙고 싶습니다..!
-
해결됨모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
패키지 버전 궁금합니다
안녕하세요!혹시 본 강의에서 사용하신 모든 라이브러리 버전을 알 수 있는 방법이 있을까요?개인적으로 도커를 통해서 학습을 진행중인데, 버전에 따라 발생하는 에러가 있는거 같아서 문의드립니다. 감사합니다.
-
해결됨모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
[질문] Llama2 Autotrain 작동 시
ERROR train has failed due to an exception: TypeError: LlamaForCausalLM.__init__() got an unexpected keyword argument 'use_flash_attention_2'안녕하세요, Autotrain library를 활용하여 fine-tuning 중 아래와 같은 에러가 발생하였는데요. 혹시 어떻게 해결할 수 있을지 궁금합니다. 제 환경에 필요한 정보가 필요하시다면 언제든지 말씀드리겠습니다.감사드립니다.
-
미해결[파이토치] 실전 인공지능으로 이어지는 딥러닝 - 기초부터 논문 구현까지
역전파 내용 중 미분 관련 질문 드립니다
안녕하세요, 섹션2의 역전파 수업을 듣다가 궁금한 점이 생겨서 질문 드립니다. 5분 30초에서 L을 zi에 대해서 미분하면 n분의 1이 된다고 하셨는데 그 이유가 i번째 엘리멘트만 고려해서 미분이 되기 때문인가요? 즉, 1/n*zi라서 미분값이 1/n인건지 궁금합니다!
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
강의 자료는 어디서 다운받나요?
강의 자료는 어디서 다운받나요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
강의자료 다운로드 가능한가요?
강의자료나 실습코드를 찾을 수가 없는데요. 자료 제공이 원래 안 되는지 궁금합니다.
-
해결됨Google 공인! 텐서플로(TensorFlow) 개발자 자격증 취득
강의 ppt 자료는 어디서 받을 수 있는지요?
강의 ppt 자료는 어디서 받을 수 있는지요? 필기하면서 보고 싶은데 도저히 못 찾겠네요.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
엥커박스 크기 및 중복 생성 방지에 관한 질문
좋은 강의 찍어주셔서 감사합니다. 해당 강의를 토대로 공부를 하며 모델을 제작 중에 학습 후 inference_detector을 돌리고 나면 같은 물체를 여러번 잡는 문제가 발생합니다. 또한 이용중인 이미지의 크기가 작아서 인지 엥커박스의 크기가 전체 화면을 잡아주는 경우가 발생하고 있습니다. 그래서 이를 방지하고자 rpn_head의 anchor_generator를 수정해보았으나 학습이 안되는 모습을 관찰하였습니다. 사용 모델 :faster_rcnn_r50_caffe_fpn_mstrain_3x_coco.py 이때 사용 이미지의 class는 1개였습니다. 어떤 식으로 이것을 수정할 수 있을까요? 또한 어디 부분의 강의를 들었을 때 이와 관련된 내용을 알 수 있을까요?감사합니다.
-
미해결예제로 배우는 딥러닝 자연어 처리 입문 NLP with TensorFlow - RNN부터 BERT까지
Bert 관련 문의
Bert 분류 모델을 생성 후에 해당 모델을 가지고 서비스를 하고 있습니다. 몇 가지 테스트하다 보니, 동일 input에 대해 해당 모델의 예측값이 계속 변하는거 같네요. transformer 모델은 모델이 생성된 이후에도 지속적으로 모델이 업데이트가 되게 되나요?혹시 업데이트를 못 하게 설정도 가능한지 문의드립니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 교수님 yolov5 어노테이션 파일 질문드립니다
제가 학습데이터를 받았는데 처음 보는 라벨링 데이터여서 질문드립니다...{"info": [{"name": "Data", "description": "Exported from Superb AI Suite", "url": "https://www.superb-ai.com", "date_created": "2022-01-22 13:27:01.142673"}], "license": [{"name": "", "url": ""}], "images": [{"id": "817233_597", "width": 2800, "height": 2100, "file_name": "817233_597.jpg", "license": "", "date_created": "2022-01-22 13:27:01.142733"}], "annotations": [{"id": "0b2e2051-8bdb-4a3a-92db-436785ff4229", "image_id": "817233_597", "category_id": 223, "segmentation": [{"x": 858.5787945918701, "y": 674.2641079965543}, {"x": 859.5977701409895, "y": 650.3181825922454}, {"x": 863.6736723374677, "y": 636. ... 0664547656428, "y": 671.7166691237555}, {"x": 840.2372347077185, "y": 669.1692302509566}, {"x": 845.8416002278759, "y": 675.7925713202336}, {"x": 858.5787945918701, "y": 674.2641079965543}], "bbox": [767.8899707202322, 634.014573806333, 203.79510982390514, 106.99243265755024], "area": 21804.534563772224, "isSmallType": "N"}], "categories": [{"id": "22b84a7a-3cfe-4cfc-a597-293a6c9e5d42", "class_id": 223, "class_name": "비행기", "superclass_id": 597, "superclass_name": "비행객체"}, {"id": "a5f38f2a-5f4b-443e-bf3e-3c14fc3b3cad", "class_id": 224, "class_name": "헬리콥터", "superclass_id": 597, "superclass_name": "비행객체"}, {"id": "6dac6f54-a2c0-453a-8e40-c609a5f880fb", "class_id": 225, "class_name": "전투기", "superclass_id": 597, "superclass_name": "비행객체"}, {"id": "8f43c9fb-ff34-41db-ad7f-b2c9fb661fe3", "class_id": 226, "class_name": "패러글라이딩", "superclass_id": 597, "superclass_name": "비행객체"}, {"id": "60670ead-f344-4546-a60e-bbf9dfbe3551", "class_id": 227, "class_name": "드론", "superclass_id": 597, "superclass_name": "비행객체"}]}이것은 어떤 형식이며 yolov5 포멧으로 변경하려면 어떡해야 할까요..?감사합니다.- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
-
해결됨Google 공인! 텐서플로(TensorFlow) 개발자 자격증 취득
슬랙 초대 메일 부탁드립니다!
안녕하세요~강의 잘 봤는데, 슬랙 초대 메일이 오지 않아서 요청드립니다.슬랙 초대 메일 부탁드립니다.!이메일은 kdjun111@gmail.com 입니다.
-
미해결따라하면서 배우는 3D Human Pose Estimation과 실전 프로젝트
실습코드는 어디서 다운 받나요?
소스코드 링크가 없습니다. 어디서 다운 받으면 되나요?
-
미해결따라하면서 배우는 3D Human Pose Estimation과 실전 프로젝트
우분투 설치 관련 자료
안녕하세요.우분투 환경세팅 - 크롬설치 동영상을 보면 준비된 우분투 설치 관련 문서를 보고 우분투를 설치하라고 되어 있는데 우분투 설치 관련 문서를 어디서 받을수 있나요?
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
030_IMDB_movie_reviews.ipynb 파일에서 사용하는 train sentences 와 test sentences는 왜 둘다 25000으로 갯수가 똑같나요?
안녕하세요. 수업 잘 듣고 있습니다. Sentiment analysis - IMDB - part1 수업자료에서 질문이 있습니다. 지금까지 머신러닝을 배워 일하다가 llm 모델을 사용하기 시작해서 수업을 듣고있는데, 보통 머신러닝에서는 training data의 비중이 test data보다 크잖아요. (0.75:0.25 / 0.8:0.2 등등). 그런데 이 파일에서 training sentence와 test sentence의 크기가 똑같던데, 대부분의 경우 같은건가요? 그렇다면 이유는 뭔가요?
-
미해결따라하면서 배우는 3D Human Pose Estimation과 실전 프로젝트
강의자료 공유 여부
안녕하세요. 수강생 입니다.혹시 강의자료를 공유해주실수 있으신지요?
-
미해결Google 공인! 텐서플로(TensorFlow) 개발자 자격증 취득
강의자료가 코드가 있는 챕터만 있는 건가요?
코드 실습한건 찾았는데 그 뒤 강의해주시는 내용들에 대한 강의자료는 안보여서요.ㅜㅜ