해결된 질문
작성
·
119
0
선생님 안녕하세요.
5-3 강의보면서 따라하는데
roc_auc, f1, 정확도
평가지표 값이 전부 1로 나옵니다.... 검증 데이터 분리까지 똑같이 따라 했고요
(random_state = 값은 동일하게만 주면 된다고 해서 전 그냥 다 100으로 놓고 했습니다)
일단 작성한건 아래와 같고요
# 랜덤포레스트 ROC-AUC, 정확도(Accuracy), F1
from sklearn.ensemble import RandomForestClassifier
from sklearn.metrics import f1_score, accuracy_score, roc_auc_score
rf = RandomForestClassifier(random_state=100)
rf.fit(X_tr,y_tr)
pred_rf = rf.predict(X_val)
proba_rf = rf.predict_proba(X_val)
print(roc_auc_score(y_val,proba_rf[:,1])) # "ROC_AUC:",
print(f1_score(y_val,pred_rf)) # "F1:",
print(accuracy_score(y_val,pred_rf)) # "Accuracy:",
결과 값은 다
1.0
1.0
1.0
으로 나오는데... 이거 뭔가 잘못 된거 같은데, 뭘 잘못한걸까요...?
전처리& 피처엔지니어링
검증 데이터 분리
이렇게 한 다음 위의 작성글 처럼 랜덤포레스트 돌렸습니다