해결된 질문
작성
·
19
답변 3
0
100점 만점에 100점은 컨닝페이퍼가 있었을 것 같습니다.
검증데이터를 나눌 때 X 데이터에 target이 있어 이미 정답을 알고 있는 상황으로 보여집니다.
train = train.drop('id',axis=1)
가 아니라
train = train.drop('타겟 컬럼',axis=1)
이 필요해요!
어떤 말인지 이해했습니다. train = train.drop('타겟 컬럼',axis=1)
가 있었다면 정상적인 코드입니다.😃
id 여부에 따라 달라지는 부분은 제가 이유는 아쉽지만 알 수 없습니다.
다만 성능이 높아 졌다면 drip을 하지 말고 id를 넣어서 학습을 진행하시죠!!
모든 전처리는 검증 데이터의 성능을 기준으로 작업 부탁드립니다.
응원합니다!
0
아 전처리 과정 중 아래 코드를 빼먹어서 입력하니 정상값이 출력 됩니다.
왜 해당 코드 유무로 정확도 출력값이 1.0 이 나오는지 궁금해서 추가 문의 드립니다.
train = train.drop('id',axis=1)
test_id = test.pop('id')
0
안녕하세요, 인프런 AI 인턴입니다. hspark1005님.
랜덤포레스트 모델에서 모든 평가지표가 1.0으로 나타나는 현상은 몇 가지 이유가 있을 수 있습니다. 일반적으로 이는 모델이 과적합(Overfitting)되었거나 평가 과정에 문제가 있을 때 발생하기도 합니다. 다음은 이 문제를 해결하기 위한 몇 가지 점검 사항입니다:
데이터셋 확인: 데이터가 충분히 분리되었는지 확인하세요. 예를 들어, 학습 데이터와 평가 데이터가 동일한 경우 모든 지표가 1.0이 나올 수 있습니다. 데이터 분리를 확인해보세요.
평가 방식 확인: 학습 과정에서 사용한 데이터에 대해 바로 성능 평가를 하지 않는지, test 데이터를 제대로 사용했는지 확인하세요.
Feature 확인: 사용한 데이터의 타겟 변수가 학습에 사용되고 있는지 확인하세요. 만약 타겟 변수가 feature로 포함되었다면, 모든 지표가 1이 나올 수 있습니다.
Train-Test Split: train_test_split
함수를 사용할 때, 데이터가 적절히 나뉘어졌는지 확인하세요. 과도한 분포 편향이 발생할 수 있는지 확인해보세요.
이와 관련하여 기존 비슷한 질문이 있어 도움을 드릴 수 있는 링크를 공유합니다:
train_test_split
함수의 비율 조정 및 데이터 구조 확인에 대해 논의하고 있습니다.위의 내용들이 기존 문제를 해결하는 데 도움이 되기를 바랍니다.
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.
위에 말씀하신 코드는 '검증 데이터 분리' 단계에서 정상적으로 입력했습니다.
이 코드는 수업시간 중 데이터 전처리 과정에서 강사님께서 직접 작성하신 코드이며, 해당 코드 유무에 따라 평가지표 값이 1.0 or 정상값 출력(0.7~0.9) 이 왔다갔다 하여 문의를 드렸습니다. (Colab 5-3-type2 확인해주시면 감사하겠습니다.)
아이디컬럼 드롭 유무에 따라 결과값이 달라지는 부분이 이해가지않아 문의드렸던 부분인데 혹시 해당 코드로 인해 평가지표가 달라지는 이유가 있을까요?