작성
·
537
0
원 핫 인코딩을 한 후 LinearRegression, Lasso,Ridge 등은 성능이 더 좋아졌지만 트리 계열 알고리즘 XGBoost,LightGBM, RandomForest 등을 원 핫 인코딩을 하기전과 후를 돌려보니 원 핫 인코딩을 하기 전 성능보다 후가 더 떨어지더군요 책에서 말씀하신 대로 datetime과 관련된 칼럼들은 개별 숫자값의 크기로 인식되서는 안되므로 원핫인코딩을 적용한 후 더 성능이 좋아야 하는거 아닌가요?
답변 3
1
아이고, 이렇게 까지 사과를 받으려고 올린 글이 아닌데, 제가 오히려 더 죄송합니다.
올려주신 글로, 예찬님의 문맥을 더 잘 이해할 수 있는 기회가 되었습니다.
진로를 정하는데 제 강의가 도움이 되었다니, 저도 무척 기쁩니다. 앞으로도 질문 많이 올려 주세요.
감사합니다.
1
안녕하십니까,
트리 계열 알고리즘 XGBoost,LightGBM, RandomForest은 스케일링이나 label/one-hot 여부에 크게 영향을 받지 않는다고 강의에서 설명 드리고 있으니 다시 한번 확인해 보시기 바랍니다.
그리고, 예찬님, 제가 부탁드리고 싶은게 있습니다.
질문을 올리실 때 제 책이나 강의에서 설명한 부분이 틀린것 아니냐는 식으로 따지듯이 질문하시지 않으셨으면 합니다. 물론 글로 의사를 전달하기 때문에 원래는 그런 의도가 아니실 수 있습니다. 그런 의도가 아니셨으면 제가 먼저 사과드리겠습니다.
하지만 그동안 상당기간동안 하루에 3~4건의 질문을 올려 주시는데 이런 어조와 같은 질문들로 인해 제가 답변을 드릴 때마다 큰 스트레스를 받고 있습니다.
Q&A시 안내글을 참조 부탁드리며, 질문을 올리실 때 질문 받는 사람의 입장을 생각해서 올려 주셨으면 합니다.
감사합니다.
0
기분 나쁘셨다니 죄송합니다 ㅠㅠ 절때 그런 의도는 아니였습니다 질문하듯이 말한 어투라고 생각하고 글 쓴건데 잘못 전달이 됐나보네요 질문 드릴때마다 친절히 설명해주셔서 항상 정말 감사하게 생각하고 있습니다 정말 죄송합니다 ㅠㅠ
제가 쓴 글들을 돌이켜 보며 어조에 대한 오해를 풀고싶어 글을 남깁니다
~ 인데 ~해야 하는거 아닌가요? ---> 책이 잘못되었고 제가 맞다는 식으로 따지는 어투가 아닌, 단순히 궁금증을 강조하는 어투였습니다
책에서는 ~했는데 ~한 것이라면 ~ 해야 하는 것인가요? ---> 제 궁금증을 더 자세히 알려드리고 싶어 책을 참조해서 질문드린거였습니다
강의와 책에서는 ~ 라고 나와있는데 ~있다면 예시 하나만 들어서 설명해주실 수 있으실까요? ---> 강의와 책이 잘못된거 같으니 증명해달라라는 어투가 아닌 그 문제에 대한 예시 하나만 들면 궁금증이 해결될거같아 쓴 질문이였습니다
~ 인데 ~ 하신 이유가 있으신가요? ---> 이것 역시 단순히 질문 드린 어투였습니다
~를 아무리 생각해봐도 잘 모르겠습니다, ~가 이해가 잘 안됩니다, ~가 기존 예제들과 차이가 나 이해하는데 어려움이 있는데 ---> 이것은 제가 어떤 부분이 이해가 안됐고 왜 이해하기가 어려운지 설명드리면 그부분에 대해 더 잘 설명해주실거 같아 쓴 질문이였습니다 이제와서 보니 굳이 없어도 되는 문장이였는데 강사님 입장을 고려 안하고 글을 쓴거 같습니다
이 외에도 제가 쓴 글 어투 때문에 스트레스를 받으신 점 정말 죄송합니다
AI라는 분야를 우연히 접하고 공부하고자 처음 산 책이자 강의였습니다 처음엔 프로그램 언어만 이것 저것 해보다가 이 분야도 한번 접해볼려고 시도했던건데 강사님의 책과 강의 덕분에 저한테 이 분야가 정말 너무 재밌어졌고 앞으로의 삶에 대해 뚜렷한 목표가 없었던 저에게 제 직업과 목표를 결심하고 확실하게 정하는데 이 책과 강의과 정말 많은 도움이 되었습니다 제가 말씀드리고 싶은거는 강사님과 강사님이 쓴 책, 강사님이 녹화하신 강의들을 더 존경하면 존경했지 절때 폄하하거나 잘못된 부분을 핀트잡을려 했던건 아닙니다. 이제와서 제가 쓴 글들을 돌이켜보니 너무 많은 질문을 했었는데 잘못된 어조로 인해 그동안 받으셨던 스트레스를 생각하니 너무 죄송할 따름입니다 좋은 책과 강의를 만들어주셔서 정말 감사드리며 그동안 정말 죄송했습니다