게시글
질문&답변
2024.02.26
Library 관련 질문
(사진)
- 0
- 3
- 223
질문&답변
2024.02.26
Library 관련 질문
감사합니다. 강의자료에 있긴 한데 매번 새로운 노트북 열때마다 lightgbbm을 깜빡하게 되서요 혹시 베이지안optimizer는 별도로 version고민 안해도 되겠죠?
- 0
- 3
- 223
질문&답변
2024.02.15
최적화 함수 에러
pip install --upgrade bayesian-optimization numpy scipy 이 코드를 추가하니 해결되었습니다. 감사합니다.
- 0
- 4
- 367
질문&답변
2024.02.15
최적화 함수 에러
앞으로 튜닝을 베이지안으로 하실것 같은데 이부분을 해결하지 않고 그냥 넘어가도 될지 모르겠어서 계속 문의드리는 점 양해 부탁 드립니다. ^^
- 0
- 4
- 367
질문&답변
2024.02.15
최적화 함수 에러
선생님 말씀대로 했으나 아쉽게도 에러 발생합니다. 결론부터 말씀드리면 optimizer.maximize까지에서init_points의 iteration은 돌았으나n_iter가 돌지 않으면서 에러가 발생한 것입니다. (다음의 하이퍼파라미터라면 5번의 iteration이 돌아야함)!pip install bayesian-optimization==1.1.0pip install "numpy| iter | target | x | y | ------------------------------------------------- | 1 | -6.375 | 2.706 | 1.234 | | 2 | -18.61 | 2.226 | -2.828 | --------------------------------------------------------------------------- StopIteration Traceback (most recent call last) /usr/local/lib/python3.10/dist-packages/bayes_opt/bayesian_optimization.py in maximize(self, init_points, n_iter, acq, kappa, xi, **gp_params) 168 try: --> 169 x_probe = next(self._queue) 170 except StopIteration: 5 framesStopIteration: Queue is empty, no more objects to retrieve. During handling of the above exception, another exception occurred: ValueError Traceback (most recent call last) /usr/local/lib/python3.10/dist-packages/scipy/optimize/_minimize.py in minimize(fun, x0, args, method, jac, hess, hessp, bounds, constraints, tol, callback, options) 531 532 if x0.ndim != 1: --> 533 raise ValueError("'x0' must only have one dimension.") 534 535 if x0.dtype.kind in np.typecodes["AllInteger"]: ValueError: 'x0' must only have one dimension.
- 0
- 4
- 367
질문&답변
2024.02.01
LightGBM Iteration관련
lightgbm 버전은 4.1.0 이며, 강의내용과는 다르게 (강의 내용이 훨씬 직관적입니다.) 다음과 같이 출력됩니다.--> 중간과정은 보이는데 성능현황이 안보이구요, Test결과도 loss위주로만 조회됩니다. 아마도 이강의 작성시점의 version과 지금 코랩 상용버전의 차이에서 파라미터의 변경이 있었던 것 같습니다. (제 추측입니다.)[LightGBM] [Debug] Trained a tree with leaves = 32 and depth = 10 [LightGBM] [Debug] Trained a tree with leaves = 32 and depth = 10 [LightGBM] [Debug] Trained a tree with leaves = 32 and depth = 8 [LightGBM] [Debug] Trained a tree with leaves = 32 and depth = 9 [LightGBM] [Debug] Trained a tree with leaves = 32 and depth = 8 [LightGBM] [Debug] Trained a tree with leaves = 32 and depth = 10 [LightGBM] [Debug] Trained a tree with leaves = 32 and depth = 11 [LightGBM] [Debug] Trained a tree with leaves = 32 and depth = 9 [LightGBM] [Debug] Trained a tree with leaves = 32 and depth = 11 Early stopping, best iteration is: [902] training's binary_logloss: 0.210459 valid_1's binary_logloss: 0.242339
- 0
- 2
- 272