머신러닝으로 회귀분석을 하면 훈련데이터에서는 99퍼 테스트데이터 92퍼가 나오는데 딥러닝으로 모델을 만들어서 돌리면 loss가 2천만 이렇게 나오는데 머신러닝과 딥러닝 모델이 이상한지 아니면 데이터가 이상한지 모르겠습니다 머신러닝 모델xgb_reg = xgb.XGBRegressor(booster="dart",random_state=0)
params = {"subsample" : uniform(0,1),
"max_depth" : randint(3,10),
"n_estimators" : randint(100,300),
'learning_rate':uniform(0.01, 0.1),
"gamma": randint(0,5),}
xgb_reg_random = RandomizedSearchCV(xgb_reg,params,n_jobs=-1,n_iter=100,scoring='neg_root_mean_squared_error',random_state=0,cv=kf)딥러닝 모델scaled_deep_train.shape,scaled_deep_test.shape
# ((180, 21), (45, 21))
scaled_deep_train = np.reshape(scaled_deep_train,(180,21,1))
scaled_deep_test = np.reshape(scaled_deep_test,(45,21,1))
# ((180, 21,1), (45, 21,1 ))
model.add(keras.layers.Conv1D(16,kernel_size=3, activation="relu",padding="same",input_shape = (21,1)))
model.add(keras.layers.Flatten())
model.add(keras.layers.Dense(100,activation="relu"))
model.add(keras.layers.Dense(1))
adagrad= keras.optimizers.Adagrad(learning_rate=1e-5)
model.compile(optimizer = sgd,loss = "mean_squared_error",metrics=["mse"])
history = model.fit(scaled_deep_train,y_train, epochs=200,batch_size=8
,validation_split=0.2,callbacks=[early_stopping_cb])이런식으로 구성되어있습니다.