미해결
딥러닝 CNN 완벽 가이드 - Fundamental 편
표준화 시에는 활성함수를 ReLU를 사용하면 안되나요?
안녕하세요. 아래 코드와 같이 0-1 사이값으로 만든 후 표준화를 진행했습니다. 이럴 때 음수값이 포함되어 있기 때문에 연산에서 음수값도 의미가 있으니 문득 든 생각이 Conv2D에서 활성화 함수를 ReLU를 사용하면 안되나요?
train_images = np.array(train_images).astype('float32') / 255.
valid_images = np.array(valid_images).astype('float32') / 255.
test_images = np.array(test_images).astype('float32') / 255.
mean, var = train_images.mean(), train_images.std()
train_images = (train_images - mean) / var
mean, var = valid_images.mean(), valid_images.std()
valid_images = (valid_images - mean) / var
mean, var = test_images.mean(), test_images.std()
test_images = (test_images - mean) / var