작성
·
230
0
선생님 안녕하세요
좋은 강의 항상 감사드립니다.
5번째 주피터 노트북 파일, CIFAR10_Custom_CB_Filters_Decay 을 보면
x = Conv2D(filters=128, kernel_size=3, padding='same', kernel_regularizer=l2(1e-5))(x) x = Activation('relu')(x) x = Activation('relu')(x) x = MaxPooling2D(pool_size=2)(x)
이것 처럼 x = Activation('relu')(x) 을 2번씩 써 놓으신 곳이 있더라고요.
굳이 activation을 2번 하시는 이유가 있으신가요? 아니면 그냥 custom이 가능하다는 것을 보여주기 위해서 넣으신건가요? (즉, 이걸 지워도 모델 전체에 큰 영향은 없는건가요?)
감사합니다!
아 그렇군요! 말씀해주신대로 단순히 빼는것이 아니라 x = BatchNormalization()(x) 이 들어가는게 맞는것 같습니다.
감사합니다!!