인프런 커뮤니티 질문&답변

김주호님의 프로필 이미지
김주호

작성한 질문수

Cifar10을 vgg16으로 전이학습에서 input size 대한 질문

작성

·

311

0

안녕하세요. 전이학습을 통해 Cifar10 dataset을 Vgg16 모델에서 미리 훈련된 ImageNet 가중치를 로드하여 학습을 시키려고 하는데,

아래와 같이 모델을 구성하게 되면 훈련을 진행할 수는 있지만 전이학습의 이점을(빠른 학습 속도) 얻는 것이 어렵지 않나 생각이 되어 질문드립니다.

또한 의문이 드는 것은

VGG16의 원래 모델에서의 input size는 224 x 244 x 3로 알고 있는데

Cifar10의 image_size는 32 x 32 x 3 이라 너무 이미지가 작아서 잘 학습이 안되는 것 같다는 생각이 듭니다.

혹시 Cifar10의 이미지를 upsampling 하는 방법이나 accuracy를 높일 수 있는 다른 방법이 있을까요?

 

from tensorflow.keras.optimizers import RMSprop

conv_base = VGG16(weights = 'imagenet', input_shape=(32, 32, 3), include_top=False)
def build_model_with_pretrained(conv_base): model = Sequential() model.add(conv_base) model.add(Flatten()) model.add(Dense(256, activation= 'relu')) model.add(Dense(1, activation= 'sigmoid')) model.compile(loss = 'binary_crossentropy', optimizer = RMSprop(learning_rate = 2e-5),
metrics = ['accuracy']) return model

model = build_model_with_pretrained(conv_base) model.summary()

답변

답변을 기다리고 있는 질문이에요
첫번째 답변을 남겨보세요!
김주호님의 프로필 이미지
김주호

작성한 질문수

질문하기