작성
·
332
·
수정됨
0
지금까지 (28, 28, 1): 그레이스케일 이미지 였다면
input_tensor = Input(shape=(28, 28, 3): RGB이미지
Conv2d(filters=32, kernersize=(3, 3), strides=1, padding='same', activation='relu')(input_tensor)
라면 파라미터수는 (32*3*3):커널을 적용한 피처맵 (3)input데이터 채널수로 계산하는것이 맞나요? 최종: 32*3*3*3
피처맵의 개수는 채널수와 상관없이 같구요 (왜냐하면 필터의 채널수도 3으로 늘어나기 때문에)
답변 1
0
안녕하십니까,
네 맞습니다.
아래와 같이
input_tensor = Input(shape=(28, 28, 3))
Conv2d(filters=32, kernersize=(3, 3), strides=1, padding='same', activation='relu')(input_tensor)
일 경우 filter는 (3, 3, 3) 인 3차원 filter가 32개가 있으므로 weight parameter는 3x3x3x32개 입니다.
그러니까 개별 filter의 weight parameter갯수가 3x3x3 이고 이게 32개 있으므로 3x3x3x32 그리고 32개의 filter 별로 1개의 weight bias가 있으므로 3x3x3x32 + 32 개의 총 weight parameter가 필요합니다.
그리고 피처맵의 개수는 채널수와 상관없이 같습니다.
감사합니다.
양질의 강의에 무한한 감사를 드립니다! 오늘도 좋은 하루 되시길 바랍니다!