인프런 커뮤니티 질문&답변

돌머리 님의 프로필 이미지
돌머리

작성한 질문수

[개정판] 딥러닝 컴퓨터 비전 완벽 가이드

SPPNet의 이해 01 - RCNN의 문제점과 Spatial Pyramid Matching 이해

Fully connectied layer 입력값이 고정 되어야 하는 이유

작성

·

497

0

안녕하세요 선생님. 

Fully connectied layer 에서 입력값이 왜 고정되도록 설계 되었는지  모르겠습니다. 

생각하기로는 가중치가 입력 사이즈에 따라 결정이 되는데,  입력 사이즈가 가변적이면 문제가 될 수 있기 때문이라고 생각했습니다.

예를들어 층이 3개인 신경망이 있을때 ,

입력 사이즈가 3이고 히든레이어의 노드수가 4 일떄 이때 총 가중치 수는 12개이다.

그러나 입력사이즈가 3이 아닌 4가 들어왔다면, 총 가중치의 수는 16이 된다. 그러면 기존에 없던 가중치들이 필요하기 때문에 문제가 될 수 있다 .

이렇게 생각했는데 제가 맞게 생각한걸까요 ?

즐거운 강의 감사합니다 :) 

답변 1

2

권 철민님의 프로필 이미지
권 철민
지식공유자

안녕하십니까, 

네, 말씀하신 대로 

입력 사이즈가 3이고 히든레이어의 노드수가 4 일떄 이때 총 가중치 수는 12개이다.

그러나 입력사이즈가 3이 아닌 4가 들어왔다면, 총 가중치의 수는 16이 된다. 그러면 기존에 없던 가중치들이 필요하기 때문에 문제가 될 수 있다 .그러면 기존에 없던 가중치들이 필요하기 때문에 문제가 될 수 있다 .

가 맞습니다. 

fully connected layer의 출력 neuron 수를 정하고, 이를 모델의 layer에 붙일 때 이전 layer의 출력 결과 크기 즉, fully connected layer의 입력 크기는 고정됩니다. 이미지 별로 입력 크기가 동적으로 달라진다던가 할 수 없습니다. 

이것은 입력값과 neuron에 따라 선형대수 식이 맞아 돌아가야 하기 때문에 고정된 입력 사이즈가 보장되어야 합니다. 

돌머리 님의 프로필 이미지
돌머리
질문자

감사합니다:)  이해했습니다 말씀하신 행렬곱이 불가능하다를  복잡하게 질문드렸네요

돌머리 님의 프로필 이미지
돌머리

작성한 질문수

질문하기