작성
·
497
0
안녕하세요 선생님.
Fully connectied layer 에서 입력값이 왜 고정되도록 설계 되었는지 모르겠습니다.
생각하기로는 가중치가 입력 사이즈에 따라 결정이 되는데, 입력 사이즈가 가변적이면 문제가 될 수 있기 때문이라고 생각했습니다.
예를들어 층이 3개인 신경망이 있을때 ,
입력 사이즈가 3이고 히든레이어의 노드수가 4 일떄 이때 총 가중치 수는 12개이다.
그러나 입력사이즈가 3이 아닌 4가 들어왔다면, 총 가중치의 수는 16이 된다. 그러면 기존에 없던 가중치들이 필요하기 때문에 문제가 될 수 있다 .
이렇게 생각했는데 제가 맞게 생각한걸까요 ?
즐거운 강의 감사합니다 :)
답변 1
2
안녕하십니까,
네, 말씀하신 대로
입력 사이즈가 3이고 히든레이어의 노드수가 4 일떄 이때 총 가중치 수는 12개이다.
그러나 입력사이즈가 3이 아닌 4가 들어왔다면, 총 가중치의 수는 16이 된다. 그러면 기존에 없던 가중치들이 필요하기 때문에 문제가 될 수 있다 .그러면 기존에 없던 가중치들이 필요하기 때문에 문제가 될 수 있다 .
가 맞습니다.
fully connected layer의 출력 neuron 수를 정하고, 이를 모델의 layer에 붙일 때 이전 layer의 출력 결과 크기 즉, fully connected layer의 입력 크기는 고정됩니다. 이미지 별로 입력 크기가 동적으로 달라진다던가 할 수 없습니다.
이것은 입력값과 neuron에 따라 선형대수 식이 맞아 돌아가야 하기 때문에 고정된 입력 사이즈가 보장되어야 합니다.
감사합니다:) 이해했습니다 말씀하신 행렬곱이 불가능하다를 복잡하게 질문드렸네요