inflearn logo
강의

講義

知識共有

ディープラーニング理論+ PyTorch実務完全征服

[理論] Inception Net & GoogLeNet

GoogleNet Inception 모듈

解決済みの質問

166

HELLO

投稿した質問数 13

1

안녕하세요 선생님

강의 잘 보고 있습니다

구글넷의 인셉션 모듈 설명 중에 MAX pooling이 포함되어 있는데요

보통 max pooling은 인풋의 사이즈를 줄이는 것으로 알고 있는데 그러면 다른 컨볼루션이 통과된 아웃풋과 사이즈가 달라져서 concat이 안되는 거 아닌가요?

아니면 여기에 포함된 컨볼루션들은 max pooling과 같은 stride를 같는 걸까요?

딥러닝 pytorch NLP 컴퓨터-비전 cnn rnn transformer llm

回答 2

1

peterbyun969574

안녕하세요!

Inception Block을 구성하는 각 Conv2d, MaxPool2d은 입력되는 Feature 크기와 출력되는 Feature 크기가 동일하도록 Kernel Size, Stride, Padding이 설정되어 있습니다

  • MaxPool2d의 Kernel Size = 3, Stride =1, Padding=1

  • Conv2d의 Kernel Size = 3, Stride =1, Padding=1

으로 구성되어 있습니다!

따라서 Concatenation하게되는 Conv2d가 출력하는 Feature의 shape과 MaxPool2d가 출력하는 Feature의 shape들은 서로 동일한 것입니다.

아래는 Inception3a Layer의 예시를 가져온 것입니다!

스크린샷 2024-12-15 오후 3.17.41.png.webp

 

0

communityai8509

안녕하세요, 인프런 AI 인턴입니다.
HELLO 님의 질문에 답변 드리겠습니다.

구글넷의 인셉션 모듈에서의 Max Pooling에 대하여 궁금한 점이 있으시군요. 일반적으로 Max Pooling은 입력 크기를 줄이기는 하지만, 인셉션 모듈에서는 사이즈가 다른 출력들을 concat할 수 있도록 특별한 설계가 필요합니다. 이를 위해 다양한 스트라이드와 패딩 방법들이 사용되며, 원래 입력과 동일한 크기의 출력을 위해 스트라이드와 패딩을 조정하기도 합니다.

즉, 인셉션 모듈 내부의 다른 컨볼루션 레이어들도 Max Pooling과 병합될 수 있도록 설계되며, 동일한 출력을 가진 결과를 위해 필요한 패딩이나 스트라이드를 사용할 수 있습니다.

강의에서 이와 관련된 추가 설명이 있을 수 있으니, 강의 자료나 실습 예제를 참조하시길 추천드립니다. 추가적인 의문 사항이 있으시면 강의 담당 지식공유자님에게 수강 전 문의 게시판을 통해 질문을 남기시면 도움이 될 것입니다.

답변이 도움되셨길 바랍니다. 감사합니다.

노션URL 이동문제

0

56

1

섹션12 실습코드 의 initialization 각각 적용 코드 문의

0

97

0

오타

0

82

0

혹시 이론강의 자료도 공유가 가능하실까요?

1

167

1

[sec. 2-8 실습] 배치사이즈의 선택

0

171

2

[section 14 / [실습] 직접 만든 CNN 모델과 ResNet, VGGNet을 활용한 CV 프로젝트] transforms.Normalize 질문

1

226

1

[section 14 / VGGNet ] receptive filed 질문

1

131

2

[섹션3, PyTorch로 구현해보는 Loss Function] 분류task loss함수 질문입니다.

1

233

2

KL Div Loss에서 Negative Entropy를 더해주는 의미에 대해서

1

193

2

Batch Normalization 효과

1

183

2

Layer Norm이 언어모델에 적합한 이유

1

520

1

9-2 fully connected NN

1

129

1

Mini-batch Gradient Descent computation time 질문

1

175

2

Huber Loss에 대한 질문

1

303

2

Batch size 가 극단적으로 작은 경우 (예를들어 batch_size =1) Normalization 적용 방안

3

353

1

Normalization 질문

1

270

2

Section 7 [Activation Function의 종류] Softmax logit 분포와 Entropy 질문이 있습니다

2

210

1

Section 3 [실습] PyTorch로 구현해보는 Loss Function의 Cross Entropy 구현 관련하여 질문이 있습니다.

1

300

1

Section 3의 [이론] Regression task의 Loss: L1, L2, Huber, Log Cosh Loss "미분가능"관련 에서 질문이 있습니다.

1

280

1

Section 15 실습 중, lstm 클래스의 forward 함수 질문

1

236

2

Section 16 [이론] Transformer의 Encoder 질문

1

177

1

Auto Differentiation에서 computational Graph 질문있습니다

1

212

1

Section 3 이론 classification Loss function 질문

1

235

1

section4의 entropy 시그마 식 전개에 대한 질문입니다.

1

266

2