inflearn logo
강의

강의

N
챌린지

챌린지

멘토링

멘토링

N
클립

클립

로드맵

로드맵

지식공유

딥러닝 CNN 완벽 가이드 - TFKeras 버전

미니 배치(Mini-batch) 경사하강법 구현하기

안녕하세요 교수님 GD랑 미니배치 질문있습니다.

해결된 질문

391

홍성민

작성한 질문수 16

0

GD는 만약 features들의 값이 매우 많아진다면 weighted sum과 activation function을 거치면서 예측값이 나오는데 굉장히 오래걸릴거같습니다.

반면 미니배치는 전체 features들의 값을 일정하게 분할하여 계산의 효율성을 증가시키고 메모리 효율성을 높이는데에 있다고 생각합니다.

그래서 미니배치가 더욱 더 딥러닝 FrameWork에 채택되는것이 맞을까요??

머신러닝 딥러닝 keras tensorflow kaggle cnn

답변 1

1

권 철민

안녕하십니까,

네, 맞습니다.

GD의 경우 feature 갯수가 많거나 학습 데이터가 많을 경우 많은 Computing 자원이 소모 됩니다.

반면에 Mini batch 의 경우 batch 크기만 추출해서 계산하므로 상대적으로 효율성이 높습니다.

감사합니다.

resize 질문

0

51

1

20251212 Kaggle 런타임에 scikit-learn 설치 실패 트러블 슈팅

0

76

1

Loss와 매트릭 관계

0

62

2

Boston 코랩 실습

0

164

2

배치 정규화의 이해와 적용 2 강의 질문

0

136

2

Augmentation원본에 적용해서 데이터 갯수 자체를 늘리는 행위는 의미가있나요?

0

145

2

Conv함수 안에 activation 을 넣지 않는 이유가 뭔지 궁금합니다.

0

206

2

소프트맥스 관련 질문입니다

0

208

1

강의 관련 질문입니다

0

151

2

residual block과 identity block의 차이

0

190

2

옵티마이저와 경사하강법의 차이가 궁금합니다.

1

240

1

실습 환경

0

165

2

입력 이미지 크기

0

244

2

데이터 증강

0

196

2

albumentations ShiftScaleRotate

0

207

1

Model Input Size 관련

0

281

1

마지막에 bird -> frog 말고도 deer -> frog 도 잘못된것 아닌가요??

0

204

1

일반적인 질문 (kaggle notebook사용)

0

272

2

실무에서 Augmentation 적용 시

0

338

2

안녕하세요 교수님

0

231

1

가중치 초기화(Weight Initialization) 질문입니다.

0

327

1

테스트 데이터셋 predict의 'NoneType' object has no attribute 'shape' 오류

0

409

1

학습이 이상하게 됩니다.

2

1036

2

boston import가 안됩니다

0

229

1