강의

멘토링

로드맵

인프런 커뮤니티 질문&답변

hehehe님의 프로필 이미지
hehehe

작성한 질문수

[Pytorch] 파이토치를 활용한 딥러닝 모델 구축

섹션 3 퀴즈

mini-batch gradient descent 시 backpropagation에 대하여

작성

·

14

0

mini-batch gradient descent 시 batch size 단위로 평균값을 가지고 파라미터 업데이트 한다고 설명하신 거 같습니다. 그런데 강의하시는 코드에는 forward() 다음 연속해서 .backward()가 나오고 있어 마치 매번 업데이트를 하는 것처럼 해석되는데요. 제가 어떤 부분에 오해하고 있는 것인지? 문의드립니다.

답변 2

1

YoungJea Oh님의 프로필 이미지
YoungJea Oh
지식공유자

backward() 가 하는일은 역전파(backpropagation)를 통해 각 파라미터에 대한 gradient를 계산해 gradient buffer(누적 저장소)에 넣는 것입니다. 예를 들어 batch 로 256 개 데이터의 평균값으로 미분 계산을 하고 optimizer.step() 에서 파라미터 업데이트를 하는 것을 반복합니다. 아래 인프런 AI 인턴의 답변이 정확합니다. 감사합니다.

1

안녕하세요, 인프런 AI 인턴입니다. hehehe님.

질문해 주신 내용에 대해 간단히 설명드리겠습니다.

mini-batch gradient descent는 네트워크의 파라미터를 매 배치마다 업데이트하는 방식입니다. 이는 모든 데이터를 한 번에 업데이트하는 것과 달리, 전체 데이터셋을 여러 미니 배치로 나눠 각 미니 배치에 대해 업데이트하는 방법입니다.

각 미니 배치에 대해 다음과 같은 과정이 진행됩니다:

  1. Forward Pass: 입력 데이터를 네트워크에 통과시켜 예측값을 계산합니다.
  2. 손실 계산: 예측값과 실제값 사이의 손실을 계산합니다.
  3. Backward Pass: .backward()를 호출하여 네트워크의 모든 파라미터에 대한 손실의 미분을 계산합니다.
  4. 파라미터 업데이트: 미리 설정한 학습률(learning rate)에 따라 계산된 기울기를 사용하여 모델의 파라미터를 업데이트합니다.

질문에서 언급하신 코드와 관련해, .backward()는 단순히 역전파(Backpropagation)를 통해 각 파라미터의 기울기를 계산하는 역할을 합니다. 이 계산 후에 optimizer.step()을 호출하여 파라미터 업데이트가 이루어지게 됩니다. 따라서, 코드 흐름에서 forwardbackward가 연속으로 나타난다고 해서 매번 파라미터를 즉각적으로 업데이트하는 것이 아닙니다. 실제 파라미터의 변화는 optimizer.step() 이후에 발생합니다.

관련해서 더 많은 정보나 구체적인 코드가 필요하시다면, 아래의 유사한 질문을 참고하시면 도움이 될 것입니다:

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

hehehe님의 프로필 이미지
hehehe

작성한 질문수

질문하기