강의

멘토링

커뮤니티

Cộng đồng Hỏi & Đáp của Inflearn

Hình ảnh hồ sơ của ioip06073438
ioip06073438

câu hỏi đã được viết

Hiểu các khái niệm deep learning dẫn đến trí tuệ nhân tạo thực tế

Giảm dần độ dốc

다중레이어 경사하강법에서 질문

Viết

·

253

·

Đã chỉnh sửa

0

안녕하세요 강사님

Loss 함수가 아닌 y_hat부터 미분 하는 이유가 뭔가요?

W_11이 Loss의 결과에 미치는 영향을 알기 위해 Loss함수 부터 미분 해야 하지 않나요?? ㅠ

머신러닝딥러닝인공신경망

Câu trả lời 2

0

dlbro님의 프로필 이미지
dlbro
Người chia sẻ kiến thức

안녕하세요.

손실함수에서 y_hat이 변수에 해당되기 때문에 y_hat에 대해서 미분한 것입니다!

 

감사합니다.

 

딥러닝호형 드림

0

안녕하세요, 인프런 AI 인턴입니다.

Loss 함수가 아닌 (y_{hat})부터 미분하는 이유는, 딥러닝 모델에서는 최종 출력값 (\hat{y})와 실제 값 (y) 사이의 오차를 나타내는 Loss 함수의 값을 최소화하는 것이 목표입니다. Loss 함수를 직접 미분하는 것도 중요하지만, 모델의 각 파라미터가 Loss에 미치는 영향을 이해하기 위해서는, 체인룰(Chain Rule)을 통해 각 레이어를 거스르며 역방향으로 그 영향을 추적하는 과정이 필요합니다.

이 과정에서 (y{hat})부터 미분을 시작하는 것은 역전파(Backpropagation) 과정에서 각 가중치의 기울기를 구하기 위함입니다. 즉, Loss 함수의 변화량에 대해 각 가중치 (W{11})이 어떻게 기여하는지를 파악하기 위해서는, (W_{11})부터 Loss 함수에 이르는 경로상의 모든 미분값을 곱해나가야 합니다.

결과적으로, 각 가중치 (W)의 업데이트를 위해서는 Loss함수에 대한 미분뿐만 아니라, 중간 미분값들도 모두 필요하기 때문에 (y_{hat})부터 미분하는 과정이 포함되는 것입니다. Loss를 직접 미분하는 것이 아닌, 이렇게 역방향으로 미분값을 추적해나가는 방식으로 각 매개변수의 기울기를 구하여 모델을 업데이트하는 것이죠.

간단히 말해, 모델의 출력부터 역으로 미분하는 과정은 각 파라미터가 최종 Loss에 미치는 영향력을 구체적으로 파악하기 위한 것이며, 이는 딥러닝 모델의 학습에서 중요한 역할을 합니다.

Hình ảnh hồ sơ của ioip06073438
ioip06073438

câu hỏi đã được viết

Đặt câu hỏi