🤍 전 강의 25% 할인 중 🤍
2024년 상반기를 돌아보고 하반기에도 함께 성장해요!인프런이 준비한 25% 할인 받으러 가기 >>
132만명의 커뮤니티!! 함께 토론해봐요.
Pretrained 모델의 Fine Tuning(미세조정)에 대한 질문이 있습니다. 1단계에서 Freeze(trainable = False) 학습에서 제외를 시킨다는 것이 Pretrained 모델의 가중치를 사용은 하지만, 가중치를 업데이트하지 않겠다는 의미입니까? 풀어서 질문을 드리자면 classification layers들만 학습을 한다고 교재에도 적혀 있는데요, 1단계에서 Feature Extractor 에서 기존에 학습된 가중치(imagenet weight)를 사용해서 Feature map를 만들고, classification layers를 학습을 하지만 가중치는 업데이트 하지 않겠다는 의미로 받아 들여야 하나요? 아니면 Feature Extractor 단계가 학습에서 제외 되는 건가요? 그렇다면 classification layers에서의 학습은 이미지의 형상이 무너지는 게 아닌가하는 의문점이 있습니다.