작성
·
283
0
안녕하세요
Pretrained model을 활용한 전이학습에서 질문이 있습니다.
기존 학습된 resnet같은 모델의 weight를 가져온다고 하셨는데 이때 해당 모델에 사용되지 않은
이미지나 학습시 데이터와 전혀 다른 음성 데이터 같은 경우를 classify하는 task에도 전이학습이 도움되는 생각해본다면
기존 거대 it기업들의 pretrained model이 그만금 feature extraction을 잘해서 그렇다고 봐도 될까요??
즉, pretrained model의 학습에 사용되지 않은 class들을 분류할때도 pretrained model이 뛰어난 성능을 보이는 이유가
무엇인지 궁금합니다.
답변 1
0
안녕하십니까,
feature extraction을 잘했다기 보다는 많은 클래스로 되어 있는 매우 많은 이미지(또는 다양한 이미지)로 학습이 되었기 때문이라고 생각합니다.
그러니까, 보다 다양한 유형의 이미지를 매우 많이 학습하다 보니까, 보편적인 사물의 형태, 질감, 색감들에 대해 보다 보편적인 모델 가중치 값을 가지게 되어서 기본적인 성능 향상을 이끌 수 있는 것 같습니다.
또한 모델 자체의 튜닝, 예를 들어 학습율, 배치 크기, optimizer 등의 하이퍼 파라미터등의 튜닝도 큰 역할을 했을 거라고 봅니다.