강의

멘토링

로드맵

인프런 커뮤니티 질문&답변

Jaewoo Choi님의 프로필 이미지
Jaewoo Choi

작성한 질문수

딥러닝 CNN 완벽 가이드 - TFKeras 버전

Ramp Up and Step Down Decay 이해와 Keras에서 적용하기

안녕하세요

작성

·

244

0

안녕하세요 교수님 해당 rampup함수를 파이토치에서 사용할 수 있을까요? 사용할 수 있다면 어느 부분에 넣어주어야하나요...? 계속 해서 에러가 나서 질문드립니다 :(

퀴즈

사전 훈련된 모델을 미세 조정(Fine-tuning)하는 주된 이유는 무엇일까요?

새로운 데이터셋에 맞춰 모델의 레이어 개수를 줄이기 위해

기존 모델의 특징 추출 능력을 활용하여 새 작업에 빠르게 적용하기 위해

모든 모델의 가중치를 무작위로 재초기화하기 위해

훈련 시간을 무조건 단축시키기 위해

답변 1

0

권 철민님의 프로필 이미지
권 철민
지식공유자

안녕하십니까, 

강의에서 설명드린 ramp up scheduler를 하시려면 custom learning rate scheduler를 만들어야 하는데, 이게 torch.optim.lr_scheduler._LRScheduler 클래스를 상속받아서 만들어 줘야 좀 코드가 복잡할 수 있습니다. 

파이토치는 다양한 Learning Rate scheduler를 내장된 클래스로 제공하므로 이들중 비슷한 하나를 선택해 보심은 어떨까 싶습니다. 

감사합니다.  

 

Jaewoo Choi님의 프로필 이미지
Jaewoo Choi

작성한 질문수

질문하기