[2강 - 8:50]의 템퍼러쳐에 대해서 조금 더 부연하면...
478
작성한 질문수 2
머신러닝 중 Optimization의 한 기법중에서, Simulated annealing algorithm이 있는데 그걸 말하는 것 같습니다. 담금질을 모방해서 temperature가 높으면 파라미티를 좀 더 랜덤하게 변화시키는 방식인데요(랜덤하지 않은 경우에는, 제가 알기로는 경사하강법을 쓰는걸로 알아요). 이 때문에 Error가 감소 하지 않고 증가하는 경우가 더 많이 발생한다고 해요. Low temperature의 경우 랜덤확률이 낮아지니 좀 더 인접위치의 local minimumd으로 수렴하게 되구요.
여기서부턴 제 추론인데요. 파라미터가 손실함수에서 위치가 높은 곳에 있을 때보다 낮은 곳에 있을 때 같은 온도에서도 Error가 증가할 수밖에 없는데(올라갈 곳이 더 많으니까), 보통 최적화 과정에서 고도가 낮아지기 때문에 시간에 따라 온도도 낮춰서 Error가 증가하는 일을 방지하는 것 같아요.
답변 1
작업형 1 유형 부분
0
6
1
수강평 이벤트
0
14
2
작업형 1 (삭제예정, 구 버전)
0
27
2
강의노트는 어디있나요?
0
11
0
노션 학습 자료 권한 요청
0
12
1
수강기간 연장 문의드립니다.
0
19
1
2유형 레이블 인코딩 VS 원핫 인코딩
0
19
3
part2강의 문의사항입니다.
0
17
2
수강기간 연장 문의드립니다.
0
26
1
인덱스 슬라이싱
0
26
2
코드를 첨부해야하는 이유가 있나요?
0
20
2
소리가 겹쳐서 들려요
0
19
2
데스크톱과 노트북 연결
0
26
1
18강 smithery 를 이용한 mcp 실습(업데이트 요청)
0
16
1
guardrails 부분도 현재버전과 약간 다릅니다.
0
17
1
퀴즈6번 문의
0
70
2
assistant에서 file 업로드 하고 쓰레드 사용시 token 사용 및 사용 방법 문의
0
198
2
assistants api 메이저 버전 업에 따른 컨텐츠 변경 요청
0
171
3
강의 자료 받을수 있을까요?
1
186
1
openai api key 환경변수
2
935
1
채팅 결과가 chatGPT 웹화면처럼 조금씩 생성되게 하는 방법이 있을까요?
1
533
1
api 불러오기에서 completion에서 에러가 뜹니다
1
827
1
chat gpt api 관련 질문 드립니다!
1
1870
1
fine tuning 실습관련 질문드립니다.
3
745
1





