질문이 있습니다. ONE HOT 인코딩 CATEGORICAL
356
投稿した質問数 19
- 먼저 유사한 질문이 있었는지 검색해보세요.
- 서로 예의를 지키며 존중하는 문화를 만들어가요.
- 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
回答 2
0
안녕하십니까,
1. 질문이 cross entropy 계산을 의미하시는 건지요?
'이것은 제가 이해하기론 LOGIT을 하고 소프트맥스 적용후 확률값을으로 나온 값을 ONEHOT인코딩으로 하나만 1로 나머지 0으로 바꾼다고 이해하는 것이 맞는지요'
의 질문의도를 제가 잘 파악하지 못했습니다. cross entropy는 loss를 계산할 때 적용이 됩니다만.
cross entropy로 loss를 계산하는 방법에 대해서 여쭤보신걸로 간주하고 말씀드리면,
클래스가 3개 있는 멀티 분류의 경우 소프트 맥스 확률값으로 나온 값은 3개가 됩니다. [0.7, 0.2, 0.1] 된다고 가정하면(그렇다면 예측은 가장 큰 값인 0번째 index에 해당하므로 예측 값은 0 이 됩니다), 실제값은 [1, 0, 0](즉 실제값도 0번째 index가 1이므로 0이 됩니다) 이때 cross entropy loss는 실제값 0에 해당하는 0.2, 0.1은 제외하고 실제값 1에 해당하는(즉 0번째 index) 0.7을 log 변환하여 구합니다. -log(0.7)과 같이 구합니다.
2. 딥러닝 초창기에는 sparse categorical이 존재하지 않았습니다. 기본적으로 딥러닝은 원핫 인코딩을 권장합니다. 다만 사용자의 편리에 따라 sparse categorical을 지원하는 쪽으로 발전한것입니다.
감사합니다.
resize 질문
0
50
1
20251212 Kaggle 런타임에 scikit-learn 설치 실패 트러블 슈팅
0
75
1
Loss와 매트릭 관계
0
61
2
Boston 코랩 실습
0
162
2
배치 정규화의 이해와 적용 2 강의 질문
0
134
2
Augmentation원본에 적용해서 데이터 갯수 자체를 늘리는 행위는 의미가있나요?
0
144
2
Conv함수 안에 activation 을 넣지 않는 이유가 뭔지 궁금합니다.
0
203
2
소프트맥스 관련 질문입니다
0
208
1
강의 관련 질문입니다
0
151
2
residual block과 identity block의 차이
0
185
2
옵티마이저와 경사하강법의 차이가 궁금합니다.
1
238
1
실습 환경
0
165
2
입력 이미지 크기
0
243
2
데이터 증강
0
195
2
albumentations ShiftScaleRotate
0
205
1
Model Input Size 관련
0
279
1
마지막에 bird -> frog 말고도 deer -> frog 도 잘못된것 아닌가요??
0
204
1
일반적인 질문 (kaggle notebook사용)
0
272
2
실무에서 Augmentation 적용 시
0
338
2
안녕하세요 교수님
0
231
1
가중치 초기화(Weight Initialization) 질문입니다.
0
327
1
테스트 데이터셋 predict의 'NoneType' object has no attribute 'shape' 오류
0
407
1
학습이 이상하게 됩니다.
2
1036
2
boston import가 안됩니다
0
228
1

