엔트로피의 개념
안녕하세요 !
주신 자료 너무 유익하게 잘보고 있습니다.
공부하던중 질문한가지가 있습니다.
Entropy의 개념인데요. 저는 Entorpy를 불확실성 uncertainty라고 이해하고 있었는데요.
불확실성이 높을수록 high entropy를 보인다.
예를들어 coin flip의 경우 앞뒤가 모두 0.5 probability를 가지고 있기때문에 결과에 대해서 불확실하기 때문에 high 엔트로피를 보인다라고 생각하고 있었는데요.
말씀해주신 정보량 측면에서 이해하고 답변하는게 더 좋을까요?
관점이 좀 다른듯한데요. 어떤게 맞을지 문의드립니다.
감사합니다.
Answer 1
1
안녕하세요, 좋은 질문 감사합니다!
먼저 Entropy에 대해 정확히 이해하고 계신 것이 맞습니다. 다만 Entropy는 두 가지 관점(불확실성 & 정보량)으로 설명이 가능하고, 책 내에는 후자인 '정보량'에 대해서만 언급되어 있었습니다. 아래에 추가 설명드리겠습니다.
[1] 불확실성으로 설명한 Entropy
Entropy는 확률 분포의 '불확실성'을 측정하는 척도로 설명이 가능합니다. 불확실성이 높을수록 entropy가 높아집니다. 말씀하신 것 처럼 coin flip의 경우 P(앞)=P(뒤)=0.5이고, 따라서 결과를 예측하기가 어려워 불확실성이 극대화되고, 따라서 entropy도 최대가 됩니다.
[2] 정보량 관점에서 설명한 Entropy
Shannon 정보이론에서는 entropy가 평균 정보량을 나타냅니다. 여기서 정보량(self-information, information gain)은 '예상하지 못한 사건', '일어나지 않을 것 같은 사건' 일수록 커지는 값인 -\log P(x)로 정의되며, entropy는 이 정보량의 기대값으로 정의됩니다.
H(X)=\mathbb{E}[I(x)]=-\sum P(x) \log P(x)
결론적으로는 둘 다 맞는 설명이며, 오히려 말씀주신대로 불확실성 기반으로 설명하는 것이 더 이해하기 쉬웠을 것 같다는 생각입니다. 다만 저의 경우에는 -\sum P(x) \log P(x) 식의 의미를 정보이론 기반으로 풀어나가려다 보니 조금 더 어렵게 설명을 작성하게 된 것 같습니다.
실제 면접에서는 둘 중에 더 편하신 방향으로 답변 주셔도 크게 문제되지 않을 것으로 생각됩니다 :)
작업형 1 유형 부분
0
9
1
주니어 이력서 작성방법
0
14
1
import torch가 안되는 경우는 어떻게 하나요?
0
15
1
작업형 1 (삭제예정, 구 버전)
0
28
2
강의노트는 어디있나요?
0
15
1
수강기간 연장 문의드립니다.
0
20
1
2유형 레이블 인코딩 VS 원핫 인코딩
0
21
3
수강기간 연장 문의드립니다.
0
26
1
인덱스 슬라이싱
0
26
2
6-6 실습 문의
0
23
2
회사의 시스템 아키텍처를 포트폴리오에 써도 되나요?
1
37
2
섹션5 노션링크 는 따로 없나요?
0
29
2
REST API (Self-descriptive messages)
0
22
1
Part 4에서 강의 연관 노션 정보들이 워드파일에 없습니다.
0
32
2
첨부자료 Part 4 코드 확인 부탁드리겠습니다.
0
27
2
프로필 사진 세팅과 관련하여 질문 드립니다
1
46
2
질문 드립니다.
0
45
2
강의 내용 관련 질문드립니다~
0
43
2
퍼플렉시티 최소 결제단위 50달러로 바뀐 것 같습니다.
0
54
2
수강 연장 문의
0
54
2
강의자료 일괄 다운로드
0
49
2
list 문제 질문드립니다~
0
34
2
빅분기 실기 12회 재도전
0
52
2
강의 기간 연장 가능여부 검토 요청건
0
38
2

