mk 공부 정리
검색
메뉴
고정 헤더 영역
글 제목
메뉴
좋아요
-
댓글달기
-
공유하기
메뉴 레이어
mk 공부 정리
메뉴 리스트
홈
태그
방명록
분류 전체보기
(20)
PYTHON
(12)
문법
(1)
NUMPY
(7)
PANDAS
(4)
AI
(4)
Machine Learning
(3)
deep learning
(0)
Linear Algebra
(1)
01. Introduction to Linear ..
(0)
Statistics
(2)
Statistic
(2)
Calculus
(0)
Single Variable Calculus
(0)
Multivariable Calculus
(0)
검색 레이어
mk 공부 정리
검색 영역
컨텐츠 검색
블로그 내 검색
상세 컨텐츠
본문 제목
Information Theory
AI/Machine Learning
by
mk coding
2024. 12. 8. 16:08
본문
좋아요
-
댓글달기
0
정보 이론
어떤 신호가 있다면, 신호 안에 정보가 얼마나 있는지 정량화하고자 하는 시도에서 출발한 학문
통신 분야에서 최초로 발명
noisy한 채널에 메시지를 보낼 때, 메시지의 평균적인 길이가 얼마인지, 메시지 내 알파벳의 분포는 어떻게 되는지 정량화된 분석을 할 수 있음.
머신러닝
확률분포를 characterize하는데 사용이 됨 → 확률분포를 특징지어 더 잘 이해할 수 있게 도와줌
여러 확률 분포가 있다면, 그 확률분포들 사이에 similarity를 정량화하는데 사용됨. → ML에서는 서로 다른 두 데이터 패턴이 얼마나 비슷한지 알아야 할 때가 많음. 정보이론을 사용하면 두 확률분포가 얼마나 가까운지, 혹은 다른지 숫자로 정량화할 수 있음.
Basic intuition
굉장히 일어날 것 같지 않을 일은 일어날 것이 뻔한 일보다 정보량이 더 큼. → 확률이 낮은 event가 more informative함.
확실한 이벤트 → 정보량이 없다.
확률이 높은 이벤트 → 정보량이 적다.
확률이 낮은 이벤트 → 정보량이 많다.
독립적인 이벤트 → 정보량을 서로 더할 수 있다.
Self-information
Shannon entropy
Kullback-Leibler (KL) divergence (relative entropy)
Properties of KL divergence
Cross-entropy
비교
공유하기
게시글 관리
mk 공부 정리
저작자표시
비영리
변경금지
'
AI
>
Machine Learning
' 카테고리의 다른 글
PCA
(0)
2024.10.12
sigmoid function의 이해
(0)
2024.02.04
관련글
더보기
PCA
2024.10.12
sigmoid function의 이해
2024.02.04
추가 정보
인기글
최신글
티스토리툴바