H(P, Q) = H(P) + D\_{KL}(P||Q) = E\[\\log {Q(x)}\] = \sum\_{x \in \mathcal X} P(x) \log {Q(x)}๋ ํ๋ฅ ๋ถํฌ ์ ์ ์ฐจ์ด๋ฅผ ์ธก์ ํ๋ ๋ฐฉ๋ฒ
- Information Entropy์ ์ ์ฌํ์ง๋ง, ์ ์ ๋ณด๋์ ์ธก์ ํ๋ ๊ฒ์ด ์๋, ์ ์ ๋ณด๋์ ์ธก์ ํ๋ค.
- Kullback-Leibler Divergence์ ๋น์ทํ๊ฒ ๋ ํ๋ฅ ๋ถํฌ์ ์ฐจ์ด๋ฅผ ์ธก์ ํ๋ค.
- ๋ก ํํ๋๋ฏ๋ก, Cross Entropy๋ฅผ ์ต์ํ ํ๋ ๊ฒ์ ๋ฅผ ์ต์ํ ํ๋ ๊ฒ๊ณผ ๊ฐ๋ค.
๋ฐฐ์ฐ๋ ์ด์
- KL Divergence๋ ๊ธฐ๋ณธ์ ์ผ๋ก ๋ถ์์ ํํ๋ฅผ ๋๊ณ ์์ด ๊ณ์ฐ์์ ์ด๋ ค์์ด ์๋ค.
- p = 0์ผ ๋, log(0)์ ๋ฌดํ๋๋ก ๋ฐ์ฐํ๋ค.
- ํด๋น ํจ์๊ฐ ๋ฏธ๋ถ์ด ์ฝ๊ณ ๋งค๋๋ฌ์ ํ์ต์ ์ฉ์ดํ๋ค.