Teorie Entropie a Kodovani
Teorie kódování¶
Základní pojmy¶
Označme \chi := X(\Omega) množinu všech hodnot diskrétní náhodné veličiny X.
Definice: Kód diskrétní náhodné veličiny
Buď D = \{0, 1, \dots, D - 1\} konečná abeceda. Kód diskrétní náhodné veličiny X je libovolné zobrazení C : \chi \to D^*, kde
je množina konečných řetězců symbolů abecedy D.
Definice: Kódové slovo a střední délka kódu
Hodnotu C(x) kódu C diskrétní náhodné veličiny X v bodě x \in \chi nazýváme kódovým slovem příslušným k hodnotě x a jeho délku značíme l(x).
Střední délka kódu C je
Definice: Typy kódů
Kód C diskrétní náhodné veličiny X je:
- nesingulární, pokud je C : \chi \to D^* prosté zobrazení, tj. pro každé x, x' \in \chi platí (x \neq x') \Rightarrow (C(x) \neq C(x')),
- jednoznačně dekódovatelný, pokud je jeho rozšíření C^* nesingulární, kde C^* : \chi^* \to D^* je definováno pomocí
- instantní (prefixový), pokud žádné kódové slovo není počátkem jiného kódového slova.
Platí:
- Jednoznačně dekódovatelný kód je nesingulární.
- Instantní kód je jednoznačně dekódovatelný.
Huffmanův kód¶
Sestavení stromu pro Huffmanův kód:
- Vytvoř list pro každý symbol a dej všechny do fronty.
- Dokud je ve frontě více než jeden uzel:
- Vyjmi dva uzly s nejnižší pravděpodobností z fronty.
- Vytvoř nový uzel s těmito dvěma uzly jako potomky a s pravděpodobností rovnou součtu jejich pravděpodobností.
- Zařaď tento uzel do fronty.
- Zbývající uzel je kořen a strom je kompletní.
Sestavení kódu:
- Přiřaď hranám hodnoty 1 a 0, např. 1 vždy vedoucí k potomkovi s vyšší pravděpodobností.
- Kódové slovo je sekvence hodnot čtených od kořene.
Vlastnosti Huffmanova kódu:
- Huffmanův kód je optimální, tj. je-li C^* Huffmanův kód a C' libovolný jednoznačně dekódovatelný kód, pak Navíc platí
Teorie entropie¶
Základní entropie¶
Definice: Shannonova entropie
(Shannonova) entropie diskrétní náhodné veličiny X s pravděpodobnostní funkcí p(x) = P(X = x) definujeme jako
kde klademe 0 \log 0 = 0.
Platí: - H(X) \geq 0 - Obecně definujeme H_b(X) s použitím logaritmu o základu b. Není-li řečeno jinak, uvažujeme základ logaritmu b = 2.
Věta o střední délce kódu a entropii:
Nechť C je jednoznačně dekódovatelný kód diskrétní náhodné veličiny X nad D-ární abecedou. Potom platí nerovnost
Rovnost nastává právě tehdy, když pro každé x \in \chi
Sdružená a podmíněná entropie¶
Definice: Sdružená entropie
Sdružená entropie H(X, Y) diskrétních náhodných veličin X a Y, jejichž rozdělení je určeno sdruženou pravděpodobnostní funkcí p(x, y) = P(X = x, Y = y), je definována vztahem
Definice: Podmíněná entropie
Nechť X a Y jsou diskrétní náhodné veličiny se sdruženou pravděpodobnostní funkcí p(x, y). Podmíněná entropie H(Y | X) je definována vztahem
kde
je podmíněná pravděpodobnostní funkce.
Věta (Chain rule):
Důsledek:
Pro nezávislé X a Y platí
Relativní entropie a vzájemná informace¶
Definice: Relativní entropie
Relativní entropie nebo Kullback-Leiblerova vzdálenost D(p || q) mezi pravděpodobnostní funkcí p a pravděpodobnostní funkcí q nějaké diskrétní náhodné veličiny je definována vztahem
Definice: Vzájemná informace
Vzájemná informace I(X; Y) je definována vztahem
Vlastnosti vzájemné informace:
- I(X; Y) = I(Y; X)
- I(X; Y) = H(X) - H(X|Y)
- I(X; Y) = H(Y) - H(Y|X)
- I(X; Y) = H(X) + H(Y) - H(X, Y)
- I(X; Y) \geq 0 a I(X; Y) = 0 právě tehdy, když jsou X a Y nezávislé.