Skip to content

Teorie Entropie a Kodovani

Teorie kódování

Základní pojmy

Označme \chi := X(\Omega) množinu všech hodnot diskrétní náhodné veličiny X.

Definice: Kód diskrétní náhodné veličiny
Buď D = \{0, 1, \dots, D - 1\} konečná abeceda. Kód diskrétní náhodné veličiny X je libovolné zobrazení C : \chi \to D^*, kde je množina konečných řetězců symbolů abecedy D.

Definice: Kódové slovo a střední délka kódu
Hodnotu C(x) kódu C diskrétní náhodné veličiny X v bodě x \in \chi nazýváme kódovým slovem příslušným k hodnotě x a jeho délku značíme l(x).
Střední délka kódu C je

Definice: Typy kódů
Kód C diskrétní náhodné veličiny X je:

  • nesingulární, pokud je C : \chi \to D^* prosté zobrazení, tj. pro každé x, x' \in \chi platí (x \neq x') \Rightarrow (C(x) \neq C(x')),
  • jednoznačně dekódovatelný, pokud je jeho rozšíření C^* nesingulární, kde C^* : \chi^* \to D^* je definováno pomocí
  • instantní (prefixový), pokud žádné kódové slovo není počátkem jiného kódového slova.

Platí:

  • Jednoznačně dekódovatelný kód je nesingulární.
  • Instantní kód je jednoznačně dekódovatelný.

Huffmanův kód

Sestavení stromu pro Huffmanův kód:

  1. Vytvoř list pro každý symbol a dej všechny do fronty.
  2. Dokud je ve frontě více než jeden uzel:
  3. Vyjmi dva uzly s nejnižší pravděpodobností z fronty.
  4. Vytvoř nový uzel s těmito dvěma uzly jako potomky a s pravděpodobností rovnou součtu jejich pravděpodobností.
  5. Zařaď tento uzel do fronty.
  6. Zbývající uzel je kořen a strom je kompletní.

Sestavení kódu:

  1. Přiřaď hranám hodnoty 1 a 0, např. 1 vždy vedoucí k potomkovi s vyšší pravděpodobností.
  2. Kódové slovo je sekvence hodnot čtených od kořene.

Vlastnosti Huffmanova kódu:

  • Huffmanův kód je optimální, tj. je-li C^* Huffmanův kód a C' libovolný jednoznačně dekódovatelný kód, pak Navíc platí

Teorie entropie

Základní entropie

Definice: Shannonova entropie
(Shannonova) entropie diskrétní náhodné veličiny X s pravděpodobnostní funkcí p(x) = P(X = x) definujeme jako kde klademe 0 \log 0 = 0.

Platí: - H(X) \geq 0 - Obecně definujeme H_b(X) s použitím logaritmu o základu b. Není-li řečeno jinak, uvažujeme základ logaritmu b = 2.

Věta o střední délce kódu a entropii:
Nechť C je jednoznačně dekódovatelný kód diskrétní náhodné veličiny X nad D-ární abecedou. Potom platí nerovnost Rovnost nastává právě tehdy, když pro každé x \in \chi

Sdružená a podmíněná entropie

Definice: Sdružená entropie
Sdružená entropie H(X, Y) diskrétních náhodných veličin X a Y, jejichž rozdělení je určeno sdruženou pravděpodobnostní funkcí p(x, y) = P(X = x, Y = y), je definována vztahem

Definice: Podmíněná entropie
Nechť X a Y jsou diskrétní náhodné veličiny se sdruženou pravděpodobnostní funkcí p(x, y). Podmíněná entropie H(Y | X) je definována vztahem kde je podmíněná pravděpodobnostní funkce.

Věta (Chain rule):

Důsledek:
Pro nezávislé X a Y platí

Relativní entropie a vzájemná informace

Definice: Relativní entropie
Relativní entropie nebo Kullback-Leiblerova vzdálenost D(p || q) mezi pravděpodobnostní funkcí p a pravděpodobnostní funkcí q nějaké diskrétní náhodné veličiny je definována vztahem

Definice: Vzájemná informace
Vzájemná informace I(X; Y) je definována vztahem

Vlastnosti vzájemné informace:

  • I(X; Y) = I(Y; X)
  • I(X; Y) = H(X) - H(X|Y)
  • I(X; Y) = H(Y) - H(Y|X)
  • I(X; Y) = H(X) + H(Y) - H(X, Y)
  • I(X; Y) \geq 0 a I(X; Y) = 0 právě tehdy, když jsou X a Y nezávislé.