Nachteil Huffman-Kodierung
-
In meinem Skript heißt es:
- Jedes Symbol wird in eine ganzzahlige Anzahl von Bits umgewandelt.
- Die Symbole werden einzeln in Abhängigkeit ihrer Wahrscheinlichkeit übersetzt.
- Sollte eines dieser Symbole eine Wahrscheinlichkeit haben, die nicht Potenz von ½ ist, so muss man trotzdem diese "gebrochene Bitstelle" zur nächsten Bitstelle auffüllen.
- Es entsteht Redundanz für jedes Symbol.
Was hat es mit der Potenz von ½ auf sich? In meinem Skript kommt keine Formel mit der Potenz von ½ vor, sondern lediglich log2.
Jemand eine Erklärung?
Danke im Voraus!
-
Huffi-Frage schrieb:
Was hat es mit der Potenz von ½ auf sich? In meinem Skript kommt keine Formel mit der Potenz von ½ vor, sondern lediglich log2.
log2 wird ganzzahlig, wenn die Häufigkeit (nicht Wahrscheinlichkeit) eine Zweierpotenz ist.
Also Häufigkeit 1/8 => -log2(1/8) = log2(8) = 3. Geht halt nur bei Zweierpotenzen so schön auf.
-
Danke, aber Potenz von ½ ist ja die Wurzelfunktion. Die Wahrscheinlichkeit ergibt sich außerdem direkt aus der Häufigkeit. 1/8 ist in dem Fall die Wahrscheinlichkeit, zumindest bei einer gedächtnislosen Quelle, was bei Huffman der Fall ist.
-
Huffi-Frage schrieb:
aber Potenz von ½ ist ja die Wurzelfunktion
Nein.
Potenz von ½ ist ½^n = 2^-n, nicht x^½=sqrt(x). Zweierpotenz heisst ja auch nicht "hoch 2".
-
Ah, krass, jetzt macht das Sinn, danke!