Nachteil Huffman-Kodierung



  • In meinem Skript heißt es:

    • Jedes Symbol wird in eine ganzzahlige Anzahl von Bits umgewandelt.
    • Die Symbole werden einzeln in Abhängigkeit ihrer Wahrscheinlichkeit übersetzt.
    • Sollte eines dieser Symbole eine Wahrscheinlichkeit haben, die nicht Potenz von ½ ist, so muss man trotzdem diese "gebrochene Bitstelle" zur nächsten Bitstelle auffüllen.
    • Es entsteht Redundanz für jedes Symbol.

    Was hat es mit der Potenz von ½ auf sich? In meinem Skript kommt keine Formel mit der Potenz von ½ vor, sondern lediglich log2.

    Jemand eine Erklärung?
    Danke im Voraus!



  • Huffi-Frage schrieb:

    Was hat es mit der Potenz von ½ auf sich? In meinem Skript kommt keine Formel mit der Potenz von ½ vor, sondern lediglich log2.

    log2 wird ganzzahlig, wenn die Häufigkeit (nicht Wahrscheinlichkeit) eine Zweierpotenz ist.

    Also Häufigkeit 1/8 => -log2(1/8) = log2(8) = 3. Geht halt nur bei Zweierpotenzen so schön auf.



  • Danke, aber Potenz von ½ ist ja die Wurzelfunktion. Die Wahrscheinlichkeit ergibt sich außerdem direkt aus der Häufigkeit. 1/8 ist in dem Fall die Wahrscheinlichkeit, zumindest bei einer gedächtnislosen Quelle, was bei Huffman der Fall ist.



  • Huffi-Frage schrieb:

    aber Potenz von ½ ist ja die Wurzelfunktion

    Nein.
    Potenz von ½ ist ½^n = 2^-n, nicht x^½=sqrt(x). Zweierpotenz heisst ja auch nicht "hoch 2".



  • Ah, krass, jetzt macht das Sinn, danke! 🙂


Anmelden zum Antworten