1. Cookies optimieren die Bereitstellung unserer Dienste. Mit der Nutzung unserer Dienste erklärst Du dich damit einverstanden, dass wir Cookies verwenden. Weitere Informationen
    Information ausblenden
  2. Willkommen im Forum von DIGITAL FERNSEHEN - dem führenden Portal für digitales Fernsehen, Medien und Entertainment. Wenn du hier neu bist, schau dich ruhig etwas um und melde dich an, um am Forengeschehen teilnehmen zu können.
    Information ausblenden

Frage zu BitRate und Q.Level

Dieses Thema im Forum "Digitale Audio- und Videobearbeitung" wurde erstellt von narrendoktor, 5. Februar 2006.

  1. narrendoktor

    narrendoktor Gold Member

    Registriert seit:
    20. Juli 2004
    Beiträge:
    1.356
    Ort:
    Hamburg
    Anzeige
    Hallo,

    ich schaue mir gerade mit BitRate Viewer die Daten von Videos an:

    ZDF(pva, Susans Plan): Bitrate Peak=8179 Average=7478 Q.Level Peak=8,48 Average=4,04
    DVD(vob, Herr der Ringe): Bitrate Peak= 8416 Average=4685 Q.Level Peak= 5,33 Average=2,87
    TQ(pva, vanHelsing): Bitrate Peak= 6092 Average=3078 Q.Level Peak=17,58 Average=10,08


    Hier meine Fragen: Was ist ein Q.Level? Ist die Qualität des ZDF Streams besser als der einer DVD? Und, warum ist der Q.Level beim TQ Stream so hoch?

    Wen man sich einmal die Kurven anschaut, sieht man das es bei der DVD Bitrate/Q.Level kaum Schwankungen gibt. Beim ZDF und beim TQ Stream gibt es deutlich mehr Schwankungen.
     
  2. narrendoktor

    narrendoktor Gold Member

    Registriert seit:
    20. Juli 2004
    Beiträge:
    1.356
    Ort:
    Hamburg
    AW: Frage zu BitRate und Q.Level

    Das ist der Qualitätslevel. Der Q-Level sollte idealerweise bei 1 liegen. Hier gilt: Je höher, je schlechter.

    Weiß jemand wie er ermittelt wird, oder ob man es einem Film ansieht wenn er einen schlechten Qualitätslevel hat?
     
  3. mb1

    mb1 Junior Member

    Registriert seit:
    4. Januar 2005
    Beiträge:
    52
    AW: Frage zu BitRate und Q.Level

    Q.Level bedeutet Quantisierungslevel.
    Man kann den Quantisierungslevel zweier Mpeg2-Dateien mit unterschiedlichem Inhalt und teilweise vollkommen unterschiedlicher Erstellungsvorgänge überhaupt nicht miteinander vergleichen.

    Im Prinzip ist die Quantisierung ein Vorgang, der die Komprimierungsgenauigkeit regelt. Dabei wird speziell auf die "Unzulänglichkeiten" des menschlichen Auges abgestimmt. Das registriert feine Details deutlich träger oder gar nicht. Und das verstärkt sich noch bei bewegten Bildern.

    Diese Details werden zur besseren Komprimierbarkeit stärker quantisiert, mithin also unschärfer, verwaschen oder im Extremfall sogar blockig.

    Grundsätzlich erkennt das menschliche Auge ab einem Quantisierungslevel von ca. 8 im Vergleich zum Original, dass sich eine Detailverschlechterung ergeben hat.
    In der Praxis werden jedoch sehr oft Rausch- und Unschärfefilter vor die letztliche Quantisierung dazwischengeschaltet, was natürlich auch niedrigere (bessere) Quantisierungswerte ergibt (also Richtung 1 gehend).
    Denn da findet der Detailverlust nicht durch die Quantisierung statt, sondern durch die vorherige Filterung!
    Das zeigt auch, warum man nur sehr bedingt vergleichen kann.

    Den ZDF-Stream könnte man leicht durch einen starken Unschärfefilter in Richtung Q.Level 2 bekommen. Logisch, dass er deswegen optisch nicht unbedingt besser würde ;)


    Konsequenterweise kann man somit nur Material vergleichen, dass ein und demselben Encoder mit identischen Ausgangswerten angeliefert wurde. So kann man dann aber auch im Encoder die Einstellungen ermitteln, die die beste Qualität ergeben, z.B. ist klar, dass ein Stream mit einer Bitrate von 5000 kbps CBR eine schlechtere Quantisierung bekommt, als ein Stream mit 5000 kbps VBR (wo das Bitratenmaximum z.B. bis an die DVD-Grenzen gehen darf).

    Und leider darf man auch nicht verschiedene Encoder auf diese Art vergleichen.

    Noch etwas zum Lesen:
    http://www.edv-tipp.de/gastbeitraege/kika001_dct.htm
     
    Zuletzt bearbeitet: 6. Februar 2006

Diese Seite empfehlen