1. Cookies optimieren die Bereitstellung unserer Dienste. Mit der Nutzung unserer Dienste erklärst Du dich damit einverstanden, dass wir Cookies verwenden. Weitere Informationen
    Information ausblenden
  2. Willkommen im Forum von DIGITAL FERNSEHEN - dem führenden Portal für digitales Fernsehen, Medien und Entertainment. Wenn du hier neu bist, schau dich ruhig etwas um und melde dich an, um am Forengeschehen teilnehmen zu können.
    Information ausblenden

Wie misst man eigentlich die Bildqualität?

Dieses Thema im Forum "Digital TV für Einsteiger" wurde erstellt von nismo_honda, 22. Januar 2006.

  1. nismo_honda

    nismo_honda Junior Member

    Registriert seit:
    9. Dezember 2005
    Beiträge:
    52
    Anzeige
    Hallo,

    habe derzeit (noch) Kabel digital und empfange das mit dem Technisat Reiceiver Digital PK-. In den Optionen habe ich ja die Möglichkeit, Infos zum Sender (M/Bit, Bildrate, Audiorate etc.) anzuzeigen.

    Nun habe ich mich mit diesen Optionen mal heute morgen näher auseinandergesetzt. :winken:

    ARD; ZDF und Premiere 1-4 z.B. senden ja alle mit 720x576. Was die M/Bit Zahl angeht so sind die dann aber doch sehr verschieden. ARD so 3-4, ZDF so um die 6, das Premiere4 nur um die 2.

    Meine Frage: Die M/bit Zahl ist ja nie konstant sondern ändert sich ja sekündlich. Wie wird diese gemessen? Muss ich X Minuten zuschauen was mein Digitalreceiver mir anzeigt und das dann so in etwa ausrechnen (das habe ich für die obigen Angaben so gemacht, daher diese wissenschaftliche Aussage:D ) oder gibts da einen anderen Trick? ich ging früher davon aus, dass jediglich nur die Zeilenanzahl z.B. 720 x 576 etwas darüber aussagte...

    Gruß
    nismo
     
  2. Grognard

    Grognard Guest

    AW: Wie misst man eigentlich die Bildqualität?

    Hallo, nismo,
    die Bildqualität wird durch die BER (Bit Error Rate) angezeigt, dabei soll diese Zahl so klein wie möglich sein, aber die meisten Receiver haben nur eine Balkenanzeige in %, und da sollte die Qualität für digitalen Empfang > 60 sein.
    Lies mal im Lexikon bei http://www.satlex.de .
    Gruß, Grognard
     
    Zuletzt von einem Moderator bearbeitet: 22. Januar 2006
  3. BlackWolf

    BlackWolf Wasserfall

    Registriert seit:
    19. September 2003
    Beiträge:
    8.158
    AW: Wie misst man eigentlich die Bildqualität?


    Vollkommen falsch, sorry.

    Bei BER 60 und SNR 55% hat man immer noch das selbe Bild wie bei BER 0 und SNR 95%.

    Die Bildqualität legt zu 99,5 %einzig der Sender und zu 0,5% der Receiver fest. Grundsätzlich, je mehr MBit/s, desto besser, allerdings kommt es auch sehr stark auf das Playout an, es gibt Sender, die sehen mit 2,5MBit wesentlich besser aus als welche mit 5,5 MBit.
     
  4. KlausAmSee

    KlausAmSee Board Ikone

    Registriert seit:
    8. Oktober 2004
    Beiträge:
    4.830
    Ort:
    Mitten im Hegau
    AW: Wie misst man eigentlich die Bildqualität?

    Sorry, aber total daneben.
    Zunächst einmal ist die BER nicht die "Bit Error Rate", sondern das "Bit Error Ratio". Wird von vielen falsch gemacht, aber da der Wert einheitenlos ist kann es sich nur um ein Verhältnis handeln.
    Nächster Fehler ist, das sich mit dem Bitfehlerverhältnis nur die Qualität der Übertragungsstrecke bewerten lässt, nicht aber die Bildqualität (also den Inhalt). Bis zu einem Bitfehlerverhältnis von ca. 1x10^-4 sollte die Fehlerkorrektur (Reed Solomon) Übertragungsfehler korregieren.
    Die Datenrate eines Senders kann man auch nicht direkt zur Qualitätsbestimmung heranziehen, denn es gibt Einflüsse, die bei gleicher Datenrate die subjektive Bildqualität beeinflussen, z.B. die Auflösung des Bildes, der Bildinhalt (Bewegung, Kameraführung, Beleuchtung) und die Qualität des Encoders. Wenn du ein wenig herumzappst und die Datenraten der Sender vergleichst, wirst du featstellen, daß einige Sender trotz niedriger Datenraten ein ganz ordentliches Bild haben, und andere trotz hoher Datenraten nicht.
    Es gibt übrigens tatsächlich ein Verfahren, mit dem die Bildqualität "gemessen" werden kann. Das Verfahren ist von Rohde und Schwarz patentiert, und es gibt bei denen natürlich auch entsprechende Geräte zu kaufen. In groben Zügen die Funktion: Reicht die Datenrate für ein sauberes Bild nicht aus, wird das Bild grobkörnig, insbesondere werden die Macroblöcke langsam sichtbar. In dem patentierten Verfahren werden die Bildpunkte benachbarter Macroblöcke miteinander verglichen. Je ähnlicher sich diese sind, umso besser ist die Bildqualität. Die einzelergebnisse fasst man irgendwie zusammen, und heraus kommt ein Wert, den man irgendwie sinnvoll skaliert.
    Interessanterweise ist es so übrigens möglich, die Qualität ohne Kenntnis des originalen Bildinhalts zu bestimmen, da angenommen wird, das sich die Fehler entsprechend zeigen. Ich weiß allerdings nicht was passiert, wenn jemand ein Schachbrettmuster mit 8x8 Pixeln überträgt...

    Klaus
     

Diese Seite empfehlen