1. Cookies optimieren die Bereitstellung unserer Dienste. Mit der Nutzung unserer Dienste erklärst Du dich damit einverstanden, dass wir Cookies verwenden. Weitere Informationen
    Information ausblenden
  2. Willkommen im Forum von DIGITAL FERNSEHEN - dem führenden Portal für digitales Fernsehen, Medien und Entertainment. Wenn du hier neu bist, schau dich ruhig etwas um und melde dich an, um am Forengeschehen teilnehmen zu können.
    Information ausblenden

Verwendete Audiocodecs

Dieses Thema im Forum "Digital TV über Kabel (DVB-C)" wurde erstellt von Radiowaves, 12. Januar 2021.

  1. TV_WW

    TV_WW Lexikon

    Registriert seit:
    10. Juli 2004
    Beiträge:
    20.231
    Zustimmungen:
    4.138
    Punkte für Erfolge:
    213
    Anzeige
    Ok, aber da müsste man zuerst mal den Signalpfad vor den Audio-Encodern nachvollziehen. Ich halte es durchaus für denkbar dass bereits vor den Encodern die Dynamik unterschiedlich ist,
    weil von den Anbietern der MP2 Ton für die Wiedergabe über in TV-Geräten eingebauten Lautsprechern vorgesehen ist und der AC-3 Ton für die Wiedergabe über AV-Receiver und externe Lautsprecher.

    Es gibt keinen direkten Zusammenhang zwischen Audio-Dynamikumfang und Datenrate.
    Indirekt gibt es einen Zusammenhang über die Funktionsweise des Codecs, nämlich welche Artefakte bei der Kompression entstehen, von daher kann es sein dass der Dynamikumfang bei bestimmten Audiocodecs reduziert wird,
    aber das geschieht bereits im Signalpfad vor dem Encoder, nicht durch den Encoder selber.
     
  2. TV_WW

    TV_WW Lexikon

    Registriert seit:
    10. Juli 2004
    Beiträge:
    20.231
    Zustimmungen:
    4.138
    Punkte für Erfolge:
    213
    Einen einzelnen Ton zu encoden ist leider wenig aussagekräftig, einen solchen komprimiert auch ein einfach gestrikter Audiocodec problemlos.
    Da sollte man schon ein ein komplexeres Schallereignis verwenden. Statische Töne sind ohnehin problemlos für Audiocodecs.
     
    Zuletzt bearbeitet: 19. Januar 2021
  3. robiH

    robiH Foren-Gott

    Registriert seit:
    7. August 2003
    Beiträge:
    11.000
    Zustimmungen:
    1.563
    Punkte für Erfolge:
    163
    @MOD:
    Bitte mal die Diskussion über Audio-Codecs in einen gesonderten Thread abspalten.
    Danke.
     
    EinNutzer gefällt das.
  4. EinNutzer

    EinNutzer Gold Member

    Registriert seit:
    22. September 2019
    Beiträge:
    1.153
    Zustimmungen:
    430
    Punkte für Erfolge:
    93
    Gute Idee.

    Vielleicht erhöhen die Sender deshalb die Lautheit der MP2-Tonspur !? Weil die Komprimierung zu stark ist oder einst war und der Spitzenpegel ansonsten auffallend zu niedrig war?

    Klar, 256 kBit/s ist für Stereo schon ziemlich transparent, aber früher liefen alle Sender, auch die ÖR, mit niedrigeren Bitraten. Noch heute laufen einige Tonspuren nur mit 192 kBit/s (alle privaten SD-Sender, einige ÖR und Arte (n)).

    Vielleicht ist das auch ein Relikt von früher? Quasi hat man früher immer lauter gepegelt und macht das heute nicht mehr rückgängig?

    Gut, der erläuterst hier, dass es nicht am Codecs liegt. Warum sind dann die MP2-Tonspur und die Dolby-Spur in der Praxis definitiv unterschiedlich laut? Was soll dieser Mist?

    Selbst wenn nicht jeder Heimkinoanlagenbesitzer die Dolby-Tonspur auswählt, es gibt Sender, bei denen lediglich eine Tonspur in Dolby-Kodierung vorliegt. Deutsche Private in HD zum Beispiel (siehe die Links in @Radiowaves Beitrag) oder die österreichischen ÖR.

    Es dürfte wohl legitim sein, diese anderen Sender zu schauen, seine Wiedergabegeräte auf die dort erforderliche Lautstärke einzustellen und nicht von den deutschen ÖR angeschrien zu werden, wenn man dann auf jene umschaltet! :mad:


    Allein schon dieser unterschwellige Vorwurf, "Freaks mit Heimkinoanlage". :eek:;) Eine Heimkinoanlage ist ein legitimes Wiedergabegerät im Haushalt. Diejenigen, die Fernsehen über die Piepser (mehr sind sie nicht!) in Flachbildschirmen hören, das sind in meinen Augen Deppen. An denen sollte sich weder die Standardisierung von Technik noch die Sendeparameter der Sender orientieren!

    Zumindest meine TVs bevorzugen schon automatisch von sich aus (Panasonic-TV) oder bieten eine Option (Samsung-TV), stets die Dolby-Tonspur wiederzugeben - auch über die eingebauten Piepser. Es sind also nicht nur die "Freaks", die die Dolby- anstelle der MP2Tonspur verwenden.

    Meiner Hörerfahrung nach sind AAC-kodierte Tonspuren in der Praxis genauso wie MP2-Tonspuren lauter (zu laut).

    Wenn ich ein Video mit AAC-Tonspur beginne, werde ich genauso angeschrien wie von MP2-Tonspuren im linearen TV. Ob das bei Das Erste via DVB-T2 auch so ist, weiß ich nicht.

    Das braucht aber auch nicht zu verwundern, beide Standards stammen von den gleichen Leuten, der Moving Picture Experts Group.

    Ich glaube einfach nicht, dass es nicht irgendwie am Codecs liegt - oder der Art, wie dieser Codecs für Encoding benutzt wird.

    Ich habe auch schonmal eine Privatkopie eines Films gesehen, die von einer Blu-ray oder DVD herrührte. Da wurde der Dolby-Ton in den Encoder gepackt, damit die Datei kleiner wird. Und siehe da: Der Ton ist beim Abspielen lauter als der ursprüngliche Dolby-Track. Da stellt doch das Kopiertool nicht den Ton automatisch lauter !?!


    Diese ganze Diskussion ufert jetzt dahin aus, dass hier Lösungen für ein Problem gesucht werden, welches gar nicht auftreten muss. Dolby-Audio ist der Defacto-Standard bei Video. Die Amerikaner klassifizieren es gar als verpflichtend im TV.

    Bei der DVD und der Blu-ray ist es der Standard, den alle benutzen. Kein Mensch trauert dem für europäische DVD-Player ursprünglich verpflichtend vorgesehen MP2 auch nur eine Träne nach. Auch Stereo-Spuren werden auf Blu-ray und DVD in DD oder DTS kodiert.

    Nur im TV-Bereich klammern sich einige Parteien, allen voran die deutschen ÖR, an diesem veralteten Mist fest. Nun, die deutschen ÖR haben die Entwicklung von MP2 einst mitfinanziert. Aber diese Ausgaben haben sich doch längst amortisiert!

    Was soll dieser krampfhafte Wille, auf dem alten Mist sitzen zu bleiben? Das ist meiner Meinung nach mit ein Grund, warum wir nach 40 Jahren (!!) noch immer keinen Mehrkanalton als standardmäßiges Produktionsformat für Studiosendungen haben. Das ist doch Mist!

    Natürlich gibt es in den Haushalten kaum Center-Lautsprecher - weil es ja auch kaum Sendungen gibt, die von dem Center gebrauch machen! o_O

    Da beist sich die Katze in den eigenen Schwanz.

    Wo ist also die Erfordernis, MP2 noch immer zu benutzen?

    Na beim Umschalten von TV auf Radio in der Praxis nicht angeschrien zu werden. Ggf. auch die mögliche höhere Datenrate.

    Falls der Hörfunk-Transponder bleiben sollte, dann gibt es doch kein Platzproblem, oder? Warum dann nicht auch High-Definition für das Ohr anbieten? Wie wäre es mit DTS-HD Master Audio (ist im DVB definiert) oder FLAC (gibt's noch keine DVB-Definition), da dies verlustfreie Kompression bietet?

    Natürlich muss das heute vorhandene Archiv der ÖR dazu umgestaltet werden (falls es wirklich auf MP2 basiert, wie du sagst). Heutige Preise für Datenspeicherung erfordern aber auch definitiv keine verlustbehaftete Kompression mehr. Ich benutze privat nur noch FLAC. MP3 oder WMA sind bei mir schon lange auf dem Abstellgleis gelandet. AAC habe ich fürs Auto-Radio getestet, aber da das Radio nur von CD wirklich hochwertig abspielt, habe ich das auch wieder ad-acta gelegt.

    Du verschränkst dich in deiner Sichtweise sehr auf die Geräte, die als DVB-Radio verkauft werden oder als solches zweckentfremdet werden, weil sie ein komfortables Display haben. Es sind aber (leider) Randgruppen, die so Radio hören. Der Alltag ist: Der TV ist an und der AV-Receiver ggf. auch. Und dann kann ich auch "neuere" Verfahren benutzen. Der AV-Receiver oder der UHD-Fernseher dekodieren das, was der "DVB-Radio-Receiver" nicht wiedergeben kann. ;)

    Das könnte sich ja ändern (hoffentlich!).

    :love:

    Telekom, wie kannst du da mit deinen 192 kBit/s zurückstehen? :cry:



    Wie gesagt, mein Blu-ray-Player, ein "neuerer" mit 3D ;), macht es so, dass AAC-Surround als AC-3 ausgeben wird. Der Panasonic-TV macht das auch so (via ARC).

    Drüben im Arte-Thema schrieb aber jemand, dass er auch die Möglichkeit bei einem DVB-T2-Receiver hätte, neben dem AC-3-Recoding und PCM auch einen echten AAC-Bitstream als Ausgabeformat im Menü einstellen zu können.

    Das ist aber wohl extrem selten. Der Standard sieht das Re-Coding vor.

    Nicht nur beim AAC-Surround. Der Ton wird ja bei AAC-Stereo auch in der Regel immer vom ersten Empfänger, also Satelliten-, Terrestrik- oder Kabelreceiver, dekodiert und dann ausschließlich als PCM weitergeleitet.

    Wie sieht es da um die Qualität des Dekodierens aus? Generieren die "China-Bomber" ein wirklich gutes Ergebnis? Jetzt steht bei mir der AV-Receiver zuhause herum. Warum soll sich nicht er, der er dafür gebaut wurde, um das Dekodieren kümmern?

    Bei den meisten zu kaufenden Geräten geht das natürlich soweit nur mit Dolby- und DTS-Tonverfahren und (offenbar) nicht mit Ton-Codecs der Moving Picture Experts Group.

    Also ein weiterer Grund, E-AC3 und neuer zu senden.

    Was ist denn "echtes S/PDIF"? :ROFLMAO:

    Der Begriff S/PDIF beschreibt doch nur das Transportmedium. S/PDIF ist quasi die Straße und nicht das Gefährt, das über die Straße fährt.

    Die bildliche Straße hat dann eine Geschwindigkeitsbegrenzung. Diese liegt bei 20 MBit/s.

    Somit können beliebige Tonverfahren (bildlich Fahrzeugklassen) übertragen werden, jedoch nur bis zu einer Höchstdatenrate von 20 MBit/s.

    Dabei scheint es egal zu sein, welches Tonverfahren übertragen wird. Der Empfänger (AV-Receiver) muss schauen, dass er das Signal versteht. Sonst hört man nichts.

    Wenn wir also von Downmix-Stereo sprechen, beschreibt das noch nicht, welches Kodierverfahren genau durch die Leitung läuft. In der Regel ist es bei Stereo-Downmixen PCM. Downmixe von 7.1 auf 5.1 werden aber mit Dolby-Digital- oder DTS-Kodierung übertragen, weil sonst die Bandbreite von 20 MBit/s überschritten wird. PCM scheidet aus, weil nur zwei Kanäle (also Stereo) per S/PDIF standardisiert sind.

    Früher sagte man, dass Geräte am Ende der S/PDIF-Verbindung nur Dolby Digital oder DTS verstehen. Deshalb wird heute quasi nichts anderes darüber übertragen, obwohl theoretisch sogar DTS-HD übertragen werden kann, solange die Höchstdatenrate von 20 MBit/s nicht überschritten wird.

    Die Moving Picture Experts Group hat bei der Standardisierung ihrer Audio-Ausgeburten offenbar zu sehr von der S/PDIF-Schnittstelle abgekupfert. So sieht der AAC-Standard eben immer eine Umwandlung in Dolby Digital vor, obwohl theoretisch auch AAC durch die Leitung geschickt werden könnte, solange höchstens 20 MBit/s breit.

    Und weil man so inkompetent ist, fordert man im Standard sogar verbindlich die Umwandlung nach AC-3, wenn mit HDMI eigentlich eine Schnittstelle mit immensen Bandbreiten verwendet wird. :censored:

    Aus diesem Grund ist es doch nur logisch, dass AV-Receiver-Hersteller gar nicht erst die Unterstützung für AAC vernünftig in die Geräte einbauen. Das kostet unnütz Geld, da man AAC ganz offiziell gar nicht zum AV-Receiver transportieren kann. Manche AV-Receiver bieten als Feature eine Wiedergabe von Musik-Dateien. Hier hat AAC auch eine gewisse Verbreitung gefunden. Daher bieten die Geräte dann auch eine rudimentäre Wiedergabe von AAC. Offenbar meist nur Stereo, weil Musik hauptsächlich nur in Stereo produziert wird. (n):unsure:

    Somit kann man nur resümieren, dass AAC bloß nicht bei UHDTV Verwendung finden sollte! Es macht nur Ärger. Und mit E-AC3, AC-4 oder DTS(-HD) gibt es bessere Verfahren, die auch bei DVB standardisiert und anwendbar sind.

    @Gorcon meint Dolby-Surround, den Vorgänger von heutigen diskreten Raumklangverfahren. Da werden mehr als zwei Kanäle in übliches Stereo "gezaubert".

    Zuhause "entzaubert" der Dolby-Prozessor die zusätzlichen Kanäle aus dem Stereo und gibt dann Raumklang wieder.

    MP2 macht laut @Gorcon die versteckten Zusatzinformationen kaputt und sorgt für Kauderwelsch auf den anderen Lautsprechern.

    Sehr alte Filme haben meist noch heute nur eine Dolby-Surround-Abmischung. Diese kannst du schlicht nicht genießen, wenn der Sender bloß MP2-Tonspuren hat. (n)

    Zwei Mischungen zu machen ist schlicht Blödsinn!

    Aus Mehrkanalton generiert jeder Codecs ein perfektes Stereo. Sprich: Eigentlich sollte nur Raumklang produziert und gesendet werden. Der heimische Empfänger macht daraus bei Bedarf Stereo oder mischt es auf jede andere erforderliche Kanalzahl, wenn jemand exotische Lautsprecherkonfigurationen zuhause hat.

    Die ÖR machen seit Jahrzehnten alles falsch, wenn sie Stereo-Abmischungen herstellen, was man nur falsch machen kann. Es wird Geld und Energie für etwas verschwendet, was man so nicht braucht.

    Bei Blu-ray-Konzerten mag es sinnvoll sein, wenn es eine spezielle Stereo-Abmischung gibt. Die ist dann aber für echte Stereo-Hifi-Anlagen gedacht. Im Fernsehalltag, der ja nunmal aus Flachbildschirm-Piepser, schwachbrüstigen Soundbars und eben Heimkinoanlagen besteht, reicht eine Abmischung - und zwar die Mehrkanalabmischung.

    Nun, ich mache das gleiche laufend mit nichtvorhandenen Raumklanginformationen, damit ich Sprache aus dem Center-Lautsprecher bekomme. Dafür gibt es von Dolby und DTS Spezialverfahren, die in AV-Receivern eingebaut sind.

    Die Ergebnisse sind "ausreichend (-)", um es mal in Schulnoten auszudrücken. Die Trennschärfe ist zu inakkurat, es werden vom Verfahren viele Geräusche, Hintergrundmusik und Effekte auf den Center-Lautsprecher gelegt, die da nichts zu suchen haben.

    Die hinteren Lautsprecher bleiben - zumindest bei mir - in der Regel still. Ich habe bei mir auch noch keine Störgeräusche bei MP2-Tonspuren gehört (zum Glück). Offenbar sind neuere Geräte mit einer "Sicherung" ausgestattet, sodass die Algorithmen kein Kauderwelsch interpretieren.

    @Gorcon benutzt, soweit ich weiß, noch seinen original-uralten Dolby-Surround-AV-Receiver aus den 90ern. Der reagiert, wie er eigentlich ja auch soll, und versucht Raumklanginformationen zu "verstehen", die wegen des übereifrigen Codecs der Moving Picture Experts Group nicht mehr vorhanden sind.

    Und da AAC Mist ist (siehe oben), bitte auch gleich AAC in die Tonne kloppen und AC-3 oder neuer benutzen. Danke!
     
    Gorcon gefällt das.
  5. Radiowaves

    Radiowaves Gold Member

    Registriert seit:
    23. Oktober 2013
    Beiträge:
    1.548
    Zustimmungen:
    1.144
    Punkte für Erfolge:
    163
    Muss ich jetzt wirklich einen kompletten Durchlauf mit allen Arten und Unarten von Audiomaterial veranstalten, um etwas nachzuweisen, was von Anbeginn an gesetzt war, weil ansonsten der Layer-II-Codec nicht zum Industriestandard geworden wäre? Ich bin es zwar inzwischen gewohnt, dass alls, aber auch wirklich alles (bis hin zu Naturgesetzen) in der heutigen Zeit in Frage gestellt wird, aber es ist zumindest lästig und dient im Allgemeinen ja nur dazu "Getriebesand" in die Gesellschaft zu bringen. Das ist nur noch über-Stöckchen-Springen.

    Aber meinetwegen.

    WDR sendete vor mehr als 6 Jahren (und gewiss inzwischen auch noch einmal, denn es ist großartig) das Hörspiel "Dr. Murkes gesammeltes Schweigen". Natürlich lief das in 320 Layer II und 448 AC3 2.0 - vergleichen wir doch mal.

    AC3-Fassung: Lautheit -22,2 LUFS / Spitzenpegel -2,6 dBTP/ Loudnes Range 11,0 LU
    MP2-Fassung: Lautheit -19,2 LUFS / Spitzenpegel +0,7 dBTP / Loudnes Range 11,1 LU

    Das alte Problem von WDR 3 auf dem Hörfunk-Transponder: die Layer-II-Spur ist übersteuert. So sehr übersteuert, dass ein Spitzenpegeldetektor, der auch "intersample overs" erkennt, zu mehr als 0 dBTP kommt, also Clipping detektiert. In diesem Fall 0,7 dB. Solche Angaben sind aber mit Vorsicht zu genießen, denn ab einem bestimmten Grad an Clipping kann der reale, digital nicht darstellbare Übersteuerungsgrad nicht mehr genau rekonstruiert werden.

    Die Lautheit der Layer-II-Spur ist exakt 3 LU höher als die der AC3-Spur. Würde man Layer II um 3 dB niedriger pegeln, hätte man identische Lautheit zu AC3 (gerechnet über ein gesamtes Hörspiel hinweg!) und der Spitzenpegel der Layer-II-Spur läge bei ca. -2,3 dBTP, wäre also noch winzige 0,3 dB höher als bei der AC3-Spur. Gleiche Lautheit bei höherem Spitzenpegel könnte ohne Kenntnis der Herkunft beider Files ein Indikator für "hat höhere Dynamik" sein, in diesem Fall (datenreduzierte Systeme mit ihren typischen Eigenschaften und der geringe Unterschied zwischen beiden Varianten) ists aber einfach "identisch bis auf durch Datenreduktionsartefakte statistisch veränderte Einzelsamples".

    Darauf weist auch die Loudness Range hin, die ja zu einem gewissen Teil die Dynamik repräsentiert: sie beträgt 11,0 LU bei AC3 und 11,1 LU bei Layer II - also identisch.

    Und das sieht man auch in der Wellenformdarstellung:

    [​IMG]


    Nein. Bitte erstens nicht "Komprimierung" und "Datenreduktion" verwechseln/vermischen. Komprimiert wird Dynamik, datenreduziert wird digitales Audio, um halt weniger Daten zur Übertragung zu benötigen verglichen zur Originalversion (meist PCM).

    Die Artefakte einer psychoakustischen Datenreduktion verändern die Einzelsamples des Audio statistisch: manche Samples bekommen einen höheren Absolutwert, andere einen geringeren. Über alles bleibt die Lautheit dabei völlig identisch, nur die Spitzenwerte ändern sich. Da man bei der Spitzenwert-Suche alle Einzelsamples abgeht und schaut, welches den höchsten / niedrigsten Amplitudenwert hat, sammelt man beim dytenreduzierten File natürlich einen höheren Wert auf als beim Originalfile. Statistisch haben aber ebensoviele Samples im datenreduzierten File einen niedrigeren Wert (oberhalb der Zeitachse) bzw. einen höheren Wert (unterhalb der Zeitachse) und der Effekt mittelt sich deshalb weg. Die lautheit bleibt identisch.

    Wo man darauf achten musste, was Datenreduktion mit den Spitzenwerten macht: UKW-Senderzuführung. Wenn man da z.B. nur mit 192 kbps Layer II rangeht, kann es auf der Übertragungsstrecke zu mehreren dB (durchaus 3 dB) erhöhten Spitzenpegeln kommen, die dann auf UKW zur Hubüberschreitung führen würden. Man muss also entweder eine höhere Bitrate verwenden (dann wird der Effekt geringer) oder man muss einen Spitzenwertbegrenzer nochmal an jeden Senderstandort stellen, der die durch Artefakte entstandenen Peaks abrasiert oder man muss niedriger pegeln (was niemand will). Da geht es nicht um Lautheit, da geht es um einzelne, diskrete Samples, die messtechnisch zu hoch sind.

    TV-Pegel habe ich mir nie detailliert angeschaut, ich besitze auch gar keinen richtigen Fernseher.

    Man steuert heute bei der ARD nach R128 aus, das ist eine lautheitsbewertete Pegelmessung. Damit wollte man vor allem die Lautstärke der Werbung zähmen, die von den "Lieferanten" so laut wie möglich gemacht wurde unter Ausnutzung der einst vorgegebenen Spitzenpegelbeschränkung: die haben einfach brutalst dynamikkomprimiert und dieses hochverdichtete Signal an der alten Grenze von -9 dBFS Spitzenpegel ausgerichtet. Damit waren sie natürlich viel lauter als ein natürlicher Sprecher oder eine Filmszene, in denen auch mal dieser Spitzenpegel vorkam, aber eben nicht dauerhaft, sondern nur sehr selten.

    Um das aufzubrechen, wurde in der EBU R128 entwickelt, federführend war hier der ORF (Forian Camerer). Nun gibt es an die Lieferanten eine Lautheitsanforderung (-23 LUFS). Ob sie die mit plattgepresstem Audio erreichen (bei dann extrem niedrigem Spitzenpegel) oder mit dynamischem Audio (mit deutlich höherem Spitzenpegel) ist deren Sache. Dynamisch klingt aber wesentlich besser und verständlicher.

    Wenn AC3 und Layer II identisch bespielt werden und bei AC3 auch der Dolby-RDialog-Referenzlevel im File auf -31 dB gesetzt wird, kommen da gleiche Lautheiten raus. Bei hohen Bitraten sollten auch nahezu identische Spitzenpegel rauskommen. Bei nur 192er Layer II kann dessen Spitzenpegel eben durchaus mal 3 dB höher liegen als im Original. Was ein 448er AC3 2.0 diesbezüglich anrichtet (auch dort muss der Spitzenpegel etwas steigen, bei 448 kbps vermutlich aber sehr wenig), weiß ich nicht, ich habe keinen verlässlichen AC3-Encoder hier, sondern nur den in XMediaRecode. Ich hätte dafür aber dann gerne einen Encoder in "Industriequalität". Da sollte dann schon "Dolby" drauf stehen, wenigstens auf der Rückseite bei den Lizenztexten.

    Wenn Layer II nun beim TV lauter ist als AC3, dann ist entweder der Dialog-Referenzlevel im AC3-Stream höher als auf -31 dB gesetzt (dann rechnet der Decoder bei der Wiedergabe leiser) oder man beshcickt beide Strecken mit unterschiedlich vorbehandeltem Audio.

    Nenne mir bitte ein Programm, bei dem das auffällt und ich schaue nach, ob ich was finde. Es sollte natürlich im Stereo-Modus sein und nicht wenn tatsächlich Surround läuft. Also: gibt mir bitte einen Öffi und eine Sendung und ich nehme das mal auf und schaue rein.

    Sehe ich auch so. Ich ahne, dass es sich um die Referenzlevel-Thematik handelt. Ich warte gespannt auf die Nennung eines zu analysierenden "Opfers".

    Leider ist das die Realität. Auch beim Hörfunk. Es wird wohl qualitativ deutlich nach unten gehen, befürchte ich - in Ausrichtung an denen, denen alles egal ist und die völlig abgestumpft sind. Bei DAB+ hat man das ja auch schon gemacht. Als der große EBU-Hörtest 2009 verheerend für AAC ausging - höchste Stufe im Test war 128 kBit/s Subchannel-Size entsprechend 113,3 kBit/s netto-Audio (ohne Slideshow getestet) und das ergab nur 80% MUSHRA, also signifikant schlecter als 192 kBit/s Layer II, während die "Wunsch-Bitrate" für DAB+ (64 kBit/s) nur auf 44% MUSHRA kam, wiederholte man die Tests mit akustisch unerfahrenen Menschen, kam erwartungsgemäß auf deutlich bessere Werte und richtete den DAB+-Regelbetrieb dann daran aus. Wer geschultes Hörvermögen hat, hatte halt Pech. Das gleiche droht nun wohl auch im DVB-Radio.

    Aber wenn Du doch AC3 decodieren und hochwertig abhören kannst, wieso ärgerst Du Dich dann über die offenbar lauten Öffi-Layer-II-Spuren?

    Deutet für mich immer mehr darauf hin, das die AC3-Spuren durch den Dolby-Dialogreferenzwert eher "zu leise" sind.

    Nochmal: ich vermute den Referenzlevel als Ursache. Lass uns das testen!

    Aber vielleicht ignoriert das Softwaretool den Dolby-Referenzlevel. So wie andere Softwaretools stets das Emphasisflag bei Digital Audio ignoriert haben, was bei manchen seltenen alten CDs zu grellen Höhen führt.

    Ich habe beim TV folgende Vermutung:

    In SDTV war nur MPEG 1 Layer II Audio Pflicht, AC3 musste nicht decodiert werden im Receiver, es genügte, wenn es via Bitstream rausging (so überhaupt ein Digitalausgang für Audio vorhanden war). Also musste man Layer II verpflichtend anbieten, AC3 war Zusatz für diejenigen, die damit was anfangen konnten.

    In HDTV / H.264 ist AC3 soweit mir bekannt immer implementiert. Man hätte also MPEG 1 Layer II weglassen können, einen Stereo-Downmix hätte der Receiver oder der TV (der sowieso, er hat ja nur 2 Lautsprecher) immer hinbekommen. Doch mitunter gibt es für Stereo und Surround unterschiedliche Abmischungen, z.B. bei Klassik. Was wir in Abmischungen bekommen, ist ja nur ein "Trickbetrug" am Gehör, es soll suggerieren, wie das original im Raum geklungen hat. Da wird viel dramaturgisch gearbeitet (beachte schon die enorme Zahl an Stützmikrofonen bei Orchesteruafnahmen). Das "phänomenale Stereo" entsteht also mehr am Pult mit den Pan-Stellern als dass es im Saal abgegriffen worden wäre. Bei Surround weiß ich nicht, wie viel da am Pult nachgeholfen wird, damit etwas entsteht, was den Zuhörenden gefällt. Die Steroespur kann also durcaus anders klingen als die Links/Rechts-Frontkanäle der surround-Mischung. Um beides zu übertragenm braucht es zwie Spuren: Stereo und Surround. Da hat man dann offenbar die Stereospur in Layer II behalten (so als "hier immer das optimale Stereo") und die Surround-Sendungen laufen auf der AC3-Spur korrekt, dort geht bei Steroesendungen auch das 2.0-Signal drauf. Man hätte natürlich auch ein AC3 anbieten können, das immer 2.0 ist und eines, das zwischen 2.0 und höheren Formaten wechselt. Wäre wohl verwirrender gewesen.

    Es sieht aber alles danach aus, als ob er ab 2022 nicht mehr existieren wird. ich habe zumindest bislang keine andere Information als "bis Ende 2021 gesichert". Und dass TP93 auf der Abschussliste steht, wurde mir schon vor 3 Jahren von einem ARD-Mitarbeiter mitgeteilt. Leider habe ich keinen Kontakt mehr zu diesem Mann.

    Das Archiv basiert nicht auf Layer II. Das Archiv wird natürlich in unreduzierter Qualität gepflegt. Surround landet dort z.B. als 8-kanaliges PCM (Stereomischung Links/Rechts, dazu die 5.1-Kanäle, wobei im Hörfunk der LFE wohl leer mitgeschleppt wird). Musik von der Industrie wird via Fileservice als FLAC geliefert und landet unreduziert im Archiv. Das, was auf den Sender kommt, geht aber i.d.R. als 384er Layer II in den Wellenspeicher. E sgibt also datenreduzierte "Sendefassungen", das hat sich historisch so ergeben.

    Seit der UKW-Abschaltung in den großen Kabelnetzen sind es viel, viel mehr Leute geworden. Das System wird als UKW-Ersatz fürs Kabel beworben. Entsprechende Geräte sind seit 2017 im Handel. Wer z.B. in Ostberlin das RBB-Kulturradio hören will, kann das gut nur über diesen Weg. UKW kommt in Ostberlin schon vom SFB-Sender am Scholzplatz kaum noch in mono an, wenn man ungünstig wohnt.

    Der Alltag ist: "einen AVR gibt es nicht, da steht nur ein TV". Mit genau den Plärrdingern da drin - viel schlechter oft als es ein Röhrenfernseher der 1980er Jahre konnte. Radio wird normalerweise nicht über einen TV gehört. Ich habe aber in einem Fall einen aktuelleren TV (Grundig 2014) als DVB-Kabelradio eingerichtet. Das Panel geht dabei komplett aus und die Besitzerin hört ihre ARD-Kulturwellen über die angeschlossene Stereoanlage, seitdem die PYUR UKW dort abgeschaltet hat.

    Im Wohnzimmer meiner Eltern gab es nie einen Fernseher. Da wäre sowas gar nicht gegangen. Deshalb habe ich mich darum gekümmert, das eine ordentliche Anzahl hochwertiger Wellen (DLF, DLF Kultur, Bayern 2, BR Klassik, SWR 2, WDR 3, hr2, OE1, MDR Kultur, MDR Klassik, einst auch NDR Info für den Jazz) im UKW-Kabel meines Heimatortes verfügbar sind. Das läuft auch heute noch. Und zwar hervorragend.

    Aber eben nicht bei Menschen ohne TV-Overkill. Das ist für Hörfunk nicht praktikabel. Anderswo weiß man das: der SRF bleibt fürs Radio auch bei Layer II bei der bald anstehenden Transponderzusammenlegung. Die schweizer Kabelnetze haben Radio in Layer II drin und empfehlen Vistron VT855 und TechniSat Cablestar. Frankreich bliebt beim Radio bei Layer II bei der kürzlichen Transponderumstellung. Italien hat gerade erst den Rai-Hörfunk komplett in Stereo auf Hotbird gebracht - in Layer II.

    UHD-Fernseher besitzt z.B. niemand aus meinem Umfeld. Mehrere Familien sind bewusst fernsehfrei. Andere haben einen "alten" (2013, 2009) LCD-TV, der könnte teils sogar AAC und AC3 stereo kann er erst recht - dort ists aber teils auch nicht praktikabel, Radio darüber zu hören. Beim Panasonic meiner Eltern (GW10 von 2009) geht das Panel z.B. im Radiomodus nicht aus, und das hat ein Kaltkathoden-Backlight, das lässt man nicht ohne Not brennen.

    Wenn es so kommt, wie ich es befürchte, haben wir in einem Jahr in Berlin bei der PYUR dann 104.6RTL und Energy in 320 Layer II und RBB Radio Eins und die anderen ARD-Wellen in 96 oder 120 AAC. Oder sogar nur in 64 HE-AAC. Ich halte da inzwischen alles für möglich, Stichpunkt "verhinderte Erhöhung des Rundfunkbeitrages".

    Interessant! Welche Endgeräte könen damit was anfangen? Ist das heute schon in AVR standardmäßig implementiert?

    Mangels Referenzdecoder für AAC kann ich nur schauen, was sich wie im Vergleich zu anderen verhält. Winamp und VLC decodieren LC-AAC nahezu identisch und haben bei HE-AAC geringe Unterschiede in der Spektralbandreplikation, die ich in kein "besser/schlechter"-Schema einordnen kann mangels Referenz.

    Da ich derzeit Corona-bedingt in meinem Elternhaus festsitze und nicht in meine eigene Wohnung komme, kann ich keine DAT-Kassetten 1:1 bitgenau auf File überspielen. Sonst hätte ich mal vom tschechischen Rundfunk (habe ich hier verfügbar im Kabel, stammt von 23,5° Ost) AAC-Spuren hergenommen und mit dem Panasonic GW10 von 2009 via TOSLINK auf DAT aufgenommen, um es in meiner Wohnung dann zu analysieren. Parallel wäre halt eine Aufnahme des Originaldatenstromes mit dem DVB-C-Receiver uf USB erfolgt und dann ein Vergleich des Decodings Panasonic GW10 vs. Decoding VLC oder Winamp. So blieb mir bislang nur, am Analogausgang des TV zu lauschen: wirkte da für die jeweilige Bitrate und für die jeweilige AAC-Variante erwartungsgemäß.

    Von den Receivern aus dem Hause LaSAT (Bayern, Made in Germany, Basis ist der MB86H60 Chip von Fujitsu) weiß ich, dass sie mit "A"-Firmware LC-AAC können, aber keine höheren Modi. Weder Spektralbandreplikation noch Parametric Stereo sind implementiert, also sind solche Programme dann dumpf oder dumpf und mono. Und der Receiver wirft bei HE-AAC ein an 12 kHz gespiegeltes Audiospektrum raus. Also Vollschrott.

    TechniSat Digicorder HD-S2 und HD-K2 sind ebenso vollkommen AAC-untauglich wie Digit HD8-S und Digit HD8-C. Das sind alles HDTV-Gräte der Premiumklasse mit H.264, Layer II und AC3-Decoding. Die Kabelradios von TechniSat (Cablestar 100, Cablestar 400) und Vistron sind AA-untauglich. Vom Vistron gibt es für BeNeLux eine Variante VDR210, die kann AAC. Ob das dann auch nur so rudimentär unterstützt ist wie bei den LaSAT-HD-Receivern, weiß ich nicht.

    "China-Geräte" habe ich keine hier, also keine dieser 30-EUR-Kisten von Amazon. Würde ich gern mal testen, ob überhaupt und wenn ja, dann wie gut.

    Zuweilen könnte man tatsächlich auf den Gedanken kommen, die ARD habe einen Vermarktungsdeal mit Fraunhofer.

    Schau Dir mal hier https://tech.ebu.ch/docs/tech/tech3324.pdf S. 22 an. An AC3 mit 448 kbps kommt da kein anderes Verfahren ran. AAC 320 ist auch gut bei Surround, abe eben auch kaum kleiner. E-AC3 256 kbps mit Transcoding auf AC3 640 kbps im empfangenden Receiver ist in einzelnen Hörbeispielen schon deutlich schlechter. AAC Surround hat eine viel größere Bandbreite hinsichtlich der Encodierungsqualität. Da gibt es Audiomaterial, dass der Encoder so gar nicht kann.

    "Echtes S/PDIF" ist für mich die ursprüngliche Anwendung: Übertragung von lienarem PCM-Stereo. Also nicht Bitstream-Irgendwas. Also so, wie man es von CD-Playern und DAT-Recordern kannte.

    Eben da sist die ursprüngliche S/PDIF-Anwendung.

    Oder anders gesagt: wenn man ein S/PDIF-Signal mit einem DAT-Recorder aufnehmen kann, ists "echtes" urpsrüngliches S/PDIF.

    Als fernsehfrei lebender Mensch, der auch keinen DVD-Player besaß, lerne ich diese Absurditäten und Abgründe jetzt dank euch kennen. Ist wirklich lehrreich, danke dafür!

    Genau so hatte ich es bislang auch verstanden. Jetzt kamen hier im Forum aber eben auch Aussagen, wonach AAC ia S/PDIF durchaus existieren würde. Nur, welche Senke das verarbeiten kann (Hersteller, Modell) weiß ich noch nicht.

    Diese Kabelio-Plattform, die für Schweizer Sat-Haushalte ein umfangreiches TV-Angebot via Hotbird aufbauen will, hatte erst AAC genommen und war nach massiven Rückmeldungen wegen Problemen auf E-AC3 gewechselt. Vielleicht ist AAC bei einer bestimmten Bitrate einen Tacken besser, aber offenbar ists inkompatibler.

    Das ahnte ich, aber sorry, wer akzeptiert sowas heute als "Surround"? Das war ja schon in analogen Satreceivern von Amstrad implementiert...

    Da müssten im Audio überhaupt erstmal "versteckte Zusatzinformationen reincodiert worden sein. Davon gehe ich angesichts echter Mehrkanalverabreitung bei entsprechenden Standards heute nicht mehr aus.

    Ah, ok, alte Abtastungen. Geht das dann über AC3 2.0 besser? Oder sollte das besser schon beim Senden professionell in 5.0 umgewandelt werden und regulär über AC3 als echtes Mehrkanalformat gesendet werden?

    Diskutiere das bitte mit studierten Tonmeistern bzw. deren Dozenten. Leider ist der, mit dem ich in Berlin gerne mal auf ein Stück Kuchen in der "Loretta am Wannsee" saß, im Sommer 2014 verstorben. Seine Schüler sind aber noch da - in der ARD unter anderem. Und dort wird meines Wissens nach zumindest teils separat abgemischt bei Klassikaufnahmen.

    Ah ja. Wie bei DLF Kultur, wo bei den Nachrichten hinten was rausbrabbelt, weil sie 2.0 irgendwie obskur aufblasen?

    So, ich bin zum Mittagessen gerufen worden. Gut, dass ich auch hier durch bin. Perfektes Timing!
     
    EinNutzer gefällt das.
  6. Gorcon

    Gorcon Moderator Premium

    Registriert seit:
    15. Januar 2001
    Beiträge:
    149.166
    Zustimmungen:
    27.200
    Punkte für Erfolge:
    273
    Technisches Equipment:
    VU+ Uno 4K SE mit Neutrino HD + VTi
    Höre es Dir einfach selbst an dann würdest Du so was niemals behaupten!

    Warum wohl ist die DD Tonspur "scheinbar" deutlich leiser wie die MP2 Tonspur?! Aber bei lauten Tönen dann wieder gleich laut?
    Mehr sag ich jetzt nicht dazu.
     
  7. Radiowaves

    Radiowaves Gold Member

    Registriert seit:
    23. Oktober 2013
    Beiträge:
    1.548
    Zustimmungen:
    1.144
    Punkte für Erfolge:
    163
    Noch einmal: das hat nichts mit dem Codec zu tun! Wenn da was anders ist im Vergleich, dann passiert das VOR dem Encoder und offenbar absichtlich.
     
  8. Gorcon

    Gorcon Moderator Premium

    Registriert seit:
    15. Januar 2001
    Beiträge:
    149.166
    Zustimmungen:
    27.200
    Punkte für Erfolge:
    273
    Technisches Equipment:
    VU+ Uno 4K SE mit Neutrino HD + VTi
    Doch hat es!
    Wozu? Es kommt aus dergleichen Quelle.
    Mache selbstz einen Test nimm eine CD von Pink Floyd oder etwas anderes mit hoher Dynamik und wandel das in AC-3 um das gleiche nochmal in MP2 (oder MP3) bei fester Bitrate. Dann hörst Du den Unterschied genauso wie bei allen TV Sendern die diese beiden Tonspuren anbieten.
    Da wird nichts vorher bearbeitet das macht der Codec selbst in abhänngigkeit von der Bitrate.
     
  9. TV_WW

    TV_WW Lexikon

    Registriert seit:
    10. Juli 2004
    Beiträge:
    20.231
    Zustimmungen:
    4.138
    Punkte für Erfolge:
    213
    @Radiowaves
    Audiocodecs mit statischen Audiosignalen zu testen ist sinnlos. Ich habe selber schon einige Tests mit verschiedenen Audiocodecs durchgeführt.
    Und es ist so aufwendig Schwächen in aktuellen Audiocodecs zu finden, das ist nunmal so.
    Ein Test von Signaldynamik ist ohnehin nur mit dynamischen Signalen möglich.
    Ein breitbandiges Spektrum ist notwendig um die einwandfreie Implentierung des psycho-akustischen Modells zu verifizieren und die Verteilung der Bits auf einzelne Frequenzbereiche des Tonspektrums zu ermitteln.

    Richtig, die Audiosignale müssen bereits vor den Audioencodern eine unterschiedliche Lautheit haben.
    Oder sollte DRC bei den Dolby AC-3 Decodern doch eine Rolle spielen. DRC ist ja Pflicht bei Dolby AC-3 Decoder, bei MP2 Audiodekodern hingegen nicht.
     
    Zuletzt bearbeitet: 20. Januar 2021
  10. Gorcon

    Gorcon Moderator Premium

    Registriert seit:
    15. Januar 2001
    Beiträge:
    149.166
    Zustimmungen:
    27.200
    Punkte für Erfolge:
    273
    Technisches Equipment:
    VU+ Uno 4K SE mit Neutrino HD + VTi
    Logisch ist das Bitstream. So habe ich den Receiver ja eingestellt sonst wäre es unmöglich auch DD 5.1 richtig zu nutzen.