Soundprocessing – Der Klang der Sender

Status
Für weitere Antworten geschlossen.
Jetzt habe ich mich mal entschlossen, die Debatte mit echtem Material anzureichern, wie es heutzutage den Hörern angeboten wird.

Anbei ein Link zu einem Dropbox Ordner, weil ich nicht weiß, wie ich hier Anhänge direkt hinbekomme.

https://www.dropbox.com/sh/m573uvdf0wb8mga/AABrkE074htsHhMW1V1d6N2Na?dl=0

Darin findet Ihr 3 verschiedene MP3s zum Thema: "Ab wann wirkt Sendeprozessing ggf. kontraproduktiv?" und ein Bild.

Version 1: direkter Studioausgang, ohne Sendeprocessing
Version 2: Rückempfang über DVB-S (sauber gepegelt, also mit direktem Bezug zum Original)
Version 3: ich habe die Originaltöne für sich nach Loudness auf 0LU gepegelt und im Anschluss um 5dB angehoben, so wie man theoretisch nach R128 für UKW produzieren könnte
Das Bild ist ein Screen Snapshot, der alle drei Waveformen untereinander zeigt, vielleicht erst nach dem Anhören anschauen.

Interessant ist zu hören, was das Prozessing jeweils anstellt, vor allem auch in Richtung Sprachverständlichkeit. Dazu die Abhörlautstärke ruhig sehr gering wählen und am Musiktitel (das man ihn gerade so hört) orientieren, alternativ könnte man sich auch ein konstantes Fahrgeräusch wie im Auto hinzugenerieren. Die Musik bildet sozusagen unsere Loudnessreferenz, für das entspannte Radiohören in angemessener Lautstärke.
Besonderes Augenmerk bitte auf den Anfang der Verkehrsansage legen. Am Ende gibt es dann noch einen Trailer, der in sich eigentlich gut produziert ist. Auch hier ruhig mal bewusst leise abhören und auf die unterschiedliche Sprachverständlichkeit der Stimmen, durch das nachträgliche "Sound machen" und Verdichten achten.

Ich möchte jetzt bewusst noch gar nicht zu viel dazu sagen, nur mal folgende konkrete Fragen stellen.

  1. Welche Version klingt am besten?
  2. Welche Version klingt harmonisch, in sich stimmig, gehörrichtig?
  3. Welche Version lässt sich ohne Änderung der Abhörlautstärke am besten dirchhören?
  4. Was geschieht durch das Sendeprozessing?
Ich hoffe dieses Beispiel aus der Realität mit der Möglichkeit zu wirklichem A-B Vergleich durch mehrmaliges und kontinuierliches Vergleichen (das hat man ja sonst in der Regel gar nicht, sondern interpretiert oder wundert sich nur) liefert aufschlussreiche Erkenntnisse und bin gespannt auf interessante Rückmeldungen.

Beste Grüße, Björn
 
Zuletzt bearbeitet:
Kurzer Zwischenruf zu Bayern2:

Seit einiger Zeit fällt mir auf, dass (nicht nur) Stimmen in Bayern2 spontan fürchterlich pfeifen. Hört sich an, als ob dort eine schmalbandige deftige Mittenanhebung wirkt. Oder treffen die Stimmen zeitweise eine Resonanzstelle im Filter und bringen es zum oszillieren? o_O
 
@marillenfreund

Die Unterschiede sind heftig - und vor allem bei mickriger Abhöre zu erkennen. Ich habe das "Baustellenradio" mit meinem Laptop simuliert, das klingt übel genug. Das gesendete Signal bricht völlig weg kurz nach Beginn des Verkehrsservice. Wirkt zuerst, als ginge die AGC auf den Peak Level und somit hat die dynamischere Sprache keine Chance. Nach Ende des Titels erholt sich das ganze aber wieder, so daß es wohl doch auf zu hohe Lautheit der Summe aus Titel und Moderation zurückzuführen ist und nicht auf Peaks.

Der Mann geht auch in dem Trailer am Ende auch weitgehend unter.

Damit haben wir die obskure Situation, daß eine Bearbeitung, die gerne mit höherer Sprachverständlichkeit und homogener Lautheit beworben wird, völlig in die Hose geht. Mir ist das Signal vom Studioausgang deutlich lieber, das zeigt auch, daß das Mikrofon anständig sauber ist. Im bearbeiteten Signal ploppt es so dermaßen billig. Die R128-Version ist für mich in diesem Beispiel nur noch "unwichtig" besser als die unbearbeitete Version, sie dürfte eher für UKW von Wichtigkeit sein als für mich mit meinem Hörempfinden.

Interessant ist, daß das Wegdimmen seitens des Processings zu Beginn des Verkehrsservice zu unsymmetrischer Wellenform führt. Sowas hätte ich nie erwartet, sowas kenne ich nur von unbearbeitetem Signal als natürliche Unsymmetrie vor allem bei Männerstimmen. Nach Bearbeitung sieht das dann teils einseitig geclippt aus. Hier entsteht es aber erst beim Bearbeiten. Seltsam.

Seit einiger Zeit fällt mir auf, dass (nicht nur) Stimmen in Bayern2 spontan fürchterlich pfeifen.

Kann ich grad nichts dazu sagen, habe wieder wochenlang faktisch kein Radio gehört.
 
Tatsächlich neigt man bei Nr 2 (mit Soundprocessing) während der Verkehrsmeldungen dazu, lauter zu drehen, damit man was versteht. Tendenziell gefällt mir das Lautstärkeverhältnis zwischen Sprache und Musik sogar bei Nr 1 (Studioausgang) noch besser als bei Nr 3 (R128), wenn ich mir die Ausschnitte sehr leise anhöre. Nr. 3 wirkt zwar "harmonischer", aber Verkehrsmeldungen dürfen wegen der Dringlichkeit vielleicht auch etwas "lauter" sein, deshalb ist Nr. 1 mein Favorit.
Wäre noch interessant, wie jedes der Beispiele im Auto rüber kommt, wenn dann Fahrgeräusche etc. dazu kommen. Das wäre ja der klassische Anwendungsfall für Verkehrsmeldungen. Mal sehen, ob ich dazu komme.
 
Zuletzt bearbeitet:
  1. Welche Version klingt am besten?
  2. Welche Version klingt harmonisch, in sich stimmig, gehörrichtig?
  3. Welche Version lässt sich ohne Änderung der Abhörlautstärke am besten dirchhören?
  4. Was geschieht durch das Sendeprozessing?

Danke für Deine Mühe!

Ich habe mir die drei Dateien auf meinem MacBook 13" mid 2012 unter Mavericks mit Quicktime über die Apple EarPods angehört.

Zur Technik hinter der Produktion kann ich nichts sagen, weil ich davon aktuell nichts verstehe. Ich hatte früher mal viel mit Hifi bis HighEnd zu tun und hörte selbst mit einem Stax Lambda Pro.

Mein akustischer Eindruck ist leider bei allen Mustern gleich katastrophal. Das hat weder etwas mit Musik noch mit Sprache zu tun. Mir fehlt bei allen Dateien ein sauberer und ausreichender Frequenzgang, mir fehlen die Höhen, es ist alles viel zu baßlastig, und mir fehlt z.B. das Gefühl, dem Sprecher direkt gegenüber zu stehen. Für mich ist jede Technik, die das nicht leistet, unbefriedigend. Und ja: Ich weiß, daß ich hier eine ziemliche Mühle habe, aber auch daß mp3 auch auf meiner Hardware noch etwas besser klingen kann...

Eigentlich müßte es für alle Programme zwei Kanäle geben: Einen für Leute, die mit Störgeräuschen daneben hören (Küchenradio, Auto, Streaming mobil) und einen für jene, die ungestört zuhören möchten. Das wäre ja heute auch gar kein Problem mehr. Es ist sehr schade, daß der Hörfunk uns das wirkliche Klangerlebnis vorenthält.
 
Zuletzt bearbeitet:
Ich habe mir die drei Dateien auf meinem MacBook 13" mid 2012 unter Mavericks mit Quicktime über die Apple EarPods angehört.

Danke für die Rückmeldung, allerdings legt Deine Beurteilung ggf eine zusätzliche Klangbearbeitung (EQ, Dynamikbearbeitung oder abenteuerliche Klangmodi) in Deiner Wiedergabekette nahe, denn kompletten Frequenzgang haben zumindest Version 1 und 3, natürlich handelt es sich um MP3 der Datenmenge wegen. Check das doch mal.

Beste Grüße, Björn
 
… allerdings legt Deine Beurteilung ggf eine zusätzliche Klangbearbeitung (EQ, Dynamikbearbeitung oder abenteuerliche Klangmodi) in Deiner Wiedergabekette nahe, denn kompletten Frequenzgang haben zumindest Version 1 und 3 …

Wie gesagt: Ich weiß schon, was für ein Equipment ich hier habe. :( Es dürfte zwar immer noch besser sein als das durchschnittliche Küchenradio, aber es fehlt natürlich auch hardwareseitig an Schnelligkeit beim Lautsprecher und bei allen Teilen der Kette an Klangtreue. Ein Equalizer etc. ist aber nicht im Spiel, ich spiele die Dateien einfach im Quicktime Player. So klingt dieses System. Die EarPods von 2014 sorgen von selbst für stärkere Bässe. :( Im Vergleich dazu war das alte Headset von 2007 noch sehr viel neutraler und mittenlastiger, ich habe es eben im Vergleich gehört. Version 1 klingt damit deutlich am besten, wenn die Stimme für den Verkehrsservice anhebt, da ist die Kompression einen Tick geringer? Es ist aber alles kein Vergleich zu einer guten Audio-CD, selbst wenn ich sie nach mp3 wandle …
 
Zuletzt bearbeitet:
Es ist aber alles kein Vergleich zu einer guten Audio-CD, selbst wenn ich sie nach mp3 wandle …

Ich hoffe Du lässt Dich nicht vom allseits beliebten und gefürchteten Teufel Loudness betrügen und hast die CD erstmal leiser gemacht. Je nach Herstellungsdatum und Genre können das gerne mal bis zu 10 dB, bezogen auf meine Beispiele sein.
Die Pegel und Loudnessverhältnisse meiner Beispiele sind die tatsächlichen und realistischen. Insofern auch mal das Bild betrachten und die vorkommenden Peaks bezogen auf fullscale. Beispiel 2 zeigt die tatsächlich auf UKW mögliche Loudness, diese entspricht dem was mit Beispiel 3 erreichbar wäre, hier müssten nur ganz wenige Peaks simpel limitiert werden.
Solltest Du die CD nicht leiser gemacht haben, dann entspricht dies dem selben Pegelunterschied, den Du an einer Stereoanlage oder auch im Autoradio hörst, wenn Du zwischen Radio und CD wechselst. Das hat nichts mit Sound/Klang, sondern lediglich mit reinen Pegelunterschieden zu tun!

Beste Grüße, Björn
 
Zuletzt bearbeitet:
Mir fehlt bei allen Dateien ein sauberer und ausreichender Frequenzgang, mir fehlen die Höhen

Gerade mal an identischen, ca. 2 Sekunden langen Ausschnitten den Mittelwert über die spektrale Pegelverteilung bestimmt:

Studioausgang Sprache.png
Summenprocessing Sprache.png


Studioausgang Musik.png
Summenprocessing Musik.png

Im für UKW bearbeiteten Signal ist freilich ab 16 kHz Schluß. Alles weitere wäre nur unsinnige Belastung und fiele im Tiefpaß des Sterecoders weg, die insgesamt erzielbare Lautheit auf UKW würde entsprechend geschmälert durch diesen Energiegehalt, der nicht auf Sendung gehen kann.

Auf dem Mikrofonkanal des Sprechers haben wir auf den ersten Blick leidlich vollen Frequenzgang. Aber in "Nahaufnahme" wirkt das seltsam: eigentlich ist das auch auf ca. 16 kHz begrenzt, geht nur bei S-Lauten kurzzeitig darüber, dann aber bis 20 kHz. Hier mal der Sprecher als Sonogramm:

Studioausgang Sprecher Sonogramm.jpg
Welcherart weitere Bearbeitung des Mikrofonweges da stattfindet, wissen wir freilich nicht. Schaut man sich das Studio von hr1 an, findet man ein Aquarium mit vermutlich entsprechend "suboptimaler" Raumakustik. Wer weiß, was da noch getrickst wird, um es wenigstens noch so klingen zu lassen, wie es klingt. Es wird aber noch schräger: die Musik ist im Studiosignal auch schon so seltsam bei 16 kHz begrenzt, nur Transienten haben höhere Frequenzen, teils auch "separiert" durch eine Art Kerbfilter:

Studioausgang Musik Sonogramm.jpg

Diese "Abtrennung", teils wie mehrfache Kerbfilter, habe ich so bislang bewußt noch nirgendwo gesehen. Bei der Musik hätte ich es ja auf das bereit im Sendesystem erfolgte Konvertieren in MP2 (384 kbps) schieben können, nicht aber beim (Live)sprecher.

Aber egal wie: bis 16kHz ist immer "voll da". Reicht das nicht? Hörst Du wirklich noch weiter als bis 16 kHz? Ich bin 42 und bei mir ist irgendwo bei 14 kHz Schluß. Klar, es gibt Ausnahmen. Die ehemalige Raumakustikerin des DDR-Rundfunks ist 90 und nimmt noch deutlich wahr, wenn der Höhensteller der Stereoanlage (Eckfrequenz 10 kHz) betätigt wird. Aber oft ist aller Glaube an "ich höre das noch" Illusion, wenn man über 40 ist. Wie alt bist Du? Hast Du mal geprüft, wie weit Du noch "hochkommst" mit den Ohren?

es ist alles viel zu baßlastig

Ist es auch. Sowohl die Musik als auch der Sprecher sind "untenrum" aufgedickt. Beim Sprecher liegt es wohl am Sprechabstand - weiter weg geht nicht, dann merkt man offenbar, daß hr1 ein Aqaurium und keinen anständigen Sprecherraum hat.

mir fehlt z.B. das Gefühl, dem Sprecher direkt gegenüber zu stehen

Was meinst Du damit? Bei mir wirken diese nahbesprochenen Mikrofone immer so, als säße mir der Sprecher direkt am Ohr, was ich als sehr aufdringlich empfinde. In ordentlichem Sprecherraum bei 30 cm Abstand kommt dann etwas raus, das deutlich distanzierter (und "schlanker") ist, aber auch mehr vom Raum einfängt. Das verstehe ich eigentlich nicht unter "mir direkt gegenüber".

Eigentlich müßte es für alle Programme zwei Kanäle geben: Einen für Leute, die mit Störgeräuschen daneben hören (Küchenradio, Auto, Streaming mobil) und einen für jene, die ungestört zuhören möchten.

Bei Kulturprogrammen könnte dieser Aufwand tatsächlich nützlich sein, denn da muß man für Mobilnutzung schon etwas komprimieren, wenn man auch Pianissimo-Stellen und leise Szenen in Hörspielen mitbekommen will. Für vollen Kunstgenuß wäre dann das unbearbeitete Signal zu liefern. Das wird teils ja sogar (unbewußt) gemacht: bei der AC3-Spur auf DVB. Die ist bei BR Klassik und MDR Kultur dynamischer als die MP2-Spur. Bei hr2 müßte ich jetzt erst nachschauen. Der klangliche Unterchied bei BR Klassik ist aber geringer als vielleicht erwartet und nur im Direktvergleich zu hören.

Bei Unterhaltungswellen hat man es bei heutiger Musik i.d.R. bereits mit einem dermaßen verdichteten Signal (auch auf den kauf-CDs!!!) zu tun, daß das auch für Mobilanwendungen völlig ausreicht, in vielen Fällen bereits dafür viel zu dicht ist. Um ein dazu passendes, ausgewogenes Peak-Lautheits-Verhältnis des Sprechers hinzubekommen, muß man den Mikrofonweg deutlich anfetten und die Peaks wegnehmen, sonst kommt man in der Summe eines solchen Programms nicht auf homogene Lautheit. Dann kommt sowas raus wie hier in Beispiel 1 und 3. Die ganze abartige Verbiegerei, wie wir sie in Beispiel 2 hören, ist dazu nicht nötig. Ein separates Signal für Wohnzimmer-Hörer" braucht man aber auch nicht - besser als das, was heutige U-Musik im Original liefern kann, wird es ja eh nicht.

Es ist aber alles kein Vergleich zu einer guten Audio-CD, selbst wenn ich sie nach mp3 wandle …

Nur am Rande: vorsicht dabei! MP3 macht ja Artefakte, also Abweichungen zum Original. Diese Artefakte äußern sich bei der Wiedergabe auf Sample-Ebene als Verschiebungen entlang der Amplitudenachse, und zwar recht "statistisch". Mal ist ein Sample höher, als es im Original wäre, mal ist es niedriger. Durch den statistischen Charakter der Artefakte bleibt der Energiegehalt (das Integral über dem Quadrat des Amplitudenverlaufs) identisch (Analogie aus der Mathematik: das Ändern abzählbar unendlich vieler Punkte einer Riemann-integrierbaren Funktion ändert nicht den Wert des Integrals über einen bestimmten Bereich).

Aber die Spitzenpegel ändern sich durch die Artefakte! Man bekommt damit bei hoher Aussteuerung im Quell-File (von der CD) und niedriger Konvertierungstreue (MP3 geringer Bitrate) deutliche Übersteuerungen, also Wertebereichsüberschreitungen.

Grob mal überschlagen: nimmt man einen aktuellen Pop-Titel, grabbt ihn, macht ein MP3 draus (z.B. 192 kbps, aber ohne jede Pegeländerung, die LAME und iTunes teils ungefragt ausführen!), konvertiert das MP3 zurück in Wave, synchronisiert dieses Wave im Mehrspureditor samplegenau (!) mit dem Original, ivnertiert es und mischt beide zusammen (also Subtraktion), bekommt man die reinen Artefakte. Spielt man die ab, kommt man auf einen Spitzenpegel von vielleicht -15 dBFS, wenn das Original in den Spitzen bis 0 dBFS geht, also voll ausgesteuert ist. -15 dB sind 10^(-15/20) = 0,178, also rund 18%. Die maximal möglichen Werte der Einzelsamples im MP3 gehen also bis ca. 118% der Originalwerte. Das entspräche einer Pegelerhöhung von 20 * log 1,18 = 1,43 dB.

So ein MP3 hat also bis knapp 1,5 dB mehr Spitzenpegel als das Original! Wenn das Original nicht mindestens 1,5 dB Headroom auf der CD gelassen hat, wird das daraus erstellte MP3 in den Peaks übersteuern. Das ganze passiert kaum je bei dynamikreichem Jazz oder Klassik, und wenn, dann an nur einer handvoll Stellen mit Einzel-Samples - man hört es nicht. Bei schon im Mastering plattgepresster U-Musik, die hart z.B. an -0,1 dB geclippt wirde, passiert das durchgängig. Man findet dann im Spektrum des abgespielten MP3s eine höhere obere Grenzfrequenz als im original und versteht das so lange nicht, bis einem dieser Zusammenhang bewußt wird. Das sind Verzerrungen!

Ich erstelle 192er MP3s aus Pop-CDs heute i.d.R. mit "--scale 0.85" in der LAME-Kommandozeile, dimme also das Original vor dem Encoding auf 85% entsprechend -1,41 dB. Meist reicht das.

Im Rundfunk hat man bei MP2-Sendeleitungen das gleiche Problem. Bei 384 kbps MP2 ists kein großes Drama, bei 192 kbps sind es nach dem Brikett-Processing dann aber mehrere dB, die die Peaks auf der Sendeleitung wieder hochgehen. Das macht dann u.U. zuviel Spitzenhub auf dem UKW-Sender, weswegen man wieder vorsichtiger aussteuern muß - oder das Processing an die Senderstandorte stellt bzw. aus Kostengründen dort nur noch Peak Limiter für diese "Overshoots" der datenreduzierten Zuführung installiert und das teure Hauptprocessing im Funkhaus belässt. Von Antenne Bayern erzählt man sich so etwas: Peak Limiter von IDT an den Senderstandorten. Kenne es aber auch nur vom Hörensagen.
 
So ein MP3 hat also bis knapp 1,5 dB mehr Spitzenpegel als das Original! Wenn das Original nicht mindestens 1,5 dB Headroom auf der CD gelassen hat, wird das daraus erstellte MP3 in den Peaks übersteuern

Und genau diese Problematik berücksichtigend verlangt die R128 Truepeakspitzen bis maximal -1 dBfs. In der Truepeakmessung werden Pegelspitzen erfasst, die zwischen zwei Samples mit identischem Wert liegen. Ein bislang übliches Samplepeakmeter würde einfach denselben Maximalwert erfassen, also ggf 0dBfs, während die tatsächliche Spitze ja über 0 liegen muss.
Allerdings bekommt man die Verzerrungen, die ggf. schon in der Aufnahme enthalten sind, weil schon reichlich geclippt (auch aus technischem Unverstand), nicht dadurch weg, dass man den Pegel im Nachhinein reduziert.
In diesem Zusammenhang finde ich es auch immer wieder fragwürdig, wenn heute gern mal von geclippten Signalen gesprochen wird, wenn eigentlich digitales Peaklimiting gemeint ist. In den Anfängen der Digitaltechnik war ganz klar, dass Clipping, also das Übersteuern von fullscale auf digitaler Ebene vermieden werden muss, weil es zu unharmonischen Verzerrungen im Audiospektrum führt. Dieser Grundsatz wird heute aber gern missachtet, und Audio bewusst an digitalen Festkommaschnittstellen geclippt, was in diesem Fall auch eine Art Limiting darstellt und das Samplepeakmeter ja nur die "erlaubten" 0 dBfs zeigen kann. Also: "Ist doch alles super, und die Verzerrungen wirken auf Kopfhörern, die gar keine wirklichen Höhen darstellen können, und Smartphone"lautsprechern" plötzlich irgendwie nach Höhen." Dagegen wirken Aufnahmen ohne diese Pseudohöhen, also Verzerrungen, über denselben Wiedergabeweg natürlich dumpf. Insofern ist diese Feststellung

Die EarPods von 2014 sorgen von selbst für stärkere Bässe. :( Im Vergleich dazu war das alte Headset von 2007 noch sehr viel neutraler und mittenlastiger, ich habe es eben im Vergleich gehört.

ja vielleicht gar keine Schwäche, sondern sogar eine Art Feature, um das Gehör vor zu starker Gefährdung durch verzerrte Signale zu schützen ;)
Soweit wären wir dann also im Loudnesswar vorangeschritten, dass bewusst schlecht und matt klingende Kopfhörer in der Kombination mit verzerrten Signalen plötzlich den Qualitätsstandard definieren, und alle machen mit, nach dem Motto: Diese In Ear Hörer von Apple müssen doch gut sein...:wall:, auch wenn sie am I Phone Preis gemessen als Pfennigartikel durchgehen

Beste Grüße, Björn
 
Soweit wären wir dann also im Loudnesswar vorangeschritten, dass bewusst schlecht und matt klingende Kopfhörer in der Kombination mit verzerrten Signalen plötzlich den Qualitätsstandard definieren, und alle machen mit, nach dem Motto: Diese In Ear Hörer von Apple müssen doch gut sein...:wall:, auch wenn sie am I Phone Preis gemessen als Pfennigartikel durchgehen
Siehe auch: Argumentationsversuche hier im Thread.
 
Siehe auch: Argumentationsversuche hier im Thread.

naja, solange man sich nicht gleichzeitig darüber wundert, warum es erhebliche Unterschiede in der Sprachverständlichkeit heutiger Aufnahmen aus den unterschiedlichsten Aufnahmeszenarien gibt, wäre ja alles gut. Aber dann wird ja meist gleich nach Veränderung des sogenannten Soundprocessings gerufen, denn damit kann man ja angeblich alles retten...
 
Und genau diese Problematik berücksichtigend verlangt die R128 Truepeakspitzen bis maximal -1 dBfs. In der Truepeakmessung werden Pegelspitzen erfasst, die zwischen zwei Samples mit identischem Wert liegen. Ein bislang übliches Samplepeakmeter würde einfach denselben Maximalwert erfassen, also ggf 0dBfs, während die tatsächliche Spitze ja über 0 liegen muss.

... bis zu 3 dBFS drüber kann sie wohl liegen. Hier die "Bauanleitung für ein solches Signal und die Folgen davon in einem alten (vor-R128-Zeiten)-Aufsatz, der sich in Eberhard Sengpiels umfangreichem Erbe befindet:

http://www.sengpielaudio.com/HeadroomUndAussteuerung.htm

Allerdings bekommt man die Verzerrungen, die ggf. schon in der Aufnahme enthalten sind, weil schon reichlich geclippt (auch aus technischem Unverstand), nicht dadurch weg, dass man den Pegel im Nachhinein reduziert.

Das natürlich nicht, aber man kann offenbar MP3s, die aus "ungedimmten" WAVE-Vorlagen erstellt wurden und nun Dauerclipping machen, nachträglich "retten". Die Multiband-Bearbeitung der Datenreduktion scheint in den einzelnen Spektralbereichen innerhalb der MP3-Datenstruktur genug Headroom zu haben, um mit so etwas klarzukommen. Erst bei der Bandsummierung im MP3-Decoder kommt es in der Summe zur Übersteuerung. Dem kann man abhelfen, indem man den Skalenfaktor in den MP3-Frames um 1 Bit senkt. Das nimmt den Ausgangspegel um 1,5 dB zurück - genau diese Eigenschaft macht sich MP3gain zunutze, wenn man, statt den Pegel in die Dateien zu taggen, ihn "hart" einrechnet.

Ein kleinwenig "verrundet" aber MP3 auch Rechtecksignale, die durch krankes Mastering entstanden sind. Schon allein durch die generelle Tiefpaß-Funktionalität von MP3. Ob das genügt, einen etwas weniger ätzenden Klangeindruck zu bekommen, vermag ich nicht zu beurteilen.


Oh je... das sollte eigentlich schon zu Zeiten "handwerklich" gefahrener Radioprogramme nicht vorgekommen sein, weil dann "dichteres" Material niedriger gepegelt worden wäre. Wissen die Schweizer so etwas nicht?

Dabei haben sie doch 2012 an den R128-Lautheitsmessungen teilgenommen, die seitens ARD und IRT durchgeführt wurden.
 
Tendenziell gefällt mir das Lautstärkeverhältnis zwischen Sprache und Musik sogar bei Nr 1 (Studioausgang) noch besser als bei Nr 3 (R128), wenn ich mir die Ausschnitte sehr leise anhöre. Nr. 3 wirkt zwar "harmonischer", aber Verkehrsmeldungen dürfen wegen der Dringlichkeit vielleicht auch etwas "lauter" sein, deshalb ist Nr. 1 mein Favorit.

Das Ganze nennt sich Dynamik und ist ja so wahnsinnig verpöhnt, weil ja immer alles gleich laut sein muss. Damit etwas lauter sein kann (Verkehrsservice) muss etwas anderes leiser sein dürfen. In diesem Zusammenhang ist natürlich die Frage, welche Loudnessrange für den Hörer zumutbar ist, vor allem jedoch, wofür man Dynamik benutzt. Im Falle des Zwischenrufes Verkehrsservice ist sie sinnvoll, vor allem für den Hörer, während laute (bezogen auf die sonstigen Sprachanteile) Station IDs, oder Werbestimmen schnell mal nerven. Ein sinnvoller Kompromiss ist also gefragt.
Die Version 1 ließe sich so technisch auch nicht auf UKW senden lassen, weil deutlich zu hohe Pegelspitzen in der Sprache auftauchen, auch hier wird leider nicht mehr recht verstanden, wofür es den empfohlenen Headroom gibt. Jedenfalls nicht dafür, ihn permanent zu nutzen.
Auf eine Rückmeldung bezüglich der Durchhörbarkeit während der Autofahrt wäre ich gespannt. Dabei daran denken, dass man sich normalerweise mit der eingestellten Lautstärke an den Moderationen/Stimmen orientieren würde, weil darin ja häufig Information enthalten ist.
Dafür müssten aber alle Anteile auch nach ihrer gehörten Loudness wiedergegeben werden, und solche Argumente wie hier:


endlich mal ausgeräumt werden. Offensichtlich hält man leider nicht nur im Schweizer Radio die Loudnessunterschiede irgendwie für gottgegeben, anstatt sich mal mit den TV Kollegen auszutauschen und anzuerkennen, dass man Loudness mittlerweile ganz gut messen, und gezielt danach aussteuern kann.
Allerdings werden solche Anfragen ja häufig gar nicht von Fachleuten beantwortet, sondern entstammen scheinbar einer Art Standardantwortenkatalog für den Hörerservice. Die gegebene Antwort, dass Musik lauter wirkt, weil sie weniger dynamisch als Stimmen produziert wird, ist ja sogar richtig. Übrigens ebenso wie die Feststellung, dass der Pabst katholisch ist. Damit ist die Frage die gestellt wurde natürlich richtig beantwortet.
Dass man sie daher mit weniger Spitzenpegel (dafür bitte ruhig mal das Pegelbild der verschiedenen Versionen auf dem Screenshot betrachten) als die Sprache aussteuern müsste, um denselben Loudnesslevel zu erreichen, steht wahrscheinlich nicht im Antwortenkatalog und würde ja auch eingestehen, dass man nicht nur die Ursache kennt, sondern mittlerweile auch einen möglichen Lösungsansatz ;)

Ach ja, wieder mal eine wirklich erst gemeinte Frage, an Diejenigen, die sich mit den Auswirkungen und Einstellmöglichkeiten heutiger Sendeprozessings auskennen.
Wie ist der deutliche Pegeleinbruch beim Beginn der Verkehrsansage zu erklären, und warum soll das so sein?
Ich kann mir das nämlich nur annähernd vorstellen, und anhand dessen, was ich höre feststellen, dass es irgendwie nicht gut ist.

Beste Grüße, Björn
 
Zuletzt bearbeitet:
In diesem Zusammenhang ist natürlich die Frage, welche Loudnessrange für den Hörer zumutbar ist, vor allem jedoch, wofür man Dynamik benutzt. Im Falle des Zwischenrufes Verkehrsservice ist sie sinnvoll, vor allem für den Hörer, während laute (bezogen auf die sonstigen Sprachanteile) Station IDs, oder Werbestimmen schnell mal nerven. Ein sinnvoller Kompromiss ist also gefragt.
Wobei das Anheben der Lautstärke einer Verkehrsdurchsage wiederum auch auf Empfängerseite mit aktiviertem TA geschehen kann. Dann passiert es auch nur dann, wenn ich es als Hörer so haben will.

Leider geht es aber nach wie vor immer nur darum, der Lauteste zu sein, also bin ich gespannt, ob da jemand freiwillig den ersten Schritt wagt und "echt" nach R128 aussteuert. Denn spätestens wenn Musik läuft, wird man dann wohl leiser sein als eine Konkurrenz, die noch klassiches Optimod-Soundprocessing betreibt und den Pegel halt dann auf Anschlag fahren kann.

Wobei ja (ich glaube) Radiowaves schon heraus gefunden hat, dass tatsächlich das dynamischere Bayern 2 im Schnitt sogar lauter sein kann als das briketthafte Bayern 3, weil es bei UKW neben der Hub-Begrenzung natürlich auch Limits bei der MPX-Leistung gibt, die nicht überschritten werden dürfen. weshalb zuviel Brikett irgendwann auch kontraproduktiv wird.

Wäre also echt interessant, wie gut ein luftigeres R128-UKW-Signal mit einem zwangsgedimmten Optimod-Brikett in Punkto Lautheit evtl. doch mithalten kann (bei Einhaltung aller UKW-Parameter).

Beknackt finde ich es jedenfalls, nach R128 zu pegeln (wie das die ARD offenbar ja zunehmend tut), um dann hinterher einen Optimod alles wieder zunichte machen zu lassen. Dann kann ich es auch gleich bleiben lassen.

Auf eine Rückmeldung bezüglich der Durchhörbarkeit während der Autofahrt wäre ich gespannt. Dabei daran denken, dass man sich normalerweise mit der eingestellten Lautstärke an den Moderationen/Stimmen orientieren würde, weil darin ja häufig Information enthalten ist.
Ich habe es mal kurz ausprobiert (nur Landstraße, dafür die Klimaanlage etwas pusten lassen). Letztendlich bestätigt die Fahrt das, was ich schon geschrieben habe: Version 1 erschien mir bei unauffällig im Hintergrund laufender Musikberieselung am besten geeignet, das Gesprochene gerade noch gut zu verstehen, gefolgt von 3, wo das auch noch ging. Bei Nummer 2 musste man wirklich am Lautstärkeregler drehen, wobei das sehr stark von den Nebengeräuschen abhängt. Ich schätze mal, bei einer Autobahnfahrt könnte es noch extremer sein, dann wird man vielleicht sogar bei Nummer 3 noch am Lautstärkeregler drehen müssen.

Umgekehrt ist mir Version 1 über Kopfhörer, wenn ich die Musik am Anfang relativ laut einstelle, fast unangenehm. Da ist die Sprache eigentlich fast zu laut...

Also alles eine Frage der Abhörumgebung. Version 3 scheint mir da den besten Kompromiss darzustellen...
 
(...)und solche Argumente wie hier:
sollten
endlich mal ausgeräumt werden.
Stimmt, das sollte in jede Sounddesign"fabrik", in jedes Tonstudio und allen, die in irgend einer Form mit Klang zu tun haben, an die Stirn geschraubt (nein, nicht genagelt!) werden.

Offensichtlich hält man leider nicht nur im Schweizer Radio die Loudnessunterschiede irgendwie für gottgegeben, anstatt sich mal mit den TV Kollegen auszutauschen und anzuerkennen, dass man Loudness mittlerweile ganz gut messen, und gezielt danach aussteuern kann.
An dieser Stelle täuscht Du. Das wird getan, ist aber beim Radio dennoch unerwünscht. - Ebenso wie beim TV wenn's um Werbung geht ((auch kostenfrei) zu sehen, bzw. zu hören bei SRF Info, z.B. via Zattoo).
Allerdings werden solche Anfragen ja häufig gar nicht von Fachleuten beantwortet, sondern entstammen scheinbar einer Art Standardantwortenkatalog für den Hörerservice.
Genau damit triffst Du den Nagel auf den Kopf. Ein Gespräch mit einem Verantwortlichen beim SRF ergab, dass sich in den vergangenen Jahren bereits mehrere Hörer regelrecht beschwert hätten, dass die "Moderationen" beim SRF (Radio) des Öfteren zu laut gewesen seien, wenn sie die Musik "lauter aufgedreht gehabt hätten" und dann "plötzlich ein Sprecher mitten in's Lied gesprochen habe".
Dementsprechend ist die Argumentation nur nachvollziehbar. - Es ist der Wunsch der Hörer! Und so wird auch argumentiert.
 
Zuletzt bearbeitet:
den vergangenen Jahren bereits mehrere Hörer regelrecht beschwert hätten, dass die "Moderationen" beim SRF (Radio) des Öfteren zu laut gewesen seien, wenn sie die Musik "lauter aufgedreht gehabt hätten" und dann "plötzlich ein Sprecher mitten in's Lied gesprochen habe".
Dementsprechend ist die Argumentation nur nachvollziehbar. - Es ist der Wunsch der Hörer! Und so wird auch argumentiert.

Komisch, in der oben verlinkten Anfrage geht es doch darum, dass die Musik als zu laut empfunden wird...
Wie auch immer, es gibt offensichtlich unterschiedlich laute Klangereignisse. Wäre es dann nicht endlich mal an der Zeit, sie gleich laut, anstatt mit gleichem Peaklevel auszusteuern?
Dass die Sendeprozessoren das offensichtlich nicht schaffen, dafür sind ja die Beschwerden der beste Beweis. Das liegt vor allem auch daran, weil sie vordergründig nach Peakleveln anstatt nach Loudnessleveln arbeiten.
Im Übrigen sind diese Prozessoren auch eigentlich nicht dafür gedacht, Aussteuerungsfehler (auf die Gehörrichtigkeit bezogen) auszugleichen. In den letzten Jahren, spätestens nachdem immer mehr im Selbstfahrerbetrieb gearbeitet wird, werden sie allerdings vermehrt dafür versucht zu nutzen, mit mehr oder weniger gutem Ergebnis. Dafür wird dann die AGC, die dafür gar nicht gedacht ist, möglichst schnell arbeitend eingestellt. Dies führt dann jedoch zu unangenehmen und überflüssigen Beeinflussungen in Musiktiteln, die bewusst mit Dynamik spielen.

Wobei das Anheben der Lautstärke einer Verkehrsdurchsage wiederum auch auf Empfängerseite mit aktiviertem TA geschehen kann. Dann passiert es auch nur dann, wenn ich es als Hörer so haben will.

Wobei ja (ich glaube) Radiowaves schon heraus gefunden hat, dass tatsächlich das dynamischere Bayern 2 im Schnitt sogar lauter sein kann als das briketthafte Bayern 3, weil es bei UKW neben der Hub-Begrenzung natürlich auch Limits bei der MPX-Leistung gibt, die nicht überschritten werden dürfen. weshalb zuviel Brikett irgendwann auch kontraproduktiv wird.

Wäre also echt interessant, wie gut ein luftigeres R128-UKW-Signal mit einem zwangsgedimmten Optimod-Brikett in Punkto Lautheit evtl. doch mithalten kann (bei Einhaltung aller UKW-Parameter).

Umgekehrt ist mir Version 1 über Kopfhörer, wenn ich die Musik am Anfang relativ laut einstelle, fast unangenehm. Da ist die Sprache eigentlich fast zu laut.

Bei mir ist die TA im Autoradio deaktiviert, weil sie nicht um einen Offset sondern auf einen festen Lautstärkewert lauter macht. Wenn ich mal bewusst leise gemacht habe, dann wird es ggf. unerträglich laut, weil sich der eingestellte Wert evtl bei Autobahnfahrt bewährt hat.
Ich werde mal noch anhand von Musiken die teils negativen Beeinflussungen verdeutlichen, etwas Geduld bitte.
Deine letzte Feststellung zeigt ja genau, wie wichtig es ist, sinnvoll mit laut und leise umzugehen. Dass es das Prozessing offensichtlich nicht macht sollte klar geworden sein.

Beste Grüße, Björn
 
Zuletzt bearbeitet:
Version 2: Rückempfang über DVB-S (sauber gepegelt, also mit direktem Bezug zum Original)
Ich habe die beiden Spuren (Version 1 & 2)) gerade offen... Ich zoome bekanntlich sehr tief in die Zeitachse rein. Habt ihr "Phasenrotation" drin? Im direkten Vergleich der Wellenform könnte man diesen Eindruck durchaus gewinnen.

Interessant ist zu hören, was das Prozessing jeweils anstellt, vor allem auch in Richtung Sprachverständlichkeit. Dazu die Abhörlautstärke ruhig sehr gering wählen und am Musiktitel (das man ihn gerade so hört) orientieren, alternativ könnte man sich auch ein konstantes Fahrgeräusch wie im Auto hinzugenerieren. Die Musik bildet sozusagen unsere Loudnessreferenz, für das entspannte Radiohören in angemessener Lautstärke.

Völlig unabhängig von deinem Posting, hatte ich am 11. Mai ein ähnliches Problem mit der Sprachverständlichkeit im Auto. Die Lautstärke war völlig ausreichend, ich habe alles gehört und verstanden - auch den rein inhaltlichen Fehler mit der Kalenderreform 1882... Richtig ist bekanntlich 1582. Dann setzte die Moderatorin ein und die Musik kam etwas später dazu. Die Musik war für meine Begriffe einfach etwas zu laut "eingemischt". Ich hab dann echt nix mehr verstanden und die Aufnahme kurz danach abgebrochen. Beim Nachhören - mit höherer Lautstärke bei der Wiedergabe im Auto - habe ich dann alles verstanden. Mmm. Ich will aber nicht unbedingt "laut(er)" hören.

Ich persönlich sage, daß die Musik einfach nur einen Tick zu laut war - ein kleiner Fahrfehler. Ich weiß ja nicht wie das heute so gemacht wird, aber ich hatte immer den "Rückkanal" (mittels UKW-Tuner im Studio) über die Kopfhörer in den Ohren. Die KH waren so laut eingestellt, daß ich meine Stimme IMMER NUR über die Ohren hören konnte. Damit wußte man sofort, wie es im RADIO (nach dem Soundprocesing) bei den Hörern "klingt". Das geht heute (fast) nicht mehr.
 

Anhänge

  • 20160511_SWR1_Abend_Reben_Musikmix.mp3
    1,2 MB · Aufrufe: 10
Komisch, in der oben verlinkten Anfrage geht es doch darum, dass die Musik als zu laut empfunden wird...
Ganz richtig. Deshalb wird inzwischen "alles auf einen Level" gezerrt (Autofader) und dann nur noch hoch gezogen und bei Bedarf begrenzt. Das Problem dabei: Du kennst Dich mit der Materie selbst aus, das hat keinen Einfluss auf die LautHEIT, sondern lediglich auf die LautSTÄRKE (auch wenn der Auftrag, die LautHEIT mit nach unten zu regeln wohl da ist).

Wie auch immer, es gibt offensichtlich unterschiedlich laute Klangereignisse. Wäre es dann nicht endlich mal an der Zeit, sie gleich laut, anstatt mit gleichem Peaklevel auszusteuern?
Sicher wäre es das, aber wie willst du einem Moderator, der oftmals lediglich nur noch den Autofader bedienen kann, das erklären?

Dass die Sendeprozessoren das offensichtlich nicht schaffen, dafür sind ja die Beschwerden der beste Beweis. Das liegt vor allem auch daran, weil sie vordergründig nach Peakleveln anstatt nach Loudnessleveln arbeiten.
Andere Idee: Ich hab mal ein bisschen auf einem Webradio-Stream "rumgebastelt" und einfach den Peaklevel weiter unten angesetzt. Der Vorteil davon ist, dass automatisch (genau so wie angemängelt) die Moderation im Vergleich zur Musik lauter "klingt" und die Komprimierung u.U. nicht so stark eingestellt werden muss.
Der Haken: Der gewünschte Effekt weiter gehört zu werden (bei UKW nicht im Rauschen unterzugehen) würde damit wohl entfallen, weil das Ausgangssignal (in dem von mir getesteten Szenario) um 7 bis 9 dB leiser war.

Dies führt dann jedoch zu unangenehmen und überflüssigen Beeinflussungen in Musiktiteln, die bewusst mit Dynamik spielen.
Was bei den typischen (s)Hitradios nicht weiter auffallen dürfte. ;)
 
Ich hab dann echt nix mehr verstanden und die Aufnahme kurz danach abgebrochen. Beim Nachhören - mit höherer Lautstärke bei der Wiedergabe im Auto - habe ich dann alles verstanden. Mmm. Ich will aber nicht unbedingt "laut(er)" hören.

Ich persönlich sage, daß die Musik einfach nur einen Tick zu laut war - ein kleiner Fahrfehler. Ich weiß ja nicht wie das heute so gemacht wird, aber ich hatte immer den "Rückkanal" (mittels UKW-Tuner im Studio) über die Kopfhörer in den Ohren. Die KH waren so laut eingestellt, daß ich meine Stimme IMMER NUR über die Ohren hören konnte. Damit wußte man sofort, wie es im RADIO (nach dem Soundprocesing) bei den Hörern "klingt". Das geht heute (fast) nicht mehr.

Dein Beispiel ist echt Geschmachssache, also für mich ist es noch verständlich, aber schon sehr dicht gefahren. Das ist genau so ein Fall, bei dem man auch berücksichtigen muss, dass das schwächer werdende Gehör ab einem gewissen Punkt nicht mehr gut genug auflösen kann. Vor allem dann nicht mehr, wenn es kaum noch Transienten im Audio gibt, dann ist es nach meiner Erfahrung noch schwieriger, einzelne Klänge, die sich überlagern (z.B. Moderation über Applaus und ggf Musik) auseinander zu halten. Diese sehr verdichteten Signale muss man dann lauter abhören, als wenn sie luftiger bleiben dürften, ohne deswegen automatisch leiser und kraftloser zu wirken, ganz im Gegenteil.

Deine Form der Rückkontrolle ist sicher auch wegen der heutigen Laufzeiten problematisch. Aber würdest Du auf die Idee kommen, das Absacken des Pegels in meinem Verkehrsservice Beispiel durch Leisermachen des Summensignals zu verringern, denn das Mischungsverhältnis zwischen Sprache und Musik im Studioausgang ist es ja definitiv nicht? Meiner Auffassung nach sackt das Signal nämlich deshalb ab, weil der Prozessor eine Überschreitung der MPX Leistung befürchtet.

Dazu meine Frage, an Diejenigen, die sich mit derzeitigen Prozessingeinstellungen auskennen. Kann es sein, dass diese derart auf eine möglichst maximale, dauerhafte MPX Leistungsausnutzung abzielen, dass solch ein Effekt auftritt. Also kurzzeitiges Absacken, wegen zu lauter Moderation an deren Beginn, anschließendes Hochregeln, weil die Moderation wieder normal laut wird und offensichtlich nicht ein dauerhaft lauterer Musiktitel das Leisermachen erfordert.

Meine Befürchtung ist leider, dass der Glaube an die Wunder durch "besseres" Prozessing mittlerweile so groß ist, dass gar nicht mehr ernsthaft darüber nachgedacht wird, ab wann zu viel Prozessing ggf kontraproduktiv wird. Und wenn man mein Verkehrsservicebeispiel hört und gleichzeitig immer beraten wird, dass Prozessing dazu dient, lauter zu machen, dann verlangt man natürlich nach mehr, weil es ja leiser geworden ist.

...aber wie willst du einem Moderator, der oftmals lediglich nur noch den Autofader bedienen kann, das erklären?


Andere Idee: Ich hab mal ein bisschen auf einem Webradio-Stream "rumgebastelt" und einfach den Peaklevel weiter unten angesetzt. Der Vorteil davon ist, dass automatisch (genau so wie angemängelt) die Moderation im Vergleich zur Musik lauter "klingt" und die Komprimierung u.U. nicht so stark eingestellt werden muss.
Der Haken: Der gewünschte Effekt weiter gehört zu werden (bei UKW nicht im Rauschen unterzugehen) würde damit wohl entfallen, weil das Ausgangssignal (in dem von mir getesteten Szenario) um 7 bis 9 dB leiser war.

Dem Moderator müsste man gar nichts erklären, wenn alle zur Sendung kommenden Anteile mit derselben Loudness vor dem Regler anliegen, genau dafür ist eine loudnessgerechte/gehörrichtige Normalisierung gedacht. Wenn man dann gezieltes und gutes Voiceprocessing betreibt (und dies nicht dem Sendeprozessing abverlangt), welches vor dem Regler denselben Loudnesslevel, gerne mit sinnvoller Range, erzeugt, dann können alle Regler auf Normstellung bleiben.
Der Unterschied wäre sicher, Diejenigen die am Pult stehen für das Endergebnis zu interessieren und verantwortlich zu machen, anstatt immer auf Optimod und co zu verweisen.

Um 7-9 dB leiser muss das Ergebnis gar nicht sein, ich kenne UKW Sender, die anstatt der erzielbaren -18LUFS ungefähr -21 erreichen. Mit richtig angepasster Abhörlautstärke geht da auch nichts im Rauschen unter, abgesehn davon gibt es natürlich die ausführlich erwähnten Loudnessunterschiede der unterschiedlichen Programmanteile, einfach weil sich darüber offensichtlich (noch?) niemand ernsthafte Gedanken macht, schade.

Beste Grüße, Björn
 
Zuletzt bearbeitet:
Radio Eins überträgt zur Stunde ein Studiokonzert von Dota & Band. Auf DVB und UKW freilich abartig kaputt, verzerrt, klebrig, eingedickt, pumpend. Der Live-Videostream könnte (!) hingegen anständig sein. Ich habe kein Breitband, ich habe nur mal kurz reinhören können, mir kam es so vor, als wäre das sauber. Was für eine perverse Welt: willste anständig Radio hören, mußte den Video-Livestream nehmen...
 
willste anständig Radio hören, mußte den Video-Livestream nehmen...

...weil in der Regel im TV und zum Stream kein klangveränderndes Processing nach der Produktionsregie stattfindet. Heutige Streaming Workflows, auch bei uns im Hause, laufen zum Beispiel so, dass mobile Flightcase TV Regien, den Ton vom Hörfunk 1:1 übernehmen, im besten Falle werden die Wege sauber gepegelt, zur Sicherheit Peaklimitiert, aber nicht in den Limiter gepresst. Da sowohl Streaming als auch TV komplett digitel sind, gibt es auch nicht die Diskussion darüber, was sich auf UKW übertragen lässt. Den Sound macht Derjenige, der in der Produktionsregie am Pult sitzt. Lediglich im Radio klingt es dann ggf. komplett anders, als in der Regie, im Stream und im TV. Ich habe Gelegenheit gehabt, gleichzeitige Ausstrahlungen aufzuzeichnen und anzuhören, man muss sich teils echt wundern...
Quintessenz: Im TV und Stream legt man die Verantwortung über den Klang in die geschulten Hände und Ohren von Toningenieuren, während deren Arbeit im Hörfunk teils erheblich durch nachgeschaltete sogenennte Soundprozessoren bearbeitet und verändert wird. Klingt (dann) vielleicht komisch, ist aber so ;)

Beste Grüße, Björn
 
Zuletzt bearbeitet:
  • Like
Reaktionen: K 6
Ja, es ist schon seltsam, dass man mittlerweile als Konsument beim Fernsehen oft den besseren Ton bekommt. Traurig...
 
Wobei die Anstalten das durchaus unterschiedlich handhaben. Beim BR kann ich Podcasts von Bayern 2 teils (warum nicht alle?) in exzellenten 224 kbps MP3 ziehen und sie kommen nicht aus der Sendefassung, sondern werden vorher abgezweigt. Einmal hatte ich den Fall, daß der Podcast länger war als die gesendete Fassung (der fehlten, offenbar um Zeit zu gewinnen, einige kleine Stellen). Und sie sind vor dem (moderaten) UKW-Processing abgezweigt, also besser: sie sind ja eh nicht aus dem Sendeablauf.

Beim RBB sind die Sendungen, die es von Radio Eins zum Nachhören gibt, durch das UKW-Trümmerprocessing geschoben und zusätzlich noch mit gefühlt 128 kbps MP3 verhunzt. Eine solche Qualität überhaupt anzubieten grenzt nicht nur an Unverschämtheit, es ist Unverschämtheit. Und man kann sie nicht "vorspulen", soweit ich mich erinnere. Runterladen sowieso nicht.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben