• Uns interessiert deine Meinung über radioforen.de! Bitte nimm an unserer kurzen Nutzerbefragung teil. Damit hilfst du uns dabei, die Seite weiter zu verbessern. Als Dankeschön verlosen wir unter allen Teilnehmern einen Amazon-Gutschein im Wert von 100 Euro. Hier geht's zur Umfrage.

ARD-Arbeitsgruppe "Lautheit" will alle ARD-Radios gleich laut machen

Auch dort, wo das Signal normalerweise so richtig durch die Mangel genommen wird (ich denke da gerade an ein bekanntes Jugendprogramm) hat man durchaus noch ne Vorstellung davon, was man möchte, was Kompromiss ist (Selbstfahrer...) und wie es nicht sein darf.
Fragt sich halt nur, wie dann die „neuesten ästhetischen Erkenntnisse“ (Bild+Ton: ein Hörfunkbetriebsleiter der ARD) aussehen. Wie sie im angrenzenden Ausland vielfach aussehen, ist ja bekannt (z.B. Polskie Radio leiert sein Kulturprogramm durch dieselbe starke Multibandkompression wie seine anderen Wellen).

Mein Gottvertrauen in Kulturprogramme hält sich ganz generell in überschaubarem Rahmen, wenn ich mir anschaue, wie dort aus der luftigen Höhe des Elfenbeinturms herab der üblichen Verblödung gefröhnt wird (in Köln nennen sie das dann „den Hörern auf Augenhöhe begegnen“).
 
Die ARD Info Nacht von MDR Info klingt ähnlich Scheixxe wie SWR-Info. Ermüdend komprimiert. :oops:
Ein Übel ist auch, dass offensichtlich jede übernehmende Rundfunkanstalt noch ihr eigenes Soundprozessing dazuhängen muss. Keine klaren Strukturen mehr erkennbar. Was ist aus diesem ARD-Radio geworden ...

Ist das mit dem Soundprozessing wirklich so? Lies mal das hier. Ich denke mal das gilt auch Analog für die Infonacht.
 
gibt ja ne ganze Menge Technik-Experten hier - ich bin keiner. Deswegen eine Laienfrage: Ihr hört diese Sender über unterschiedliche Ausspielwege, mit unterschiedlichem Equipment unter unterschiedlichen Bedingungen. Jeder hat seinen Geschmack, was guter Klang ist - und wie wichtig dieser für einen selber ist. Die ARD bedient ein Millionenpublikum. Gibt es wirklich einen "Mittelweg", der sowohl den Brüllwürfel als auch High-End-Systeme bedienen kann?
 
Vor 30 Jahren hat man auch auf den Popwellen einfach den Originalklang der Tonträger gesendet. Ich war damit sehr zufrieden.

Beschwerden gab es höchstens zum Lautstärkeverhältnis von Sprache und Musik. Da sind die Anforderungen aber höchst individuell: vgl. LKW Autoradio vs. HiFi Anlage.

Im RDS Begleitsignal zu UKW gibt es eine Codierung für Sprache und Musik. So ließen sich seit Jahrzehnten Radios mit 2 Lautstärkereglern bauen. Leider gibt es weder die entsprechende Codierung noch die Hsrdware ...

Sagt ein Laie.
 
.. Lies mal das hier. Ich denke mal das gilt auch Analog für die Infonacht.
Danke @Frank, das ist mir neu. Ich hatte nicht länger reingehört. Dann lag mein Eindruck evtl. an den unterschiedlichen Lautstärken von MDR-Info, B5aktuell und SWR-Info über DVB. Ich werd's noch mal mit Lautstärkeausgleich anhören.
Gibt es wirklich einen "Mittelweg", der sowohl den Brüllwürfel als auch High-End-Systeme bedienen kann?
Die optimale Darbietung, zuhause und im Auto, via UKW oder DVB ist nach meiner bisherigen Erfahrung immer ein möglichst natürliches Sprache/Musik-Original ohne verstümmelte/platte Signalamplituden. Loudness verursachende Dynamikkompressoren sparen zwar einen manuell aussteuernden Tontechniker ein, sie sind aber meist kontraproduktiv für die Sprachverständlichkeit (bes. für Senioren) und die Transparenz in der Musik, da sie zur Differenzierung notwendige Tonsignalspitzen kappen.

Natürlich gibt es auch "unvollkommene" Audiosignale wie Telefongespräche, wo es hilfreich sein kann den Klang für eine bessere Verständlichkeit "zurecht-zu-designen". Oder bei Klassikproduktionen, die nicht für's Radio gemacht wurden kann es evtl. sinnvoll sein während leiser Passagen den Pegel anzuheben. Das können geschulte Ohren aber besser als eine Maschine, die alles über "denselben Kamm" schert.

Ich sehe auch i.d.R. keine Notwendigkeit die Produzenten von Archivmaterial zu korrigieren und Live-Produktionen/Sendungen lassen sich auch minimal-invasiv bewerkstelligen, ohne dass notwendige Audiosignalspitzen verstümmelt werden. Dazu hat @marillenfreund in seinen Beiträgen schon einiges dargelegt.

Die sehr gerne für UKW benutzte Rechtfertigung "Loudness für notwendigen Rauschabstand" ist IMHO in der Hauptsache ein kommerzieller Hype auf Kosten der Radiohörer, die auf ein ermüdungsfrei zu hörendes Programm wert legen. UKW-Rauschen tritt nur an den physikalischen Versorgungsgrenzen auf, darüber hinaus besteht eh' kein Versorgungsanspruch. Warum also muss ein Programm für alle ermüdend gepresst werden, wenn doch nur Hörer ausserhalb von der Rauschminderung profitieren würden?

Ungeplättete Audiosignale bieten zudem einen "Reserve"-Vorteil in geräuschvoller Umgebung (Auto), wo ihre Spitzen aus dem Lärmteppich (im Tunnel) herausgehört werden können ohne dass es als unerträglich laut empfunden wird. Wer die Gelegenheit hat, sollte sich mal Bayern2 oder Deutschlandradio über UKW unter verschieden Bedingungen anhören und dann erst urteilen. So ausgesteuert lässt sich prinzipiell der MPX-Leistungsbegrenzer einsparen.

Was für High-End gut ist muss für den Brüllwürfel nicht schlecht sein. Im Gegenteil! Platte Tonsignale werden vom Brüllwürfel zusätzlich unangenehm verzerrt. Das ist mir besonders bei Hotel-TV-Empfängern aufgefallen. Wer einen speziellen SOUND haben will soll sich den doch individuell selbst im Receiver kreieren! Im Digital-Radio ist es vom Effekt sowieso egal an welcher Stelle in der Übertragungskette der "Sounddesigner" sitzt.

Das grösste Problem für's Radio sehe ich im Archivmaterial, bei der CD-Produktion, wo Musik seit gut 15 Jahren schon auf's Loudnessmaximum gepresst wird. Das gilt es in der Sendung herunterzuholen, damit zumindest die Moderation wieder eine Chance hat gut zu klingen ohne ungehört unterzugehen.
:rolleyes:

...Beschwerden gab es höchstens zum Lautstärkeverhältnis von Sprache und Musik.
Dafür gab es auch Aussteuerungsrichtlinien für diverse Genres. Die müsste ein intelligente Maschine aber erst mal lesen können. ;) Bei Kulturprogrammen würde ich mir wünschen, dass die Musik-Loudness generell um 3-4 dB unter der von Sprachbeiträgen liegt.

Nichtsdestotrotz wären zwei Lautstärkesteller oder ein Kompressor bzw. "Sounddesigner" im Receiver ein echter Fortschritt.
 
Zuletzt bearbeitet:
Mir liegt inzwischen auch der Montag vor der Umstellung auf R128 vor. Zum großen Vergleichshören bin ich noch nicht gekommen, allerdings sind die zeitweise auffallenden "Kratzigkeiten" auch dort bereits drin, z.B. in den Nachrichten zu hören und bei O-Tönen. Im angehängten "Montag"-Beispiel gibt es eine solche Störung z.B. schon im ersten Wort der Nachrichten ("die") und dann beim Korrespondenten ("Ehepaare", "die über ihre").

Die Summenkompression scheint "fetter" gewesen zu sein vor der Umstellung, am Dienstag klingt das Sprechermikrofon etwas schlanker als am Montag. Dafür gab es am Montag das Pumpen nicht, das dann am Dienstag sowohl bei Sprache als auch bei den Soundelementen so störend auffiel. Die Regelung am Dienstag (und bis heute, so nichts verändert worden ist) ist hektisch und sprunghaft - das ist das, was stört. Ich habe mal - unterstellend, daß die Soundelemente mit Festpegel ausgespielt werden - die 7-Uhr-Nachrichtenopener von Montag und Dienstag voneinander subtrahiert. Wären sie exakt identisch gepegelt und identisch prozessiert, käme da leidlich genau Stille heraus. Es ist sehr interessant, was real herauskommt. Beispiel im Anhang. Was "schaltet" da so sprunghaft am Pegel herum?

Wenn ich R128 richtig verstanden habe, geht es um homogene Lautheit über die einzelnen Programmelemente, nicht um die brachiale Anpassung jedes Momentes an eine einheitliche Lautheit. Dynamik und kurzzeitige Lautheitsunterschiede (kürzer als die R128-Zeitkonstante) sind also zu erhalten. Wenn dramaturgisch erwünscht (Hörspiel! Klassik!), sind auch längere Passagen mit niedrigerer Lautheit selbstverständlich zu erhalten. Es darf nicht auffällig herumgeregelt werden an in sich anständig (ästhetisch) produzierten Elementen. Genau da wird aber offenbar bei SWR Info in Echtzeit eingegriffen - sage ich als ebenfalls Laie.


@radneuerfinder

Die Sprache/Musik-Kennung (im UKW-RDS ebenso vorhanden wie im seligen DSR-Satellitenradio und im heutigen DVB-System sowie meines Wissens nach auch in DAB) ist recht ungeeignet, ein "flüssig" gefahrenes Programm mit Ramptalk u.ä. zu kontrollieren. Das gäbe dauernd fiese Sprünge, wenn die Lautstärken für M (Mikrofon aus) und S (Mikrofon an) unterschiedlich eingestellt wären. Sowas funktionierte nur bei z.B. ernsthaften Klassiksendungen, in denen es nur entweder oder gibt. Das ist kaum praxistauglich.

Das "korrekte" Pegeln von Sprache und Musik zueinander ist hochgradig schwierig bis unmöglich, wenn man die perfekte Universaleinstellung sucht. Was daheim (evtl. sogar unter Kopfhörer) als "homogen" empfunden wird, verliert spätestens bei 130 km/h im Mittelklassewagen die Sprachverständlichkeit, während sich die Musik meist noch gut genug durchsetzt (die Wahrheit dürfte wohl sein, daß die Verständlichkeit da auch leidet, aber bei der Musik gar keine Textverständlichkeit erwartet wird und es deshalb nicht auffällt, während man bei der Moderation dann schon in den Apparat kriechen will).

Auch kann man z.B. bei Rock/Pop heutiger Machart kaum mit völlig unkomprimiertem Mikrofonweg dagegenhalten - man bekäme wegen der hochgradig unterschiedlichen Lautheit einer unbearbeiteten "schlanken" Stimme gegenüber heutiger U-Musik-Produktionen ein abstruses Spitzenpegelverhältnis - ich schätze (!) daß man manchen Sprecher in den Spitzen um 12 dB und mehr über die "Spitzen" der U-Musik pegeln müßte. Damit verliert man über weite Strecken des Programms Lautheit. Etwas Peak Limiting und dezentes "Anfetten" des Mikrofonweges ist also durchaus sinnvoll und sorgt für angenehmeres Hören - das Musik-Umfeld bei Popwellen ist ja weitaus dynamikärmer als eine menschliche Stimme. Da geht es aber immer noch nicht um Brachialkompression, die jeglichen Hintergrund aus dem "Studio" (das heute meist ob seiner Raumakustik diesen Namen nicht verdient) brutal nach vorne holt. Man kann das dezenter machen und vor allem ohne hörbare Regeleffekte und ohne Verzerrungen.

Allerdings sind gerade die "Dudelwellen" ideale R128-Umgebungen: die Musik liegt ohnehin komplett im System, man kann sie dort also gleich nach R128 ausgepegelt reinstellen, die Audioelemente ebenfalls. Dann ist Ausspielen auf "Regler-Null" automatisch fast immer passend. Ein leicht angefettetes Mikrofon ist dann auch wesentlich leichter dazu homogen zu bekommen. Um andere Wege (Telefon, ...) muß man sich freilich auch kümmern. Es sollte aber wesentlich leichter sein als bei einem Programm "alter" Prägung, wo Redakteure CDs oder gar Schallplatten mitbringen (alte Sendefahrer erkannten am Rillenspiegel der Platte, wie laut sie in etwa sein wird) und Gesprächsrunden mit zig Studiogästen zu pegeln sind.


@CosmicKaizer

Ich bin auch Laie - habe nie in der Hörfunktechnik gearbeitet. Die Ausspielwege und ihre Besonderheiten hast Du schon erkannt, und damit auch das Problem. Nimm Dir mal den DLF vor und strapaziere ihn z.B. im Auto. Ist er anständig anhörbar? Falls Du das für Dich mit "ja" beantwortest, dann rufe Dir mal ins Gedächtnis, daß der DLF sehr dezent bearbeitet ist (was nicht verhindern kann, daß manche zugelieferten Sendungen dann doch wie Tonne klingen).

Ich behaupte: ein Großteil dessen, was wir heute im Radio an "Sound" hören, dient gar nicht der besseren Hörbarkeit in akustisch problematischen Situationen, sondern dem "Corporate Sound" des Programms. Es soll einen Wiedererkennungseffekt erzeugen. Siehe z.B. MDR Thüringen: rotzigst verzerrter, wummernder Sound, der dazu führt, daß mein schwerhöriger 80-jähriger Vater kein Wort versteht. Inzwischen läuft also der nur sehr dezent bearbeitete DLF auf dem von Haus aus voluminös klingenden DDR-Küchenradio - auch wenn da keine Meldungen aus Thüringen kommen. Das Processing von MDR Thüringen dient also gar nicht einer Erhöhung der Sprachverständlichkeit, sondern dem ganzen Gegenteil.

Solches Processing ist technisch nicht begründet. Von einer ARD-Anstalt kenne ich die Story, daß die Wellenleitung dann mit dem Sounddesigner und der Technik "Hörsitzungen" veranstaltet, bei der ein UKW-Summenprozessor vorhanden ist und off air verändert werden kann. Und dann fordern die Programmleute halt "mehr Bass" oder "grellere Höhen" oder "fetteren Sound" und die Technik hat die Aufgabe, das unter Wahrung der UKW-Parameter zu realisieren. Übrigens ist sowas auch ein Grund dafür, warum ich nicht bei einer heutigen Rundfunkanstalt arbeiten wollen würde. Das ist in etwa das gleiche, als würde ein Verkehrsbetrieb-Management das Werkstattpersonal dazu nötigen, Busse vor die Wand der Reparaturhalle zu fahren, bis die Frontscheibe splittert.

Im Falle von SWR Info geht es definitiv nicht um diese Art Processing, sondern um den Versuch, eine homogene Lautheit zu erzeugen - allerdings betrachte ich zumindest das, was vor einer Woche zu hören war, als "Versuch gescheitert" - siehe oben. Da regelt etwas nervig schnell. Ich bezweifele, daß es hier um Geschmackssachen geht. Die betreffen die absichtliche (Effekt)bearbeitung des Signals, nicht so etwas wie bei SWR Info.

So etwas muß natürlich nachjustiert werden. Und es dürfte auch dem SWR aufgefallen sein, daß da was nicht paßt. Da ist das alte Klangbild deutlich stabiler als dieses Gezitter.

Etwas anderes ist die Frage nach "Kleingeräte / Mobilempfang vs. Stereoanlage": fürs erste wäre da mein Vorschlag, den DVB-Weg vom UKW-Weg abzukoppeln und ohne das UKW-Processing anzubieten. Der DVB-Weg wird stationär gehört (eben via Sat, Kabel digital oder auch Kabel UKW, so von DVB in der Kopfstation umgesetzt wird), man kann da von deutlich weniger gestörter Hörumgebung ausgehen. Dennoch wäre durchaus zu diskutieren, ob man DVB vielleicht doch nicht komplett "ohne" anbietet, sondern durch ein dezentes UKW-Processing laufen läßt, wie es z.B. die Kulturwellen verwenden. Also Tiefpaß bei 16 kHz und Peak-Limiting mit Emphasisberücksichtigung. Ein Processing, wie es z.B. BR Klassik auf UKW anbietet, wäre eine Wohltat für alle Pop-Wellen. Das komplette puristische "unbearbeitet durchlassen" wäre da gar nicht nötig und ist klanglich davon nur im Direktvergleich zu unterscheiden. Man hätte damit auch die Sicherheit, daß bei Umsetzungen DVB -> Kabel-UKW keine Spuckeffekte bei Hubüberschreitung auftreten können. Und man könnte das DVB-Signal so immer noch als Havarie-Backupzuführung zu UKW-Standorten einsetzen, ohne die UKW-Parameter zu verletzen. Es klänge dann für die Zeit des Ausfalls der Regelzuführung nur deutlich anders als sonst. Wieviele Minuten im Jahr träfe dies zu?

Etwas anderes ist es, wenn Hörfunkwellen den DVB-"Endkundenweg" als Regelzuführung nutzen. Meines Wissens nach tut dies der MDR mit etlichen Frequenzen von MDR Info und MDR Sputnik. Da ist natürlich der UKW-Sound auf DVB anzubieten, ansonsten bräuchte man an jedem UKW-Standort ein separates Processing, was derbe ins Geld geht. Ein Ausweg wäre hier, solange Kapazität vorhanden ist, einen entsprechend bearbeiteten separaten 192er MP2-Stream als UKW-Feed mit über DVB zu verbreiten. Dies ist kaum praktikabel, denn freie Kapazität ist auf dem Hörfunktransponder zwar bissl drauf, wird aber auch als Overhead für die Vormultiplexbildung gebraucht. Und meines Wissens nach muß jede Anstalt ihren Datenmengen-Anteil zahlen.

Deshalb wäre es sehr wünschenswert, auch auf UKW vom entstellenden Schweineprocessing abzukommen, aber da glaube ich eher an den Sieg des Kommunismus als an eine entsprechende Entwicklung.
 

Anhänge

Hallo zusammen,

ich hatte jetzt noch keine Muße, mir die Klangbeispiele der SWR Versuche anzuhören. Die Kommentare legen allerdings nahe, dass es noch Probleme mit dem Grundverständnis der R128 zu geben scheint. Umso ärgerlicher, weil es ja in der ARD durchaus die Möglichkeit gibt, sich mit den Fernsehleuten auszutauschen. Im TV Bereich gibt es schließlich mittlerweile über zwei Jahre Erfahrung mit dem Thema loudnessbezogene Produktion. Und eben auch über die Unterschiede zu den verzweifelten Versuchen über die vermeintliche Lösung im Sendeausgang.

Wie sich ein in sich nach R128 produziertes Programm auf UKW (mit entsprechendem, aktuellen FM Prozessing) anhört, dem empfehle ich die 20 Uhr Tagesschau auf hr info. Ich garantiere eine Viertelstunde Radiohören (selbst im geöffneten Cabrio) ohne Griff zum Lautstärkeknopf. Und man hört auch ganz schön, welche Negativeffekte das vermeintlich notwendige FM Prozessing auf die übertragene Räumlichkeit hat. Das wiederum kann man ja dann gerne mal mit dem Originalklangbild im TV vergleichen, welches sicherlich auf Grund der Bedingungen (Mikrofonwahl, Halligkeit des Studios) schon beschränkt, aber in Ordnung ist.

Beste Grüße, Björn
 
Habe mal 'ne vorläufige Analyse gemacht.
Mir liegt inzwischen auch der Montag vor der Umstellung auf R128 vor. (...) sind die zeitweise auffallenden "Kratzigkeiten" auch dort bereits drin, ....
Auffallende Effekte in der konventionellen "Montagsausgabe":
[Mo 1]>>> ab 0s'' verzerrtes "u": "und B27 ..."
[Mo 2]>>> ab 6,8 s "Alle Verkehrsinfos ..." klickt es deutlich.
[Mo 3]>>> ab 63,6s'' verzerrtes "u": "und sie wolle ..."
Im Falle von SWR Info (...) regelt etwas nervig schnell.
In Deinem "Dienstagsbeispiel" geht das Signal auch mal in die Knie um sich nur auffallend langsam zu erholen:
[Di 1]>>> ab 9,9s: "zehn Kilometer stockender Verkehr ...". Nach ca 4s ist der ursprüngliche subjektive Lautstärkeeindruck wieder erreicht. Dort reagiert möglicherweise ein Limiter "look-ahead" auf das "z" so, als wenn das in seiner Regelschleife mit einer Preemphasis verstärkt würde.

[Di 2]>>> bei 17,1s: "acht ...", Klick vermutlich durch das "t" verursacht.

Ein ganz besonders schöne Erscheinung lässt sich im Audio-Editor dort erkennen:
[Di 3]>>> ab 33,7s: "fünfzehn Grad ...", das "z" bewirkt ein Umschalten im Pegel.

kp23vujpc9t.jpg

:rolleyes: Für 50 ms wird der Pegel um -10...-12 dB abgesenkt, mit scharfer Umschaltung (Klicks).
Die Klicks treten anscheinend bei bestimmten Signalverläufen auf (z.B. bei "u","z").
Sieht so aus als wäre dort ein fehlerhafter Online-Loudness-Leveller am werkeln.

Diese technischen "Dilettantismen" wären IMHO für einen Audiofachmann leicht zu beheben. Was bleibt ist die Unvorhersehbarkeit von Loudness-Pegeln im Online-Signal (wenn nicht eine Riesen-Latenz spendiert werden soll). Letzteres wird IMHO nie ganz zufriedenstellend funktionieren.

(Das ab 45,6s total verzerrte Jingle ist vermutlich bewusst "designed".)

**************************************************************
Sehr unschön und die Sprachverständlichkeit mindernd sind darüber hinaus bei der heutigen UKW-Aufbereitung oft
- die sporadisch unnötig starken Absenkungen bei S-und Z-Lauten bis zu -14 dB, z.B. hier:
[Di 4]>>> ab 28,8s: "ganz nett ..."
[Di 5]>>> ab 65,4s: "Friedensprozess"
Hier gibt es sogar einen deutlichen Unterschied zwischen
Montag [ab 12,5s] und
Dienstag [ab 18,5s] "oder sie lassen sich die SWR-Info-App ...", wo die Verstümmelung noch ausgeprägter ist.

- das lästige "Asthma" in Sprechpausen, das nur ca. 12 dB(rms) unterm Sprechpegel liegt:
[Di 6]>>> ab 74,9s: Einathmung

Umso ärgerlicher, weil es ja in der ARD durchaus die Möglichkeit gibt, sich mit den Fernsehleuten auszutauschen. Im TV Bereich gibt es schließlich mittlerweile über zwei Jahre Erfahrung ...
Es scheint ja schon reichlich Animositäten innerhalb des Hörfunks zwischen den ARD-Anstalten zu geben ...
 
Zuletzt bearbeitet:
Meine Herren machst Du Dir eine Mühe! Manches davon kann ich nichtmal so genau heraushören wie Du. Goldohr! ;)

Falls da wirklich ein Echtzeit-Limiter die R128 machen sollte (und so wirkt es auch auf mich) und das so "bestimmungsgemäß" ist, hätte ich R128 irgendwie bislang nicht verstanden...
 
Hallo zusammen,

da es thematisch genau hierher passt stelle...

ich auch hier nochmal ein kleines Demofilmchen vor. Es soll veranschaulichen, wie irreführend klassische Pegelinstrumente für das Gehörte sein können, und wie sich die Loudnessanzeigen eines R-128 Meters verhalten können. Das ist besonders dafür interessant, damit man die Anzeigen M und S nicht falsch interpretiert, wenn der angestrebte Zielwert von 0LU/-23LUFS auch mal überschritten wird, weil ja am Ende die I-Messung relevant ist. Da ich bewusst auch Ausblendvorgänge u.ä. mit einbezogen habe kann man auch sehen, wie sich das relative Gate in der I-Messung auswirkt, wenn nämlich diese nicht zwingend abfällt, nur weil es leise wird.

Folgendes habe ich zur Veranschaulichung der Darstellungen, uns zur Verfügung stehender Aussteuerungsinstrumente, getan:
  • Audioausschnitte unterschiedlichster Art und Herstellung gesammelt
  • Erfassung der jeweiligen Programm Loudness dieser Audioschnipsel mittels I-Messung gemäß R-128
  • Angleichung der Programm Loudness durch statische Pegelanpassung gemäß der Abweichung zu -23LUFS, bis auf die reine Pegelangleichung nach Programm Loudness erfolgte keinerlei Bearbeitung mittels "Soundprocessing" jedweder Art. Die Ausschnitte sind also in sich genau so erhalten, wie sie vom jeweiligen Endbearbeiter gedacht waren!
  • Aneinanderreihung dieser Files, so als wären sie Bestandteile einer Sendung, oder als würden wir zwischen verschiedenen Programmen zappen
  • gleichzeitiges Messen der "Sendung" auf den folgenden Skalen: 1. True Peak, 2. Sample Peak, 3. QPPM, 4. R-128 Meter mit M,S,I, True Peak Max und LRA (Loudness Range) und Mitschnitt des TM9-Bildschirms (RTW Instrument) mit dem Audio als Videofile
Was soll nun damit verdeutlicht oder hinterfragt werden:
  1. Ist die R-128 Loudnessnormalisierung geeignet, um diese "sehr bunte Sendung" gehörrichtig zusammen zu setzen und somit ohne Abhörvolumenänderung durchzuhören?
  2. Lassen sich auf den Peakmetern 1., 2. oder 3. irgendwelche allgemein gültigen Werte definieren um das Audio daraufhin gehörrichtig auszusteuern?
  3. Welche Anzeigen zeigen etwas an, was dem Gehörten entspricht, besonders wenn wir laut und leise definieren wollen, wie etwa in Musik wenn von piano, mezzoforte und forte die Rede ist?
  4. Welche Details lassen sich in den völlig unterschiedlichen Mischungen heraushören, und gibt es Zusammenhänge zu den erreichten Peakleveln?
  5. Sind im Audio irgendwelche technischen Störungen wahrnehmbar, die auf digitale Untersteuerung hindeuten?
  6. Springt man im File wahllos umher, dann treffen ggf. auch mal relativ laute und relativ leise Stellen aufeinander. Das ist auch völlig normal, da es ja nicht um eine permanent gleiche sondern durchschnittlich gleiche Loudness geht. Ist das störend, oder wird es als natürlich empfunden?
Unter diesem Link:
https://www.dropbox.com/sh/4y9p46rnre00qft/Xnmh2BwUm0
findet Ihr einen Dropbox Ordner, in dem sowohl das Video File (komprimiert wegen der Datenmenge), als auch die verwendete Audiodatei in verschiedenen Formaten. Im Video seht Ihr untereinander ein
  1. True Peak Meter
  2. Sample Peak Meter
  3. QPPM Meter mit Skalenbereich bis +9dB (ARD Skala)
  4. R-128 Loudnessanzeigen Momentary, Short Term, Integrated (links davon als Zahlenwert noch mal die I-Messung, die Loudness Range und den True Peak Max)
Ich habe die Skalen auf einem TM9 von RTW jeweils so angeordnet, dass die uns bekannten Normwerte übereinander liegen. Außerdem habe ich in den Loudnessanzeigen den grünen, sog. Toleranzbereich für die jeweilige Anzeige unterschiedlich groß gemacht (Erfahrungswerte), einfach um den permanenten Farbumschlag bei +1LU zu vermeiden, denn gerade in den Anzeigen M und S sind Überschreitungen von 0LU völlig normal und legitim.
Beim Abspielen des Audios habe ich die I-Messung (Programm Loudness Messung) bei jedem neuen Programmanteil neu gestartet um zu zeigen, dass jedes File in sich eine Programm Loudness von 0LU/-23LUFS aufweist. Insofern hören wir also eine Programmstrecke, bei der die einzelnen Anteile im Vorfeld nach R-128 normalisiert oder ggf. auch schon produziert worden sind, und der Wiedergabepegel in der sendenden Regie immer Reglernormstellung entspricht.

...da ich den Text jetzt einfach mal hierher kopiert habe bitte ich Dopplungen zu entschuldigen.
Verdeutlichen will ich damit, wie sich gehörmäßig eine Loudnessnormalisierung auswirkt. Wenn wir wissen, dass in der UKW Verbreitung eine maximal erreichbare, durchschnittlich Program Loudness von -18 LUFS erreichen ließe, dann schaut Euch die dargestellten Peaklevelinstrumemte an und entscheidet selbst, was an Processing notwendig wäre, wenn man das vorliegende Audiomaterial dafür um sagenhafte 5 dB anheben müsste.

Beste Grüße! Björn
 
Na ja, "Goldohr" war einmal. Aber die Hörerfahrung reicht dafür noch.
Falls da wirklich ein Echtzeit-Limiter die R128 machen sollte ( ... ) und das so "bestimmungsgemäß" ist, hätte ich R128 irgendwie bislang nicht verstanden...
So wie ich die R.128 verstehe (?), wäre der Idealfall

1) die R.128-Aussteuerung ganzer Beiträge/ Programmteile während der Produktion durch geübte Fachleute, was dann "as-it-is" gesendet werden könnte (zumindest im Digiradio).

2) Oder durch Loudnessnormalisierung, wie sie in @Marillenfreunds Demo dargeboten wird, also durch automatische Pegel-Adaption fertiger Produkte (Archivmaterial, CDs) gemäß R.128 ohne Klangbeeinträchtigung.

Ob für den reinen Livebetrieb ein "Echtzeit-Limiter *" (incl. sporadischer Regeleffekte) "bestimmungsgemäß" ist, ist mir momentan auch nicht ganz klar. Notwendig wäre IMHO ein "Echtzeit-Adaptierer" dann, wenn kein Tontechniker zur Sendungs-Aussteuerung spendiert werden soll.

Entspricht das so Deiner Definition ?:
Wenn ich R128 richtig verstanden habe, geht es um homogene Lautheit über die einzelnen Programmelemente, nicht um die brachiale Anpassung jedes Momentes an eine einheitliche Lautheit. Dynamik und kurzzeitige Lautheitsunterschiede (kürzer als die R128-Zeitkonstante) sind also zu erhalten.
*) Der Begriff "Echtzeit-Limiter" trifft für R.128 IMHO nicht ganz zu aber Du hast, wie ich aus dem Kontext interpretiere, vermutlich auch einen "Adaptierer" gemeint, der in Echtzeit viel schwieriger artefaktarm (also "nichtbrachial") zu realisieren ist als ein Limiter (z.B. frühere Amplitudenlimiter).
... gerade die "Dudelwellen" ideale R128-Umgebungen: die Musik liegt ohnehin komplett im System, man kann sie dort also gleich nach R128 ausgepegelt reinstellen, die Audioelemente ebenfalls. Dann ist Ausspielen auf "Regler-Null" automatisch fast immer passend.
Diese naheliegende Archivadaption wurde seit nunmehr 15 Jahren, also schon vor R.128, mehrfach empfohlen - und von Radiomachern ignoriert. :rolleyes: Oder wird das irgendwo schon so realisiert?

Auf SWR-Info bezogen stellt sich mir jetzt konkret die Frage:

Inwieweit können dort die Beiträge "Echtzeit (=Mikro)" und "Archiv (=File)" getrennt aufbereitet und seriell verschachtelt ohne Nachbearbeitung** gesendet werden?
_____________________________________
** Wird SWR-Info auch über UKW verteilt?
 
Zuletzt bearbeitet:
...das ist ja wunderbar! Der Sendeprozessor "merkt", dass es jetzt plötzlich viel lauter als zuvor ist und regelt relativ langsam durch die AGC zurück. Dann jedoch "fällt ihm auf", dass er in der laufenden Minute (über die die maximale MPX Leistung gemessen wird) noch ein wenig Reserve hätte und macht langsam dann doch wieder lauter. Wenn man die kleine Pause als Übergang zum nächsten Beitrag interprätiert, dann ist der ja offensichtlich wieder leiser, was man übrigens an den Spitzenpegeln nicht sieht! Und so geht das dann munter hin und her...

Ergebnis für den Hörer: unglaublicher Loudnesssprung zu Beginn des Jingles, woraufhin er erschrocken die Lautstärke runter regeln muss, allerdings nur so lange, bis der nächste, wieder leisere Beitrag kommt, dessen Anfang er nicht gut versteht. Das ließe sich durch Loudnessnormalisierung definitiv erheblich verbessern! Und auch wenn im Sendeausgang dann noch derselbe Prozessor werkelt, so wären die Übergänge homogener und Regelvorgänge der AGC würden sich in engeren Bereichen bewegen.


Diese naheliegende Archivadaption wurde seit nunmehr 15 Jahren, also schon vor R.128, mehrfach empfohlen - und von Radiomachern ignoriert. :rolleyes: Oder wird das irgendwo schon so realisiert?

...also meines Wissens nach werden in Sendeautomationen durchaus auch jetzt schon RMS Pegelanalysen von Archivfiles herangezogen, um deren Ausspielpegel anzupassen. Eine entsprechende Korrektur auf Grund eines R128 Algorithmus wäre also gar kein Problem sondern nur eine Aufgabe an den Hersteller. Es gäbe in diesem Szenario gar keine Notwendigkeit, das Archivfile zu verändern.

Beste Grüße, Björn
 
@Tonband

Sieht so aus, als haben wir sehr ähnliche, wenn nicht sogar identische Ansichten. ;)

Meines Wissens nach betreibt zumindest der hr seit Jahren (!) beim Einstellen von seitens der Musikindustrie angeliefertem Material eine Lautheitsbewertung (kann anfangs kaum nach R128 gewesen sein, die gab es da noch gar nicht), danach schaut noch jemand manuell drüber, weils vor allem bei Klassik mitunter Irritationen des Algorithmus' gab und dann kommt es so ins Sendesystem.


@freiwild

Mit "Festpegel" meinte ich: am Fader vorbei, also ohne Einflußmöglichkeit bzw. wenigstens mit Motorfader auf "0" gestartet seitens der Automation. Daß die Soundelemente auch durchs Processing gejagt werden und danach keinen "Festpegel" mehr haben, ist ja klar. ;)


@marillenfreund

Das Archivfile kann man ja, solange es MP2 ist, gar nicht nachträglich ändern, ohne es zu recodieren. Die segensreiche Skalenfaktor-Geschichte, die das bei MP3 in 1,5-dB-Schritten erlaubt, existiert nicht bei MP2. Zumindest ist das mein Kenntnisstand. Das "Live"-Anpassen der Lautheit nach z.B. durch einen einmal übers Archiv gelaufenen Algorithmus anhand von abgelegten Korrekturwerten in der Datenbank halte ich für eine der sinnvollsten Möglichkeite, mit recht wenig Aufwand (DB-Feld nachpflegen lassen, Automation anpassen lassen, daß sie es ausliest und nach dem Decodieren in PCM live draufrechnet) einen Sendespeicher R128-konform zu bekommen - zumindest für die dort abgelegten Elemente. Ein sinnvolles Peak-RMS-Verhältnis bei Produktionen muß aber dann dennoch von Menschen vorab sichergestellt werden, nicht jedoch das exakte Treffen von z.B. -23 LUFS. Soweit ich von einem ARD-Techniker, der im Produktionsbetrieb ist, kenne, kommt auch ohne R128-Messung bei seinen Produktionen immer etwas im Bereich um -23 LUFS heraus. Der Wert ist also nicht willkürlich erfunden. Wen sollte das wundern?
 
@marillenfreund Soweit ich von einem ARD-Techniker, der im Produktionsbetrieb ist, kenne, kommt auch ohne R128-Messung bei seinen Produktionen immer etwas im Bereich um -23 LUFS heraus.
Kleiner Zwischenruf: Das deckt sich in etwa auch mit meinen Sichtungen von Tonband-Mitschnitten aus den 80ern von UKW-Programmen (mit Referenz-Pegelton). Damals mussten offensichtlich auch die UKW-Sendebegrenzer relativ selten aktiv werden. Die hiessen damals auch "Senderschutzbegrenzer". :)
 
Zuletzt bearbeitet:
Ein sinnvolles Peak-RMS-Verhältnis bei Produktionen muß aber dann dennoch von Menschen vorab sichergestellt werden, nicht jedoch das exakte Treffen von z.B. -23 LUFS. Soweit ich von einem ARD-Techniker, der im Produktionsbetrieb ist, kenne, kommt auch ohne R128-Messung bei seinen Produktionen immer etwas im Bereich um -23 LUFS heraus. Der Wert ist also nicht willkürlich erfunden. Wen sollte das wundern?

...natürlich ist der Wert nicht willkürlich erfunden, es lässt sich eben nur nicht verallgemeinern, dass man in diesen Bereich kommt, da dies eben sehr stark von der Produktionsweise abhängig ist. Wenn ich einen Sprecher, mit einem geeigneten Mikrofon in einem guten Sprecherraum quasi ohne Prozessing sauber digitalisiere (also mit ausreichend Headroom, siehe Anfagstext meiner Skalendemo), dann komme ich sicher in den Bereich von -23LUFS und erreiche eben ganz selten auch mal Spitzenpegel bis -1dBFS. Allerdings wird man eben vielleicht doch schon bei der Aufnahme etwas komprimieren, um zu große Loudnessschwankungen aufzufangen, oder auch Peaks bekämpfen. Und damit wäre es dann, nach Peaks bewertet, möglich höher auszusteuern, und somit ist das Rennen eröffnet, ganz abgesehen von Zuspielungen aus unterschiedlichen Quellen.

Das exakte Treffen der Program Loudness von -23LUFS ist übrigens gerade für Liveproduktionen nach R128 gar nicht gefordert, da es hierfür einen Toleranzbereich von +/- 1LU gibt. Es ist nach meinen praktischen Erfahrungen in der Fernsehtonproduktion auch gar nicht notwendig, sofern man eben bewusst nach den aktuellen Loudnessleveln (sichtbar in der M und S Anzeige eines R128 Meters) produziert. Und mit bewusst meine ich nicht, den Loudnesslevel permanent möglichst konstant zu halten, sondern eben bewusst mit laut und leise umzugehen! Schnell wird man dann übrigens entdecken, dass sich das meist sehr gut mit dem Gehörten deckt und immer weniger auf die Meter schauen.

Etwas anders verhält es sich natürlich in einer Art Automatikbetrieb, wo fertige Beiträge und Elemente mit Reglernormstellung aneinandergesetzt werden. Das entspricht der Sendeabwicklung im Fernsehen (hier regelt nämlich niemand nach) und dem Selbstfahrerbetrieb im Hörfunk. In beiden Fällen ist es lediglich notwendig für eine Loudnessnormalisierung vor dem Regler zu sorgen. Und jetzt kommt's, die Kollegin bzw. der Kollege kann den Loudnesslevel ihrer/seiner Moderation mit einem entsprechenden Messinstrument sogar selbst kontrollieren und durch Stimme oder Regler anpassen. Wenn man weiß, wie die Anzeigen zu interpretieren sind, dann geht das, habe ich selbst probiert.

Kleiner Zwischenruf: Das deckt sich in etwa auch mit meinen Sichtungen von Tonband-Mitschnitten aus den 80ern von UKW-Programmen (mit Referenz-Pegelton). Damals mussten offensichtlich auch die UKW-Sendebegrenzer relativ selten aktiv werden. Die hiessen damals auch "Senderschutzbegrenzer". :)

Auch gut denkbar, dass zu dieser Zeit die durchschnittliche Loudness der Programme deutlich unter den heute üblichen -18LUFS lag. Denn dieser heutige Wert ist ja nur eine Konsequenz daraus, dass man eben nicht leiser sein will als die Anderen, andererseits wegen der MPX Leistungsbegrenzung aber auch nicht dauerhaft lauter sein darf.
Den Beweis dafür, dass es auf UKW aus technischer Sicht nicht zwingend notwendig ist so laut zu sein lieferte mir letztens hr1 mit der Sendung "Lass knacken". Werner Reinke und Thomas Koschwitz hatten Hörer mit ihren Lieblingsschallplatten eingeladen. Über die Musik wurde geplaudert und anschließend die Titel von Platte gespielt. Für die Sendung wurde bewusst der Optimod aus der Sendeleitung genommen! Ich hatte die Gelegenheit den Studioausgang, also somit das zum Sender gelieferte Signal aufzuzeichnen und messtechnisch zu bewerten. Außerdem fuhr ich im Verlauf der Sendung von Frankfurt nach Düsseldorf im LKW und konnte somit auch die Auswirkungen auf die Ausstrahlung erleben.
meine Beobachtungen:
- streckenweise betrug die durchschnittliche Loudness sogar weniger als -23LUFS
- natürlich gabe es die altbekannten Loudnessunterschiede zwischen Musik und Sprache, weil ja nicht nach Loudness produziert wurde
- hr1 war im Vergleich zu anderen Radiosendern leiser
- hr1 ließ sich trotzdem auch noch weit über die hessische Landesgrenze empfangen, ohne zu hohes Hintergrundrauschen!
mein Fazit:
- aus technischer Sicht ist es offensichtlich nicht zwingend erforderlich auf UKW lauter als -23LUFS zu sein, lediglich wenn man nicht leiser als die Anderen sein will
- die fehlenden 5LU ließen sich allerdings auch ohne permanentes, nachträgliches Mastern bereits aufwendig bearbeiteter Signale erreichen

Beste Grüße, Björn
 
...das ist ja wunderbar! Der Sendeprozessor "merkt", dass es jetzt plötzlich viel lauter als zuvor ist und regelt relativ langsam durch die AGC zurück. Dann jedoch "fällt ihm auf", dass er in der laufenden Minute (über die die maximale MPX Leistung gemessen wird) noch ein wenig Reserve hätte und macht langsam dann doch wieder lauter.
Ne, das war nicht der Prozessor, das war der selbstfahrende Redakteur, der per Hand die Lautstärke der Elemente und Beiträge regelt.
 
Zuletzt bearbeitet:
Ne, das war nicht der Prozessor, das war der selbstfahrende Redakteur, der per Hand die Lautstärke der Elemente und Beiträge regelt.

...weißt Du das definitiv? Die Darstellung sieht für mich nach automatischen Regelvorgängen aus, wenn der Mitschnitt vom Empfänger kommt, dann kann man ohnehin nicht mehr unterscheiden wer oder was da geregelt hat. Ein Mensch würde diese Regelvorgänge nämlich ggf. viel schneller und weniger gleichmäßig vornehmen und somit zum Beispiel den Loudnesssprung zum Jingle schneller aufheben, was noch lange nicht heißt, dass es dadurch unbedingt besser wäre. Aber wie schon erläutert, diese unkontrollierten Loudnesssprünge müsste es gar nicht geben.

Beste Grüße, Björn

...Jeder hat seinen Geschmack, was guter Klang ist - und wie wichtig dieser für einen selber ist. Die ARD bedient ein Millionenpublikum. Gibt es wirklich einen "Mittelweg", der sowohl den Brüllwürfel als auch High-End-Systeme bedienen kann?

Dann versuche ich das mal zu erläutern, es gehört auch durchaus zum allgemeinen Thema.

Diese Problematik betrifft Jeden, der Töne produziert, nicht nur den Hörrundfunk der ARD. Genau deshalb werden ja an Produktionsregien auch besondere Anforderungen gestellt, besonders auch was die Abhörbdedingungen und -Qualität betrifft. Wenn man in der Regie zum Bespiel bedingt durch die Raumakustik wenig Bass hört, aber eine tiefbassreiche Mischung produzieren will, dann wird man ggf. zu viel Bass beisetzen, einfach weil er in diesem Raum schlechter zu hören ist. In einer Abhörumgebung, die den Bassbereich ausgewogen wiedergibt, wird diese Mischung dann eben auch zu basslastig klingen.

Über diese Dinge und auch die verschiedenen Wiedergabesysteme der Konsumenten muss man sich zwangsläufig in der Produktion Gedanken machen, eben weil das Prdodukt ja möglichst überall gut anzuhören sein soll.
Um es nochmal etwas begreifbar zu machen: in einem Symphonieorchester gibt es beispielsweise Violinen, Bratschen, Celli und Kontrabässe, die nahezu den kompletten hörbaren Frequenzbereich bedienen. Jede Streichergruppe versorgt dabei jedoch vordergründig nur einen Teil davon, aber eben nicht ausschließlich. Somit wird es, eine gute Mischung vorausgesetzt, durchaus auch auf einem Tablet Lautsprecher möglich sein, die Kontrabässe zu hören, allerdings eben nicht deren kompletten Frequenzumfang. Die Aufgabe des Tonverantwortlichen ist es nun, eine Mischung der Streicher herzustellen, die in sich ausgewogen klingt, da diese ja nach Partitur vielleicht einen gemeinsamen Akkord spielen, der in sich stimmig klingen soll, bestenfalls auch auf minderwertigen Wiedergabesystemen.

Solche Bespiele lassen sich natürlich vielfältig machen, selbst wenn wir vielleicht nur Sprache betrachten. Die Ausgewogenheit einer Mischung ist das Entscheidende, selbst von nur zwei Sprechern. Und hier wird Sprachverständlichkeit auch gerne mal mit Loudness verwechselt.

Noch ein kurzes Bespiel dazu, weil ich schon wieder zu viel schreibe. Während der Aufzeichnung eines Sprechers mittels Ansteckmikrofon bewegt sich dieser, so das sich sein Schal ungünstig vor das Mikrofon legt. Je nach Stoffart wird das Signal gar nicht unbedingt leiser, die Loudness bleibt also nahezu unverändert. Die Sprachverständlichkeit jedoch wird erheblich verschlechtert, einfach weil Frequenzbereiche bedämpft werden, die zum Verstehen von Sprache sehr wichtig sind. Wenn man die Sprachaufnahmen nicht abbrechen kann, und auch das Missgechick nicht aufheben kann, dann sollte man schnellstmöglich zum EQ greifen, um die Frequenzverschiebung möglichst auszugleichen. Übrigens muss man dies ausschließlich mit den EQ dieses konkreten Mikrofons machen und ausdrücklich nicht mit dem in der Summe, weil ja die Qualität eines weiteren Gesprächsgastes unverändert bleiben soll und muss.
MERKSATZ:Nicht jedes Signal braucht dasselbe Prozessing!
Das kann man schön simulieren, wenn man diesen Prozess einfach mal umdreht, und beim Abhören eines sauber aufgenommenen Signals den Schal vor das eigene Ohr legt.

All solche Dinge gilt es zu berücksichtigen, wenn Töne aufgenommen und aufbereitet werden, und dann ist es sehr wohl möglich sowohl Brüllwürfel als auch High End Systeme zu bedienen, denn der Konsument hört ja konsequent über ein und dasselbe. Außer er verändert seine Abhörsituation ganz bewusst, dann wird er allerdings auch verstehen, weshalb es sich plötzlich anders anhört und anhören muss.

Beste Grüße, Björn
 
Die Sprache/Musik-Kennung (im UKW-RDS ebenso vorhanden wie im seligen DSR-Satellitenradio und im heutigen DVB-System sowie meines Wissens nach auch in DAB) ist recht ungeeignet, ein "flüssig" gefahrenes Programm mit Ramptalk u.ä. zu kontrollieren. Das gäbe dauernd fiese Sprünge, wenn die Lautstärken für M (Mikrofon aus) und S (Mikrofon an) unterschiedlich eingestellt wären. Sowas funktionierte nur bei z.B. ernsthaften Klassiksendungen, in denen es nur entweder oder gibt. Das ist kaum praxistauglich.

Wer die Flüssigkeit von Ramptalks nicht verändern möchte, läßt halt einfach alles in der gesendeten Voreinstellung. Wer sich von zu lauter Sprache, oder Musik gestört fühlt, hätte aber die Chance individuell zu regeln.

Ich hatte einige kurze Jahre das Vergnügen einem DSR/UKW-Kombituner zu lauschen, der diese Sprache/Musik-Codierung, sowohl bei DSR, wie UKW erkannte. Man konnte im Menü eine Lautstärkeanhebung oder Absenkung für Sprache in Stufen einstellen. Das hat auch ganz gut funktoiniert. Auf BR-Klassik sowieso, aber auch auf einem Popmusiksender. RPR war das glaube ich. Auch wenn ich keine ausgesprochenen Ramptalks in Erinnerung habe, so wurde doch in die Musik hineingelabert. Meine -6 dB für Sprache vielen angenehm auf, nicht unangenehm. Unangenehm laut waren Wortbeiträge, die nicht live in ein Mikrofon gesprochen wurden. Die waren auf beiden Sendern nicht mit dem Code für Sprache getagt.

Aufgrund dieser Erfahrungen würde ich mir folgendes wünschen:
- Es gibt eine normale Lautstärke (Wort)
- Es gibt eine "Höre ich gerne lauter" Lautstärke (Musik)
- Im Rundfunkmischpult lösen nur die Quellen, die Musik abspielen, die Codierung "Musik" aus, ansonsten wird kein Code, oder der Code "Wort" gesendet. Im Fehlerfall ist dann nur etwas zu leise, aber nicht zu laut > viel angenehmer als umgekehrt.
- Die beiden Lautstärken lassen sich nicht nur relativ regeln, sondern jede für sich. Am liebsten wären mir 2 Drehregler: ein großer und ein kleiner. (Klar, geht nur bei Receivern.)
- Der Wechsel der Lautstärke erfolgt nicht stufig, sondern mit einer (sehr) raschen Miniblende.
 
Aktuelle Beobachtungen betreffs SWR Info

Ich habe seit gestern immer mal wieder reingehört, über Kabel. Abends habe ich dann festgestellt, dass ja die 20 Uhr Tagesschau auch in SWR Info läuft, wie übrigens noch auf einigen anderen ARD Wellen, die nun alle ihr eigenes, angeblich unverzichtbares Sendeprozessing draufquetschen, das ist denke ich der richtige Terminus.
Somit gibt es also perfekte Möglichkeiten zum Vergleichshören, bestenfalls sogar über dasselbe Wiedergabesystem. Dafür sollte man sich zunächst erstmal selbst die Frage beantworten, ob man beim TV Empfang der Tagesschau den Eindruck hat, an dem Ton etwas verändern zu müssen.
Also die SWR Kollegen meinen dazu offensichtlich, dass man das Signal permanent verdichten und außerdem innerhalb kürzester Zeiträume hochregeln muss, um ja keinen MPX Leistungsverlust verzeichnen zu müssen. Wie sich das dann anhört, das überwacht offensichtlich niemand, um entsprechend zu reagieren. Es pumpt die ganze Zeit munter vor sich hin, in jeder auch noch so kurzen Sprechpause werden Hintergrundgeräusche der Einspielfilme emporgehoben, grauenhaft!

Liebe Kollegen! Die Filme sind bewusst so gemischt, dass die Atmo die Sprache nicht verdeckt und quasi als konstanter Teppich darunter liegt. Das verlangt der berechtigte Wunsch nach Sprachverständlichkeit.

Aber auch bei hr info wird vermurkst, ebenso wie bei NDR1 MV, wobei der NDR auf NDR Info ein etwas sanfteres Prozessing fährt. Also überall klingt ein und dasselbe (eigentlich annehmbare) Ursprungssignal vollkommen anders und in keinem Fall wirklich besser! Besonders schön sind übersetzte O Töne...

Beim sonstigen Verfolgen von SWR Info fallen mir lieblose Sprachaufnahmen, ohne jegliches Prozessing auf, da hat man offensichtlich nicht mal einen Poppschutz vor dem Mikro, geschweige denn einen Low Cut im Kanalzug. Was die resultierende Pegelspitze am auf Maximum getrimmten Sendeprozessor verursacht verringert die Sprachverständlichkeit definitiv, anstatt sie zu erhöhen.

Kurz und gut, dass alles hat mit den Grundansätzen der R128 nichts zu tun, diese sind offenbar nicht verstanden worden.

Beste Grüße, Björn
 
Zuletzt bearbeitet:
Sprache/Musik-Kennung im Radioprogramm als Hörerservice.
Aufgrund dieser Erfahrungen würde ich mir folgendes wünschen:
- Es gibt eine normale Lautstärke (Wort) --- [Anm. A]
- Es gibt eine "Höre ich gerne lauter" Lautstärke (Musik) --- [Anm. B]
- Im Rundfunkmischpult lösen nur () Musik (), die Codierung "Musik" aus, --- [Anm. C]

(...) Im Fehlerfall ist dann nur etwas zu leise, aber nicht zu laut ...
Hallo @radneuerfinder, dazu würde ich Dich gerne unterstützen. Ich habe den Service "Sprache/Musik-Kennung" beim DSR auch geschätzt.

Mir ist z.B. die Trenn-Musik in Bayern2 beim Frühstück teilweise zu laut, weil ich da eigentlich vorrangig Wert auf gut verständliche aktuelle Wortbeiträge lege und zwischendurch auch mal mit meiner Partnerin reden möchte. Ich hatte schon Überlegungen zu einer manuellen Lösung vom Frühstückstisch aus angestellt, wie ich mit einem zeitlich gesteuerten Dämfungsglied im Receiver die Lautstärke auf Knopfdruck um ca. 10 dB absenken könnte. Das würde nach ~ drei Minuten die Dämpfung selbsttätig aufheben oder per Knopfdruck nachtriggerbar (oder löschbar) sein.:cool:
@radneuerfinder
Das "korrekte" Pegeln von Sprache und Musik zueinander ist hochgradig schwierig bis unmöglich.
Die Behandlung dieser Problematik kann IMHO nicht Aufgabe der R.128 sein und sollte beim Hörer gelöst werden können. Dabei würden mich Überblendungen (1...3s) zwischen Sprache und Musik weniger stören, sofern die Moderation wieder rechtzeitig normal laut ist. Da sind halt die Receiverhersteller gefragt, die ja ganze Prozess-Spielwiesen implementieren könnten.

Zu Deinen Wünschen hätte ich folgende kleine Ergänzungen @radneuerfinder:

Zu [Anm. A] "normale Lautstärke = Wort" "live" als Referenz:
das klingt meist immer noch am natürlichsten und unaufdringlich (s. Bayern2, DLF).

Zu [Anm. B] "Höre ich gerne lauter" "oder leiser": siehe Frühstück.

Zu [Anm. C] "Im Rundfunkmischpult () nur () Codierung "Musik":
Evtl. müssten die zugespielten Wortbeiträge (nach R.128) auch die Sprache-Kennung liefern, wenn sie klanglich nicht bearbeitet wurden (O-Töne).

Man kann sich's ja mal wünschen .... :)
 
Wünschen kann man sich vieles, @Tonband... ;)

Nee, es ist wirklich nicht einfach. Ich verfolge die Threads zum Thema hier im Forum (und da gab es schon einige!) auch schon seit vielen Jahren. Wenn, wie bei den Privaten, kein Tontechniker die Sendung "regelt", muß der "Selbstfahrer" halt diese Aufgaben übernehmen. Ich persönlich habe das nie als Problem gesehen, im Gegenteil, denn nur ich war für (seltene und grobe) "Fahrfehler" verantwortlich. Ich habe damals wenigstens noch in die Titel von "CD" reingehört, damit ich wußte, wie "laut" die Titel am Anfang "reinhauen", wenn man sie mit der Reglereinstellung "0dB" abfährt! Damit sind wir doch schon fast beim Thema!

Und ja - natürlich konnte man einen Titel mitunter "volles Rohr" in den Optimod ballern, damit eine Ramp auch mal besonders knackig und knallhart über UKW (und über den Rückkanal) klingt... Das sind alles "Erfahrungswerte" und die "kleinen Spielchen", die man als "DJ" drauf hat - von der bewußten Nahbesprechung eines Mikrofons rede ich ja gar nicht mal. Der "Sound" passte am Ende (über die PA mit einigen kW-Leistung sowieso)...

Sowas kann ich aber von einer (noch relativ) schüchternen Studentin der Journalistik bei ihren ersten Radioversuchen nicht verlangen! Sie ist nicht unbedingt eine "völlig abgekochte" DJ'ane aus dem Nachtclub "von um die Ecke", sondern mitunter wirklich eine zarte Person, die zuvor noch nie ernsthaft mit ihrer eigenen Stimme gearbeitet hat! Die Texte sind völlig okay, aber die Stimme passt einfach nicht. Bitte nicht falsch verstehen: Mit solch einer zarten Stimme kann man vielleicht eine neue "Nivea-Pflegeserie für die selbstbewußte Frau von heute" versuchen zu verkaufen, aber keine Radiosendung!

Der Text wird schon wieder zu lang...

Um das Ganze abzukürzen:

Ich bin der Meinung, daß Selbstfahrer (egal ob Männlein oder Weiblein) rein von der Stimme her absolut souverän "rüberkommen" müssen! Und an dieser Stelle haben wir schon wieder Meinungsverschiedenheiten hier im Forum: Während der Waver (und auch ich) durchaus eine gewisse "Anfettung" des Mikrofonsignals tolerieren (und auch machen) würden, hat mich "dea" schon mal etwas angelassen, weil ich bei Versuchen von Audioaufnahmen für Wikipedia etwas "Dynamics" benutzt habe. Das kann man alles hier nachlesen.


Ich bin der Meinung, daß ich entscheide, wie meine Stimme (ohne Zwang zu einem gewissen Sound bei einem Sender) beim Hörer ankommen und wirken soll. Aus diesem Grund habe ich früher oft "Stimmvergleiche" mit den Moderatoren vom NDR oder hr über MEINE Stereoanlage völlig ohne EQ gemacht. Das klang für mich echt "bitterböse" - niederschmetternd! Mit etwas EQ und Dynamics klang das schon völlig anders! Die Hörer sollten meine Stimme kennen (und auch über einen anderen Sender leicht wiedererkennen können). Ohne EQ muß man halt mit der Nahbesprechung arbeiten. Das lernt man relativ schnell, das ist aber nicht die perfekte Lösung.

Ich gehe mal soweit: Mal abgesehen vom absolut verräterischen Dialekt (da reicht ja schon ein falscher Zungenschlag - ich müßte ein paar Wochen intensiv üben), würde mit einem ordentlichen Mikrofon-Soundprocessing kaum jemand merken, daß ich seit 15 Jahren nicht mehr ernsthaft vor einem Mikrofon gesessen habe! Und genau so geht es diesen jungen Mädels! Man kann die "Stimmchen" schon ordentlich (also nicht übertrieben) "andicken" - und schon klingt die Stimme in einer Sendung richtig gut! Ist das falsch?

Ich verneine das! Wenn man es mit dem Soundprocessing nicht übertreibt, klingt das definitiv "BESSER" (das ist natürlich relativ) und selbst eure Mutti "erkennt" eure Stimme noch! Dann ist doch alles gut! ;)


Ich habe noch weitere Beispiele aus der Vergangenheit, über die man heute in Bezug auf das aktuelle Thema nochmals reden könnte.

Heut nicht mehr.
 
Zuletzt bearbeitet:
! Und genau so geht es diesen jungen Mädels! Man kann die "Stimmchen" schon ordentlich (also nicht übertrieben) "andicken" - und schon klingt die Stimme in einer Sendung richtig gut! Ist das falsch?

Ich verneine das! Wenn man es mit dem Soundprocessing nicht übertreibt, klingt das definitiv "BESSER" (das ist natürlich relativ) und selbst eure Mutti "erkennt" eure Stimme noch! Dann ist doch alles gut! ;)

Aber das Zittern in der Stimme, der jungen, unerfahrenen Kollegin und deren Sprechduktus und Art zu betonen wirst Du mit Prozessing sicher nicht verändern können , also:

Gegen gezieltes und intelligentes, also dem jeweiligen Signal angepassten, Soundprozessing würde ich nichts einwenden. Du sprichst hier allerdings immer von der Stimme, die das ggf auch wirklich benötigt, auch wenn man die schlechte Akustik der heutigen Selbstfahrerglaskästen kennt. Im Fall von SWR Info hört man auch ganz schön, dass Regelzeiten und -Verhalten offensichtlich auf Sprache abzielen. Das Problem zeigt sich bei Mischprodukten, die dann mit falschem Pegel auf die Kennlinie der Dynamics geschickt werden, und schon geht die Pumperei los. Außerdem kommen in diesem Programm die Sprachanteile aus unterschiedlichen Quellen und Produktionsumfeldern, und erfordern ggf etwas unterschiedliches an Bearbeitung, vielleicht auch gar keine mehr.
Also Voiceprozessing natürlich gerne, wenn es zum Beispiel darum geht, einen sehr unausgewogenen, also dynamischen Sprecher etwas kompakter zu bekommen. Und das natürlich gepaart mit gezieltem EQing, hierbei wird übrigens bezogen auf Sprachverständlichkeit teils grober Unfug getrieben. Denn das was gerne mit Andicken erreicht werden will führt häufig zu dumpfen oder mulmigen Tönen. Wenn diese dann auf sauber im Freifeld aufgenommene O Töne Treffen haben wir ein Problem, welches sich auch nicht durch Summenprozessing deutlich verbessern lässt. Denn siehe Mersatz weiter oben:

Nicht jedes Signal braucht dasselbe Prozessing!

Vor allem dann nicht, wenn es sich um Sprache (verschiedenster Herkunft) und Musiken (unterschiedlicher Genres und bereits erfolgtem Prozessing) handelt.
Jedes dieser Signale würde ggf vollkommen unterschiedliche Parametersettings benötigen, diese zu dynamisieren ist auch nicht wirklich sinnvoll, denn das komplette Signal sollte in sich, über die Zeit betrachtet, ein unverändertes Prozessing erhalten, wenn es dieses benötigt. Mein Beispiel von oben mit dem Schal bildet hier natürlich eine Ausnahme, aber auch hier müsste die Veränderung des EQs idealerweise schlagartig erfolgen. Dazu noch ein Beispiel:
Interview mit Handmikro. Der Reporter hält sich selbst das Mikro sehr dicht vor den Mund, dem Gesprächsgast allerdings deutlich weiter weg. Bei jedem Sprecherwechsel verändern sich der Pegel (durch den Abstand) und der Sound (durch den Nahbesprechungseffekt). Die einheitliche Sprachverständlichkeit (nicht mit Loudness oder gar Lautheit gleichzusetzende!) ist nicht gegeben, weil sich das Ohr jedesmal erst an den neuen Sound gewöhnen müsste, was es übrigens in Grenzen durchaus kann. Wenn ein guter Tonmann darauf vorbereitet ist, dann kann er diese Offsets durch Reglerbewegung und Aktivieren/Deaktivieren eines EQs versuchen aufzufangen. Ein automatisiertes Summenprozessing kann nicht derart "intelligent" nicht arbeiten, weil es nicht sieht/hört, wenn sich die Situation verändert. Es kann also nur, nach einer Weile, reagieren und dann spricht vielleicht schon wieder der Andere.

Ich bin überhaupt kein Feind von Prozessing jeglicher Art, wenn es denn wirklich erforderlich ist. Die Entscheidung darüber sollte aber Jemand mit Sachverstand haben.
Dem entgegen stehen aber die heutigen Sendeprozessoren, die vollkommen zweckentfremdet zu Sounddesignprozessoren umfunktioniert werden und eben nicht intelligent mit den verschiedenartigen Eingangssignalen umgehen (können), auch wenn offensichtlich Einige glauben, dies durch abartig kurze Regelzeiten erreichen zu können.

Beste Grüße, Björn
 
Zuletzt bearbeitet:
Björn, unsere Beitäge haben sich jetzt etwas überschnitten. Ich hab im Moment keine Zeit mehr...

-----8<------


Und weiter gehts...

Ein großes Problem sind Telefonate. Genaugenommen ist eine schlechte Verbindung bzw. ein "schlechtes" Telefon auf der Gegenseite der "worst case". Wie will man das live aussteuern? (Mir fällt dazu spontan dieses Telefonat mit diesem Freak ein, der alte Fernschreiber restauriert und am Leben erhält. War das bei Werner Reinke?) Ich stehe ja auf dem Standpunkt, daß Radiosender die neuen Möglichkeiten der Kommunikation mit besserer Tonqualität - Skype beispielsweise - wann immer möglich nutzen sollten. Es klingt einfach besser! Wie das mit der Nutzung laut der AGB rein rechtlich aussieht, kann und will ich nicht einschätzen. Ö3 oder CNN "skypen" aber auch fröhlich rum. Wenn man so will: "MusicTaxi für Alle!" ist heute praktisch auch bei "normalen Hörern" angekommen.

Hier ein Beispiel von SRF1. Hätte der Gesprächspartner nicht nur "normal" vor seinem Laptop (zu weit vom Mikrofon entfernt) gesessen, wäre das Interwiew rein tontechnisch richtig "gut" geworden. Bis 12kHz sehe ich markante Pegel. Das reicht "dicke" für eine sehr gute Sprachübertragung!

Und weil ich gerade bei Ö3 bin. Ich habe dort schon mehrfach gehört, daß Moderatoren auf den Videoclip zum gerade gespielten Titel eingehen ("He, tolles Video! Das müßt Ihr euch unbedingt anschauen!"), da das Video im Sendestudio praktisch auf einem Monitor mitläuft. Ich würde jetzt mal ganz frech mutmaßen, daß auch der Ton vom Musikvideo gesendet wird und es gibt ja "Technische Richtlinien zur Herstellung von Fernsehproduktionen für ARD, ZDF und ORF".

http://www.radioforen.de/index.php?threads/dynamikkompression-auf-audio-cds.26352/page-3#post-448523

Das würde bedeuten, daß man bei Ö3 erstmal Musikmaterial mit mehr Dynamit (gewollter Rechtschreibfehler) in das System gibt. Was Optimod & Co dann daraus machen, steht in den Sternen. Das Ergebnis dürfte aber besser sein, als wenn man eine normale - verhunzte - CDs oder die Files aus der digitalen Bemusterung abspielt.

Gibt es zwischen den Quellen wirklich einen markanten Unterschied?

Und ja, das hat alles mit Loudness & Co zu tun!
 

Anhänge

Ein großes Problem sind Telefonate. Genaugenommen ist eine schlechte Verbindung bzw. ein "schlechtes" Telefon auf der Gegenseite der "worst case". Wie will man das live aussteuern? (Mir fällt dazu spontan dieses Telefonat mit diesem Freak ein, der alte Fernschreiber restauriert und am Leben erhält. War das bei Werner Reinke?) Ich stehe ja auf dem Standpunkt, daß Radiosender die neuen Möglichkeiten der Kommunikation mit besserer Tonqualität - Skype beispielsweise - wann immer möglich nutzen sollten.

Hier ein Beispiel von SRF1. Hätte der Gesprächspartner nicht nur "normal" vor seinem Laptop (zu weit vom Mikrofon entfernt) gesessen, wäre das Interwiew rein tontechnisch richtig "gut" geworden. Bis 12kHz sehe ich markante Pegel. Das reicht "dicke" für eine sehr gute Sprachübertragung!

Und weil ich gerade bei Ö3 bin. Ich habe dort schon mehrfach gehört, daß Moderatoren auf den Videoclip zum gerade gespielten Titel eingehen ("He, tolles Video! Das müßt Ihr euch unbedingt anschauen!"), da das Video im Sendestudio praktisch auf einem Monitor mitläuft. Ich würde jetzt mal ganz frech mutmaßen, daß auch der Ton vom Musikvideo gesendet wird und es gibt ja "Technische Richtlinien zur Herstellung von Fernsehproduktionen für ARD, ZDF und ORF".


Gibt es zwischen den Quellen wirklich einen markanten Unterschied?

Und ja, das hat alles mit Loudness & Co zu tun!

Hallo Zwerg, wenn ich Dich mal so "frech" ansprechen darf,

stimmt, Telefonate sind ein großes Problem. Aber unter anderem auch deswegen, weil man sie ohne aufwendiges und eigenes Prozessing, teilweise gar nicht auf die sonstigen Loudnesslevel bekommt. Auch hierfür ist das Heruntergehen auf -23LUFS in der Produktionsebene ein wichtiger Teilschritt, den Peaklevel haben Telefonleitungen manchmal unfassbar hohe, aber eben keinen entsprechenden Loudnesslevel. In meinem Demomaterial gibt es übrigens auch einen Telefonton!
Wie Du mit Deinem SRF Beispiel ganz schön belegst ist in diesem Fall ja gar nicht die Loudness das Problem, sondern die starke Überlagerung mit Raumanteilen. Ich habe das an anderer Stelle schon einmal mit einem Foto verglichen, auf dem ein Text unscharf zu sehen ist. Einfach nur durch größer machen (also das Audio lauter) wird der Text nicht zwingend besser zu lesen sein. Hier haben wir also die von mir angedeutete Diskrepanz zwischen Loudness und Sprachverständlichkeit.
Übrigens glaubt man gar nicht, wie vollkommen unterschiedlich die Qualität von Telefontönen heutzutage ist, weil ja die Quelle, also der Anrufer auf seiner Seite der Leitung, total unterschiedliche Voraussetzungen anliefert. Das beginnt schon bei der Frage Festnetz oder Handy?, Headset oder Freisprechen?, Telefonnetz oder Internet?. Kombinationen gibt es unzählige und jedes Mal klingt es anders. Ich betreue im TV ab und zu eine Magazinsendung, in der angerufen werden kann und muss wirklich fast bei jedem Anrufer zumindest den EQ anpassen, um ein nahezu einheitliches Klangbild zu erreichen. Das ist einem Selbstfahrer nicht zuzumuten, zumal er dafür auch gar nicht ausgebildet ist. Außerdem kann man es unter Kopfhörern, gerade auf die eigene Stimme bezogen, auch gar nicht beurteilen. Und dass man es auch mit Sendeprozessing nicht in den Griff bekommt beweist uns ja nahezu jede Hörfunkwelle.

Zu der Einspielung aus dem TV in einer Hörfunksendung:
Da wäre erstmal die Frage, über welchen Weg das TV Signal empfangen wird, und ob die technische Anpassung (Bezugspegel) sauber erfolgt. Außerdem nutzt es eben nichts, wenn man in der Hörfunkregie ansonsten nicht nach Loudnessleveln bzw. auf denselben Zielwert produziert. Wenn man das Thema "loudnessbasierte Aussteuerung" ernsthaft verfolgt, dann muss man es auch richtig machen. Und das bedeutet nunmal, auf der kompletten Produktionsebene Audio nicht nach Peaklevelen, sondern nach Loudnessleveln zu bewerten!!!
SWR info beweist, wie man es falsch macht. Deshalb wundern sich ja auch so viele, weshalb es nicht funktioniert und behaupten, dass es ja gar nicht funktionieren kann.

Also ich will gar niemanden langweilen, aber richtig angewendet verringert die loudnessbezogene Aussteuerung viele der derzeitigen Probleme, weil das so erzeugte Signal dem was wir mit gehörrichtiger Aussteuerung meinen, sehr nahe kommt. Eine Anpassung auf einen speziellen Verbreitungsweg (UKW) kann unabhängig davon trotzdem erfolgen, auch wenn sie eigentlich nicht zwingend notwendig ist, auch das habe ich weiter oben schon mit eigenen Erfahrungen kommentiert.

Beste Grüße, Björn
 
Zurück
Oben