Sorry, da muß ich auch passen. Mich irritiert sogar das Ansinnen, über sowas - sorry - unbedeutendes wie die Webchannels einer ÖR-Anstalt eine Bachelorarbeit auszugeben. Ich war bislang naiv davon ausgegangen, daß es schlicht niemanden innerhalb der Anstalten interessiert, wie die Webchannels klingen und was dort an technischen Parametern abgesondert wird. Es gibt dafür ja auch keine "Polizei" wie im Falle von UKW, wo die BNetzA darüber wacht, daß die Modulationsgrenzwerte nicht überschritten werden. Möglicherweise habe ich die Bedeutung der Webchannels bislang völlig falsch eingeschätzt.
Ob es "wissenschaftliche" Quellen zur "Klanggestaltung" (meint das "Klangverbiegung" durch Soundprocessing?) gibt, weiß ich nicht. Es gibt einige Papers von Orban und Foti, in denen sie (teils gemeinsam) erklären, was alles am Klang kaputtgehen kann, wenn man ihre zum Klang-Kaputtmachen entwickelten Geräte benutzt. Das wirkte auf mich immer absurd, aber sie unterscheiden da offenbar zwischen "gewollt kaputt" und "außerdem passiert noch dieses und jenes" - für mich war "kaputt" immer "kaputt".
Einen Ansatz findet Du z.B. hier:
http://www.orban.com/support/orban/techtopics/Appdx_Radio_Ready_The_Truth_1.3.pdf
Für mich ist das aber alles nicht "wissenschaftlich", das ist letztlich nur etwas Messtechnik (wenn überhaupt bei ausschließlich Webchannels ohne FM-Verbreitung), angereichert mit einer sehr sanften Form von Psychoakustik (ohne dahinter zu steigen, warum wir bestimmte Signale wie genau empfinden). Warum Programme genau wie (und wie wiederum nicht) klanglich verbogen werden, dürfte kaum auf wissenschaftlichen Erkenntnissen beruhen, sondern auf Berater-Überzeugungsleistungen und den ganz privaten hörpsychologischen Vorlieben oder Perversionen der Chefs des jeweiligen Programms. Bei den "Abhörsitzungen" sind es soweit mir bekannt immer die, die "mehr Sound!" wollen, die Techniker müssen dann "Schnauze halten" und es leise weinend umsetzen - im Falle von UKW oder mit UKW gleichgeschalteten Verbreitungswegen halt unter Wahrung der Grenzwerte.
Sehe gerade, für das Paper "What Happens to My Recording When it's Played on the Radio?"
will die AES Geld haben, ich hau mich weg... dann
hier halt von Telos für lau.
Zum Workflow bei R128 empfehle ich, mal mit eines der Mitglieder der AG Lautheit des ARD-Hörfunks zu kontaktieren. Bis auf einen - der ist im Ruhestand. Stichpunkte dabei sind z.B. die Lautheitserfassung bei Neubemusterung mit Einzeltiteln, die Methoden der "Dazugabe" der lautheitsrelevanten Daten (in Datenbank ablegen und beim Ausspielen immer live draufrechnen oder einmalig ins File eincodieren bei der Erstellung der (meist) MP2-Fassungen für den Sendesepeicher) und die Arbeitsabläufe bei Vorproduktionen, Telefoninterviews, Einstellung der Mikrofonwege, ARD-weiter Programmaustausch und die Folgen von R128-"Insellösungen". Der BR dürfte da sehr kompetent sein, er arbeitet nach R128, der restliche ARD-Hörfunk ist jedoch kaum so weit. Da könnten Fallstricke beim Programmaustausch lauern, die man vom Praktiker erfahren kann.
"Wissenschaftlich" ist das für mich immer noch nicht. Ich war so naiv zu glauben, man packt das Zeugs nach R128 gepegelt aufn Server, macht die Verpackung und das andere Drumherum auch R128-konform und raus damit auf den Livestream - mit nem Schutzlimiter, der vielleicht bei -3 dBFS greift, ggf. mit 5 dB Kompression für UKW-ähnliche Lautheit trotz -23 LUFS im Sendespeicher, ggf mit schön perversem Soundprocessing, wenns der Wellenchef wünscht.
Ein Hinweis noch: Datenreduktion macht bekanntlich Artefakte und Artefakte sind erstmal nichts weiter als Abweichungen einzelner Samples von den Originalwerten vor der Datenreduktion. Diese Abweichungen können statistisch einzelne Samples erhöhen oder erniedrigen, also auch ein Sample nahe der positiven Clippinggrenze jenseits derselben befördern (also es versuchen, geht ja nicht wirklich) oder ein Sample nahe der unteren (negativen) Clippinggrenze nach unten rausschieben. Also: wenn Datenreduktion, dann danach immer Erhöhung des Betrages von Einzelwerten, also Spitzenpegel(dBFS)erhöhung und natürlich auch TPFS-Erhöhung. Lautheit und RMS werden davon nicht beeinträchtigt, da die Abweichungen statistisch sind und Einzelwerte betreffen.
dBFS endet dann halt bei 0 dBFS, TruePeak geht locker drüber. Man holt sich also Übersteuerungen, wenn man mit hart auf "Kante" gemastertem oder prozessierten Material nahe der digitalen Vollaussteuerung in einen verlustbehafteten Audiocodec geht. Das kann bei MP2 und z.B. 192 kbps schon einige dB ausmachen! Im Falle einer UKW-Zuführung wäre das dann hub-entscheidend und verlangt besondere Beachtung (z.B. noch nen Schutzlimiter an jedem Senderstandort!). Im Falle eines (MP3-)Livestreams kommt es auch zum Clipping, wenn man zu hoch gepegelt in den Codec reingeht. Nach R128 erwarte ich "aus dem Bauch heraus" aber kaum Probleme, denn da sind nur wenige Spitzen bei dynamikreichem Material wirklich nahe der 0 dBTP, während ein typischer Popradio-Murks mit seiner Brachialkompression kaum je über -5 dBTP kommen sollte, wenn er eine Loudness von -18 LUFS hat. Bei -23 LUFS ist man mit den Briketts sowieso weit weg von der Clippinggrenze.
Das plattkomprimierte Gelumpe, das man ohne R128 auf nicht-UKW-Wegen so schön bis an die Clippinggrenze ziehen konnte, wird bei Pegelung nach R128 extrem "gedimmt" und zu einem ärmlichen plärrenden, völlig untergehenden (da dynamikfreien) Soundbrei. R128 zerschießt einem also, wenn man damit wirklich bis zum Hörer will, das abartige Lautheitsansinnen komplett. Zum Glück.