Der Soundprocessing-Thread

Status
Für weitere Antworten geschlossen.

Wenn an R128 etwas grundsätzlich „nicht passt“ wie Du [USER=7941]@ADR
schreibst, habe ich die letzten knapp 10 Jahre wohl einen lausigen Job gemacht - denn das muss mir irgendwie entgangen sein.
Mich interessiert wirklich, was Du genau meinst, kannst Du Deine Kritikpunkte konkret benennen?

Allerdings - dass Privatsender die Angelegenheit durchaus anders handhaben, konnte ich an Serien und Spielfilmen auf RTL 2 feststellen. Da hört man eine AGC-Achterbahn vom feinsten, leise Atmo-Passagen werden locker 30dB hochgeregelt und beim nächsten Dialogeinsatz bretthart wieder runtergeprügelt. Am Ende stehen dann wohl auch integrierte -23LUFS auf dem Messeisen, aber verstanden wurde das Prinzip anscheinend nicht...

Ich habe geschrieben:

R128 gibts, findet aber im Radio keine Anwendung. Na vielleicht bei ein paar Öffis.

Fakt.

R128 ist aber auch nur son Schätzeisen, für mein Hörempfinden haut das noch nicht hin. Dynamik- und Frequenzverteilungsunterschiede bleiben trotzdem.

Ist meine subjektive Einschätzung. Nur weil etwas Industrienorm ist, muß es nicht vollkommen ausgereift sein. Ich könnte ja nen Knick in den Horchern haben, kann man nicht ausschließen.

Beim Fernsehen wendet man R128 an und was macht man trotzdem? Richtig, man bügelt nem Optimod drüber.

Auch Fakt. Und wenns kein Optimod ist, dann etwas ähnliches aus der Kategorie Soundprozessing. Von mir aus Jünger. Dennoch wissen wir, dass der Brgriff "Optimod" als Synonom für Soundprozessinggeräte im als letzte instanz vor der Ausspielung gilt, auch wenns nicht der Original Orban ist. Bitte nicht immer so kleinlich.

Hier eine Hüllkuve von 5 min Weltspiegel im Ersten. Die Tatsache, dass da eine Dynamikbearbeitung stattgefunden hat, kann wohl niemand bestreiten. Sieht nicht so krass wie beim Radio aus, dennoch schön drüber damit, trotz R 128 ...

Weltspiegel.jpg
 
Zuletzt bearbeitet:
Solange zu dem Pegelbild keine Information vorliegt, an welchen Stellen Moderation, Reportage, Interview mit welcher Art von Geräusch, Off-Kommentar usw. zu hören ist oder auch nicht, ist dieses grün-schwarze Teil für irgendeine Erkenntnis völlig wertlos.
 
Ich habe geschrieben:

R128 ist aber auch nur son Schätzeisen, für mein Hörempfinden haut das noch nicht hin. Dynamik- und Frequenzverteilungsunterschiede bleiben trotzdem.

Ist meine subjektive Einschätzung. Nur weil etwas Industrienorm ist, muß es nicht vollkommen ausgereift sein. Ich könnte ja nen Knick in den Horchern haben, kann man nicht ausschließen.
Das bleibt Dir völlig unbenommen, Deine Meinung wollte ich damit nicht kritisieren.
Angezweifelt habe ich diese Aussage:
Beim Fernsehen wendet man R128 an und was macht man trotzdem? Richtig, man bügelt nem Optimod drüber.

Auch Fakt. Und wenns kein Optimod ist, dann etwas ähnliches aus der Kategorie Soundprozessing. Von mir aus Jünger. Dennoch wissen wir, dass der Brgriff "Optimod" als Synonom für Soundprozessinggeräte im als letzte instanz vor der Ausspielung gilt, auch wenns nicht der Original Orban ist. Bitte nicht immer so kleinlich.
Was heisst kleinlich? Mir ging es natürlich nicht um den Herstellernamen, der auf dem Gerät klebt.
Klar kann ein Jünger T*AP auch "bügeln" und ein Optimod so eingestellt werden, dass er fast nichts tut.
Ich hob ab auf Deine Aussage, dass es Fakt sei dass am Ende trotz durchgängiger Produktion nach R128 ein Gerät ein Processing durchführt, das die Vorarbeit wieder kaputtmacht. Und dazu hätte ich gern wenigstens ein Beispiel, damit das keine bloße Behauptung bleibt.
Deshalb meine etwas ausholende Abhandlung darüber, wie das ganz konkret bei meinem Arbeitgeber gehandhabt wird. Und bei aller Bescheidenheit, das ist halt keine 3-Mann-Bude, und speziell in der Lautheits-Problematik treibende Kraft gewesen.
Hier eine Hüllkuve von 5 min Weltspiegel im Ersten. Die Tatsache, dass da eine Dynamikbearbeitung stattgefunden hat, kann wohl niemand bestreiten. Sieht nicht so krass wie beim Radio aus, dennoch schön drüber damit, trotz R 128 ...

Anhang anzeigen 18311
Die Hüllkurve sagt inhaltlich genau was? Zweikanaliges Audio, und das geübte Auge interpretiert das Signal als Sprache. Moderation? Beitrag?
Einen konkreten Klang kann zumindest ich daraus nicht rekonstruieren, und die R128-Messwerte fehlen.
Ohne vorher-nachher Vergleichsmaterial leider nutzlos als Indikator, ob/wo/wann/welche Dynamikbearbeitung stattgefunden hat. Der Weltspiegel sendet Beiträge aus aller Herren Länder, die unter unterschiedlichsten Bedingungen produziert werden. Da gibt es eine große Varianz an Klang- und technischer Qualität.
Ganz sicher hat da in den einzelnen Beiträgen und auch bei der Studioproduktion Dynamikbearbeitung stattgefunden - mindestens der Toning. mit der Hand am Regler, und wahrscheinlich auch Kompression im Mikrofonkanal des Moderators, und ganz eventuell in den einzelnen Beiträgen.

Also, was sind hier Fakten? Für mich ist das leider erst einmal nur Glaskugel.
Bitte fühle Dich davon nicht persönlich angegriffen, mir geht's um die Sache.
 
Zuletzt bearbeitet:
Dann glaube ich aber, dass der Begriff "Loudness" in diesem Zusammenhang einfach falsch benutzt wird.

Ja mit den Begriffen Lautheit und Loudness ist es nicht so einfach. Im Englischen und in der R128 wird von Loudnessleveln gesprochen und fälschlicherweise ins Deutsche als Lautheit übersetzt, für die es jedoch eine ältere Definition gibt.
Für mich ist Loudness das Gefühl, der Eindruck der am Ohr erzeugt wird. Ein Loudnesssprung lässt mich intuitiv zum Volumeknopf greifen, um den gewohnten Eindruck wieder herzustellen. Das soll durch loudnessbasiertes Aussteuern und Produzieren überflüssig werden.
Ein interessantes Missverständnis ist zudem noch, dass gleiche Loudness nicht gleichzusetzen ist mit gleicher Sprachverständlichkeit, Durchsichtigkeit und Transparenz sowie Tiefe im Klang und Frequenzverteilung. Damit sind wir dann wieder beim Sound.
Jedoch dieses Beispiel hier:
Hier eine Hüllkuve von 5 min Weltspiegel im Ersten. Die Tatsache, dass da eine Dynamikbearbeitung stattgefunden hat, kann wohl niemand bestreiten. Sieht nicht so krass wie beim Radio aus, dennoch schön drüber damit, trotz R 128 ...
...verstehe ich nicht ganz. Denn ein 5min Ausschnitt aus einem Nachrichtenformat lässt sicherlich keine guten Vergleiche zum Unterhaltungsradio zu. Wir sehen hier hauptsächlich Sprache aus Studio und Beitrag mit ggf Hintergrundgeräuschen. Die Peaks (welche Integrationszeit?) landen um -9dBfs, allerdings nicht glatt gebügelt! Vielmehr sehen wir das, was gerne mal als dynamisch bezeichnet wird, obwohl es nicht dynamisch im Sinne von laut und leise ist, sondern "peakleveldynamisch'. Und somit sieht am Ende das Pegelbild eben ziemlich gleichmäßig aus, weil gleichermaßen nach R128 produziert wurde und es sich nur um eine Art Signal, also Sprache handelt. Also keinerlei Voodoo Processing, weil es nicht notwendig ist.

Beste Grüße, Björn
 
Zuletzt bearbeitet:
und das geübte Auge interpretiert das Signal als Sprache
...und zwischen 0:22 und 0:42 sowie 1:01 bis 1:35 sehr wahrscheinlich eine Männerstimme. Und weil man das sehen kann, steht auch eine weitere für die Audioqualität positive Aussage, die für Hör-Rundfunk leider eher selten getätigt werden kann.
 
Zuletzt bearbeitet:
Guter Punkt @marillenfreund der auch zu selten zur Sprache kommt - das Einhalten der R128 Grenzwerte sagt nichts über die inhaltliche/klangliche Qualität einer Mischung aus, und mit Sprachverständlichkeit hat das erst einmal gar nichts zu tun.
Da kommen wir aber langsam etwas weit vom Thema des Fadens ab.
 
Auch Fakt. Und wenns kein Optimod ist, dann etwas ähnliches aus der Kategorie Soundprozessing. Von mir aus Jünger. Dennoch wissen wir, dass der Brgriff "Optimod" als Synonom für Soundprozessinggeräte im als letzte instanz vor der Ausspielung gilt, auch wenns nicht der Original Orban ist. Bitte nicht immer so kleinlich.

Hier eine Hüllkuve von 5 min Weltspiegel im Ersten. Die Tatsache, dass da eine Dynamikbearbeitung stattgefunden hat, kann wohl niemand bestreiten. Sieht nicht so krass wie beim Radio aus, dennoch schön drüber damit, trotz R 128 ...

...nochmal dazu, also im Ersten, aus dessen Programm diese Beobachtung stammt, bügelt definitiv nichts drüber, was in irgendeiner Art speziell den Sound verändert, sondern Jünger limitiert Truepeaks auf -3dBTP ,damit folgende Codecs nicht clippen. Außerdem kann ein Jünger Level Magic evtl. moderat und ruhig eingreifen, was selten vorkommt. Wenn Material entsprechend als R128 gekennzeichnet bist, dann wird der LM sogar automatisiert in Bypass gesetzt.
Falls an einem Beleg hierfür Interesse besteht, dann könnte man mal solch einen Pegelschrieb von den letzten Minuten vor der 20.00 Tagesschau machen. Da laufen Werbung, Börse, Wetter, Wissen vor acht und dann die Tagesschau, somit also relativ kurze, teils sehr verschiedene Elemente von verschiedenen Produzenten. Das entspricht dann schon eher dem Rundfunk, jedoch würde ich prognostizieren, dass jeder dieser Blöcke für seine komplette Dauer unverändert denselben Peaklevel zeigt, der jedoch ggf ein anderer sein kann als der des nächsten Elements. Warum?, weil R128 keinen Peaklevel, sondern einen durchschnittlichen Loudnesslevel als Referenz nutzt und eben nichts drüber bügelt.
index.php
Insofern sehen wir dann eben vielleicht so etwas hier. Aber das ist ein schöner Moment darauf hinzuweisen, dass das Gesehene noch nichts über das Gehörte sagt. Ich habe allerdings leider bei Hörfunkentscheidern oft Diskussionen über Ausdrucke von MPX Leistungskurven erlebt, ohne dabei die zugehörigen Programmteile anzuhören.
Und genau darum geht es hier doch auch, dass offenbar alles Starren und Manipulieren durch Processing jeglicher Art, nicht zu gutem Klang führt ;)

Beste Grüße, Björn
 
Da kommen wir aber langsam etwas weit vom Thema des Fadens ab.

na vielleicht ja doch nicht, wenn man sich folgende Betrachtungsweise zu eigen macht:
1. die eingestellte Abhörlautstärke wird in der Regel an der Moderation festgemacht
2. wird etwas als zu leise beschrieben, kann dies auch am dumpferen Klang liegen. Das sehen wir ja jetzt ganz schön durch Corona. Ich bezweifle, dass wir alle jetzt plötzlich leiser sprechen, die Stoffe vor unserer Schallaustrittsöffnung verändern jedoch den Frequenzgang sehr ungünstig für Verständlichkeit von Sprache!
3. selbst an anderen/schlechteren Klang gewöhnt man sich recht schnell, allerdings führt der Wechsel von generellen Klangbildern schnell zum Eindruck von lauter und leiser, obwohl es ggf. mittiger und dumpfer ist
4. das ist ausdrücklich keine Rechfertigung für das Gleichmachen von Klang oder dem Versuch danach, denn hier sprach ich erstmal nur von Sprache, und auch jede Stimme hat ihren eigenen Klangcharakter. Außerdem kann die Anhebung von 200Hz in ein und derselben Stimme teils katastrophale Auswirkungen haben, abhängig davon mit welchem Mikrofon wo aufgenommen wurde! Gezieltes Processing mittels EQ und ggf Kompressor ist erforderlich.

Beste Grüße, Björn
 
@marillenfreund
Kann ich vollumfänglich unterzeichnen. Oder in Kurzform:
Ein geschultes Ohr (besser zwei...) und Fachkenntnis sind durch nichts zu ersetzen.

Ergänzung zu Deinem 1. Punkt:
Der „Urschleim“ der EBU-Richtlinie 128 ist der Ton der Tagesschau, da sie einen hohen Wortanteil hat - und der Ankerpunkt für die -23LUFS ist Sprache. Es wurde seinerzeit die durchschnittliche Lautheit der Tagesschau gemessen, und es ergaben sich in etwa -19 bis -21LUFS. Konventionell ausgesteuert (und limitiert) auf -9dBFS.
Dass dumpfer (=höhenarmer) Klang als subjektiv leiser empfunden wird, hat dann wieder etwas mit den Eigenschaften des menschlichen Ohres zu tun (Kurven gleicher Lautheit); die in R128 angewandte Bewertungskurve (K) hat deshalb eine Höhenanhebung ab 1kHz:
7391849C-D8F4-47DA-AD7B-4939F18E341F.png

Hier noch eine zufällig gefundene Zusammenfassung, die ich sehr gut und verständlich finde:
https://www.eubel.de/internetz/index.php/audiotechnik-der-gute-ton/ebu-r128
 
Schwierig wird es bei unterschiedlich dumpfen Bestandteilen auch dadurch, dass es dann noch stärker auf die Abhörumgebung ankommt, wie die Lautheit (oder besser dann: Verständlichkeit) empfunden wird. Unter dem Kopfhörer mag ein dumpfer Beitrag noch als gleich laut empfunden werden, aber mit Umgebungsgeräuschen (z.B. Autofahrt) gehen dumpfe Anteile schneller unter.
Es passiert mir oft, dass ich bei per Telefon zugeschalteten Wortbeiträgen lauter drehen muss. Das kriegt übrigens auch kein brachial eingestellter Optimod gut hin (er kann ja keine nicht vorhandenen Frequenzanteile anheben).

Also müsste man dumpfe Bestandteile höher pegeln als eigentlich nach R128 ermittelt, um es für die typischen Abhörsituationen möglichst tauglich zu machen. Kann aber in ruhiger Umgebung dann als unangenehm empfunden werden.
 
Zuletzt bearbeitet:
Das ist aber ein generell ungünstiger Fall, den ich im Produktionsstudio nur schwer antizipieren kann.
Im Studio wird per Lautsprecher abgehört, und üblicherweise ist es eher still was Fremdgeräusche angeht.

Lösungsvorschlag: "dumpfe" Aufnahmen filtern ;) naheliegend, aber in der alltäglichen Arbeit wird dieses Werkzeug der Klanggestaltung, ebenso wie die fachgerechte Nutzung der Lauschlappen, zunehmend unterschätzt...
Daraus resultiert dann wohl auch der Versuch, mit wie auch immer geratenem Processing am Ende zu retten, was am Anfang versägt wurde.
 
Es passiert mir oft, dass ich bei per Telefon zugeschalteten Wortbeiträgen lauter drehen muss. Das kriegt übrigens auch kein brachial eingestellter Optimod gut hin (er kann ja keine nicht vorhandenen Frequenzanteile anheben).

Ich werde dazu mal ein Audiofile erstellen und hochladen. In der Regel liegt das an der Tatsache, dass Sprecher im Studio und Telefonhybrid unterschiedlich laute (Loudnesslevel) Signale liefern und diese dann so direkt aufeinander treffen. Ein nachgeschaltetes Processing (das nicht hört sondern auf Peaklevel schaut) kann dies natürlich nicht sinnvoll anpassen. Häufig wird ja heute versucht, die Sprechersignale an der lauten Werbung oder Station ID zu orientieren. Dagegen kann der unbearbeitete Ausgang des Telefonhybriden natürlich nur verlieren.
Übrigens liegt das Problem beim Telefon nicht nur am Frequenzgang, denn klassische Telefonsignale (300Hz-3000Hz) sind für Sprachverständlichkeit eigentlich eher ein Traum, auch wenn es nicht schön klingt. Neue Arten der Verbindung über Internet, Mobilfunk etc bieten teilweise zwar mehr Frequenzbereich an, in dem liegen aber häufig eher Störsignale der Übertragung, was die Sprachverständlichkeit wieder verringern kann. Abgesehen davon, dass die Peaklevel der Störungen ggf das Sendeprocessing "verwirren" können. Und leider liegen, abhängig vom verwendeten Gerät auf der Anruferseite (Kabeltelefon, DECT Telefon, Handymarke xyz, mit oder ohne Headset oder Bluetooth.......) Welten zwischen den Signalen bezüglich Peaklevel, Loudnesslevel und Klang. Ich betreue selbst öfter TV Sendungen mit Zuschauerbeteiligung und kann sagen, ohne sinnvolle Kompression, EQing und evtl. das Mitregeln des ankommenden Signals (NICHT DER SUMME!!!) geht da eigentlich gar nichts. Und jetzt hat uns Corona auch noch das vermehrte Schalten per Skype geschenkt, wo Geschriebenes natürlich ebenso Probleme machen kann.

Beste Grüße, Björn
 
Weil es generell ganz gut zum Thema Processing, Sprachverständlichkeit usw. passt, hier mal ein kleines Beispiel aus dem www


Man beachte, dass aus ein und demselben Studio zwei komplett verschiedene Sprachsounds kommen können, was in diesem Fall definitiv nicht an den verwendeten Mikrofonen liegt. Vielmehr noch könnte "absolute Radio" enorm viel Geld für die Moderatorenmikros sparen, wenn dieser Sound gewollt ist ;). Naja, aber das ist ja immer Geschmackssache, es ist eben nur merkwürdig, weshalb man nicht für alle Mikros eine Gruppe mit Sprachprocessing bildet. Denn auch hier ist das Problem hausgemacht, wenn das Sendeprocessing (im Sendekomplex) daraus nichts Vernünftiges machen kann. Und sich darauf im Produktionsstudio zu verlassen bringt auch nichts, wenn das UKW Processing (das dafür ohnehin nicht gedacht ist) nicht für die Aufzeichnung genutzt wird, die man dann im Netz findet.
Messtechnisch habe ich mir das jetzt nicht angesehen, aber ich vermute mal, dass die höchsten Peaks in den Parts von Roger Waters zu finden sind, während der Moderator mit den Peaks deutlich darunter liegen wird. Was zumindest belegt, dass Peaklevelbewertung für Loudnessbeurteilung ungeeignet ist.
Aber auch hier kann man gar nicht pauschal sagen, was richtig und was falsch ist. Was stört sind nur die sehr deutlichen Unterschiede der beiden Sprachsounds. Erst dadurch entsteht unterschiedliche Sprachverständlichkeit.

Beste Grüße, Björn
 
Zuletzt bearbeitet:
Bemerkenswert vor allem deshalb, weil beides hochwertige Mikrofone desselben Herstellers sind, mit denen trotz Modellunterschied eine gleichsam ähnlich- und wohlklingende Sprachaufnahme machbar ist.
Roger Waters klingt halt recht "roh", kein EQ, kein Kompressor. Nicht einmal Trittschallfilterung, das Spektrum reicht bis 40Hz.
Gekontert vom Moderator mit überreichlich Präsenz und Höhen ein sehr auffälliger Unterschied.
Irgendwo in der gedachten Mitte dieser beiden Extreme dürfte sich ein sehr tauglicher Klang finden ;)
 
Waters hat da doch ein KMS105 oder 104? Was haben die mit diesem Mikrofon gemacht? Hilfe, klingt das mulmig? Water sgeht auch zu nahe ran, das dickt zusätzlich auf. Geht er etwas weiter weg, wird es leicht angenehmer, verliert aber komplett die Durchsetzungsfähigkeit.

Nun stelle man sich mal ein Studio mit ordentlicher Akustik vor, in dem beide Sprecher Mikrofone auf vielleicht 20-30 cm Abstand hätten, ohne Tiefenabsenkung. Keine große Abstandsempfindlichkeit mehr bei normalen Bewegungen, sauberer Sound, ...
 
Waters hat da doch ein KMS105 oder 104? Was haben die mit diesem Mikrofon gemacht? Hilfe, klingt das mulmig? Water sgeht auch zu nahe ran, das dickt zusätzlich auf.

...nach meiner Erfahrung ist das der pure Klang des Mikros bei Nahbesprechung, es neigt auch zum Ploppen. Die Kombination mit der Stimme eines älteren Herren, der in einer Plauderei nicht jede Silbe sauber artikuliert und schon gar nicht gleichmäßig laut spricht macht es nicht besser.

Roger Waters klingt halt recht "roh", kein EQ, kein Kompressor.

...das teile ich daher. In Kombination mit dem Bearbeitungswahnsinn des Moderationsweges ist das technischer und gestalterischer Unfug.
Wir haben hier ein vergleichbares Beispiel zum Telefonteilnehmer, nur das das unbearbeitete Signal in diesem Fall zur Bearbeitung mehr Substanz bietet.

Interessant wäre für mich natürlich, ob und wie soetwas nun mittels Summen-/Sendeprocessing zu verbessertem Loudness- und Sprachverständlichkeitsverlauf gebracht werden kann. Das Audio liegt ja vor....

Beste Grüße, Björn
 
Vielleicht ist es ein KMS 104/5+, das hat eine recht herzhafte Tiefenanhebung ab Werk (wer braucht so etwas eigentlich?).
Der Schaumstoffball tut sein bestes um oberhalb von 2kHz wenig übrig zu lassen, und dann ist es eben die eher nicht mehr so präsente Aussprache von Herrn Waters, und was auch erwähnt werden sollte: die englische (Aus)Sprache ist verglichen mit Deutsch deutlich ärmer an Transienten und hat an sich spektral weniger Anteile in den Höhen - wenn man sie nicht durch einen Exciter wurstet.

Ein KMS kann man schon (diszipliniert) nah besprechen bzw. besingen, ein gewisser Eierlikörkonsument macht damit handfesten Roggenroll, geht schon, auch wenn man dann sicherlich im Bereich 300-500Hz etwas absenken muss, damit es nicht so „spuckig“ klingt. Aber da gibt es eindeutig schlimmere Kandidaten, Shure Beta87 zum Beispiel.
Auf Sennheiser-Handsendern ist mir die KK104/5 der Favorit, damit kann man nahezu alles mikrofonieren, vom Moderator bis zum Musikanten.

@marillenfreund Du bringst mich da auf eine Idee. Wir haben da auf Arbeit so ein „Kistchen“ stehen (=in der Kreuzschiene schaltbar), durch das ich das Audio mal schicken werde. Wird aber frühestens Donnerstag früh etwas werden. Und dann muss ich noch einen Weg finden, das Resultat hier zu verlinken.
 
durch das ich das Audio mal schicken werde.

...das wäre wirklich mal interessant. Nicht dass ich das für den richtigen Weg halte, aber es gebe mal nachvollziehbare Prozesse, wenn man das Originalmaterial kennt. Besonders von Interesse ist das was passiert, wenn die beiden Signale im Wechsel aufeinander treffen. Somit könnte man sich einige Mutmaßungen ersparen und Schlüsse ziehen, was wohl mit viel komplexeren Signalen passiert, wenn nämlich Musiken hinzu kommen...
 
In Kombination mit dem Bearbeitungswahnsinn des Moderationsweges ist das technischer und gestalterischer Unfug.
Wir haben hier ein vergleichbares Beispiel zum Telefonteilnehmer, nur das das unbearbeitete Signal in diesem Fall zur Bearbeitung mehr Substanz bietet.
Der Moderator klingt mir eindeutig zu grell und überzogen, aber das muss wohl so sein. Ist wahrscheinlich sogar auch Absicht, auf den Gast nicht die gleiche Bearbeitung drauf zu legen, damit er dem Moderator in der Präsenz nicht die Show stehlen kann. So mumpfig müsste es aber auch nicht sein. Wäre interessant, wie das dann bei Absolute Radio on-air zu hören war.
 
...das wäre wirklich mal interessant. Nicht dass ich das für den richtigen Weg halte, aber es gebe mal nachvollziehbare Prozesse, wenn man das Originalmaterial kennt. (…)
Wäre auch nicht mein Weg um solche Signale einander anzunähern. Ich sehe das unter dem Vorzeichen "Experiment" und bin gespannt, was dabei herauskommt.

(…)Ist wahrscheinlich sogar auch Absicht, auf den Gast nicht die gleiche Bearbeitung drauf zu legen, damit er dem Moderator in der Präsenz nicht die Show stehlen kann.(…)
Wenn das die Motivation ist - was für eine verquere Denke... aber das ist ähnlich wie beim Fernsehen in Zeiten vor R128, wo einige Autoren meinten, ihr Sprechertext müsste unter allen Umständen immer lauter sein als die O-Töne.
Auf diese Haltung trifft man zum Glück nicht (mehr) oft.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben