1. Mit etwas Übung (also einfach Sendungen fahren) und der passenden Stimme weiß man nach einiger Zeit einfach, wie das ganze Soundprozessing des Senders reagiert und wie man ins Mikrofon sprechen muß, um einen gewünschten Effekt (z.B. cooler Tiefbass: "Hey Baby - Ich liebe dich!") zu erreichen. Wichtig dabei ist eigentlich nur, daß man als Moderator das Sendesignal (früher praktisch ohne Verzögerung über UKW) im Ohr - also auf den Kopfhörern im Studio - hat. Dann kann man mit dem Mikrofon und seiner eigenen Stimme "spielen"! Ich wußte damals jedenfalls genau, wie meine Stimme im Radio klingen sollte...
2. Wer im Video genau hinschaut, sieht aber auch, daß Ron die Regler bei "Bedarf" (Telefonanrufer) minimal nachregelt (die Unterlegmusik etwas weiter runterzieht). Er macht das rein "gefühlsmäßig", weil er offenbar den "Master-Mix", der über den Sender geht, im Ohr hat. Und nur so wird das was! Als Selbstfahrer hat er die Tonregie!
3. Zum Hall:
Ähm - ich dachte bisher eigentlich, daß etwas Hall in der Stimme die Sprachverständlichkeit bei lauten Umgebungsgeräuschen (hier die laute Unterlegmusik) erhöht. Die Amateur- oder CB - Funker kennen sicherlich die Mikrofone "mit Hall", die man kaufen kann. Wenn man es mit dem Hall nicht übertreibt, kommt die Stimme durchaus "etwas besser" durch. Stimmt das so - oder ist das Unfug?
zu 1.
eben, er
hört sich das an, was nach draußen geht und reagiert (richtig) darauf, insofern steuert er also nach Loudness aus, also danach, wie die verschiedenen Klänge
zueinander klingen. Wie das Ganze dann am Ende auf einem Pegelinstrument
aussieht ist ihm herzlich egal, dass macht das Sendeprocessing, welches in erster Hinsicht eigentlich kein Soundprocessing ist und derart verstanden werden sollte. Dass da am Ende einfach alles platt gepresst wird hören wir (hoffentlich) alle, von der ursprünglichen, künstlerischen (Loudness) Dynamik der Musiktitel ist quasi nichts mehr zu hören. Und dass ist auch genau das, was einfach relativ schnell nervt, weil es keinen Moment zur Erholung (für das Ohr) gibt.
und damit zu 2.
...denn wer im Video genau hinsieht, der bemerkt auch, das "der gute Ron" sehr geschickt mit dem Abstand zum Mikrofon spielt. Das sind zwar teils nur minimale Abstandsveränderungen, ist aber somit eine ganz "natürliche Art der Kompression", die durch Pegel- und Klangveränderungen wirkt, wenn diese benötigt werden. Das geht so in dieser Form eigentlich nur mit einem dynamischen Mikrofon und könnte in diesem Fall sogar irgendwetwas Billigeres sein. Denn das, was uns teure Studiomikrofone in einem echten Sprecherraum so lieb und vor allem teuer macht, ist hier in diesem Fall (auch bei den akustischen Verhältnissen!) gar nicht gefragt. Das belegen auch sehr schön die Stellen, in denen "der gute Ron" frei zu hören ist, denn wirklich schön im Stile des Kommentars in einer Naturdoku klingt das nun wirklich nicht, braucht es auch gar nicht. Dieses Sprechtheater zwischen laut und leise/ fern und direkt, das er da sehr geschickt betreibt wäre wahrscheinlich mit einem U87 nur sehr schwer nachzubilden, weil dieses nämlich auch den Raumklang (der sich durch laut und leise
deutlich verändert) viel stärker mit aufzeichnen würde. Das alles funktioniert in diesem Kontext natürlich nur, wenn man auch derart dicht an das Mikro rangeht, wie es "der gute Ron" teilweise macht.
zu 3.
den Effekt (ist eigentlich mehr ein Raum als ein Hall) würde ich mal als wirkliches/echtes Sounddesign bezeichnen, unabhängig davon, dass er nicht schön klingt. Aber die Idee ist ja offensichtlich genau die, das die Moderation quasi in die Musiken eingebettet ist. Und genau hier ersetzt sie die Vocals, die besonders in den Jingles im Effekt schwimmen. Eine trockene Moderation würde da definitiv herausplatzen, daher ist der Effekt nämlich auch auf den Telefonteilnehmern (schon bemerkt?) zu hören! Da hat sich also wirklich Jemand Gedanken über das Sounddesign und nicht nur den "Sound", oder besser die Hüllkurve und die MPX Leistung des Sendesignals gemacht! Allerdings wirkt der Hall plötzlich unnatürlich/merkwürdig, wenn im Hintergrund keine Musik zu hören ist und somit die ursprüngliche Idee nicht mehr greift. Es klingt dann eben als würde die Sendung irgendwie aus einem Tunnel gefahren werden. Aber genauso befremdlich käme uns ggf. das Vocal mit Effekt vor, wenn wir in einem Musikmix alle Instrumente abschalten würden.
Und wenn dann doch mal gerade nichts läuft, fällt auf, wodurch das möglich wird: Extrem tief eingreifendes Levelling und Kompression, auf Grund derer dann der nervige Hall aufgerissen wird, weil ja sonst nichts da ist.
.
Das stimmt natürlich so und zeigt auch, was durch das gnadenlos verdichtende
Sendeprocessing (nicht Soundprocessing!!!) innerhalb des ursprünglichen Mixes (auch der ganzen Musiken) passiert, wenn nämlich die ursprünglichen Tiefenstaffelungen (Tiefen im Sinne von Abstand/Entfernung zum Hörer) komplett verloren gehen und einfach alles gleichermaßen vorne steht.
Wie sich ein Hall auf ein Sprachsignal auswirkt kann man selbst ganz gut in einem sehr halligen Raum ausprobieren. Lasst einfach Jemanden ziemlich laut und gleichmäßig sprechen, im Raum wird somit auch ein gleichmäßiges Raumsignal erzeugt. Wenn man nun die Entfernung zum Sprecher durch Nähergehen verringert, verändert sich das Verhältnis zwischen Sprach- und Raumsignal, zugunsten der Sprache und diese wird verständlicher, obwohl das Raumsignal an sich ja unverändert bleibt. Das lässt sich natürlich ebenso durch einen künstlich erzeugten Effekt und dessen Mischungsverhältnis zum Sprachsignal nachahmen, abgesehen davon, dass der Klang des Effektes an sich (bestimmt durch Predelay, Density, early Reflections etc. pp) natürlich auch Einfluss auf die Tiefenstaffelung hat.
Das war jetzt ein kleiner Ausflug in echtes Sounddesign, wie es in der Produktion (Musik, Film, Hörspiel etc) verstanden wird und werden muss, und erklärt vielleicht, weshalb entsprechend aggressives Sendeprocessing dieses ggf. komplett zunichte macht.
Beste Grüße!