Eigenwilliger Sprechersound


TheSpirit

Benutzer
Off-Sprecherin
Spricht in einem Sprecherraum auf einem hochwertigen Mikrofon. Das Signal wird absolut phasen-linear aufgezeichnet, die Stimme hat aber eine natürliche Asymmetrie. Mit einem EQ kann man nun die Resonanzen aus der Stimme nehmen, dazu ein guter Kompressor. Mehr braucht es nicht für das Ergebnis. Diese Sprachaufnahme ist kein Hexenwerk und hat keine versteckte Magie.

Anders ist das bei den Radio Moderationen....

Die SWR3 Moderationen (war nicht gefragt, aber der Vergleich wird ja trotzdem angeführt)
sind "On Air" nach Soundprocessing aufgezeichnet. Die Mikrofone hören sich (technisch) sehr ähnlich dem der oben genannten Sprecherin an. Die werden vermutlich ihre eigenen Presets haben ("EQ => Resonanzen aus der Stimme gezogen") Kompressoren und Expander (... beim dem Raum.. definitiv). Dann geht das Signal in den Soundprocessor. Da wird erstmal die Phase gerade gebogen. Jede Stimme hat eine natürliche Asymmetrie (sieht man schön im Schnittprogramm, wenn die angezeigte Waveform z.B. nur nach oben ausschlägt, aber unten nix ist). Der sog. Phase Rotator biegt nun die Phase so hin, dass immer alles gleich ist. Dadurch entsteht u.a. auch der kernige, wummernde, Radio-Mikrofonsound. Dann gibt es bei Marken wie Orban noch den sog. DJ Bass, auch da wird die Stimme noch etwas voluminöser gemacht. Das Multiband Processing und Clipping tut dann sein übriges.
(Phase Rotation wird eigentlich für das saubere UKW-Clipping benötigt) Das wird zu ausführlich, aber es gibt dazu Nachschlagewerke im Netz. Bon und Frank haben ein schönes Papier erstellt:
What Happens to My Recording When it’s Played on the Radio?
Ein Zitat
"The phase rotator is a chain of allpass filters (typically four poles, all at 200Hz) whose group delay is very non-constant as a function of frequency. Many voice waveforms (particularly male voices) exhibit as much as 6dB asymmetry. The phase rotator makes voice waveforms more symmetrical and can sometimes reduce the peak-to-average ratio of voice by 3-4dB. Because this processing is linear (it adds no new frequencies to the spectrum, so it doesn’t sound raspy or fuzzy) it’s the closest thing to a “free lunch” that one gets in the world of transmission processing."
 
Zuletzt bearbeitet:

Funkminister

Benutzer
Nein, eine Sprachaufnahme ist wahrlich keine Zauberei (sofern man von einem gewissen technischen Standard ausgehen kann, was zumindest beim ö.-.r. Bildfunk der Fall ist). Lediglich solides Handwerk.
Aber wie das eben so ist mit dem Handwerk...
 
Da wird erstmal die Phase gerade gebogen. Jede Stimme hat eine natürliche Asymmetrie (sieht man schön im Schnittprogramm, wenn die angezeigte Waveform z.B. nur nach oben ausschlägt, aber unten nix ist). Der sog. Phase Rotator biegt nun die Phase so hin, dass immer alles gleich ist. Dadurch entsteht u.a. auch der kernige, wummernde, Radio-Mikrofonsound.
Gibt es dazu ggf mal ein Klangbeispiel, in dem man lediglich diese Korrektur hören kann? Das würde mich wirklich mal interessieren, da ich (aus der Produktion kommend) mit den Bearbeitungsstufen des Sendeprocessings nicht so vertraut bin.

Beste Grüße, Björn
 

TheSpirit

Benutzer
Hallo Björn,

anbei zwei kurze Beispiele. Der Moderator ist ein echter Lautsprecher, da geht so einiges in die Pumpe. Mikrofon RE 320. Inhalt egal, zur Erheiterung der technischen Anhörung ein kleiner Versprecher dabei :- )

Clean: Direkter Studioausgang, hier ist lediglich EQ, Kompression, Expander auf den Mikrofonen. In der Summe gibt es noch einen Transienten-Limiter.

Processing: Zuerst Ariane Sequel digital, danach Omnia 6 EX Soundprocessor mit eingeschalteter Phase Rotation, im Mitschnitt der HD Ausgang.
 

Anhänge

  • clean.mp3
    1.023,8 KB · Aufrufe: 6
  • processing.mp3
    1 MB · Aufrufe: 3
Zuletzt bearbeitet:

RainerK

Benutzer
Wer glaubt soviel Firlefanz zur Verfremdung seiner Stimme zu benötigen, sollte ehrlich zu sich selbst sein und bei Rotlicht die Nähe zu Mikrofonen meiden.
 

TheSpirit

Benutzer
Nur ist dieser „Firlefanz“ technische Normalität beim Radio und hat nichts damit zu tun ein „Ego“ aufzupolieren. Das sollten wir hier ganz klar unterscheiden!
 
Clean: Direkter Studioausgang, hier ist lediglich EQ, Kompression, Expander auf den Mikrofonen. In der Summe gibt es noch einen Transienten-Limiter.

Processing: Zuerst Ariane Sequel digital, danach Omnia 6 EX Soundprocessor mit eingeschalteter Phase Rotation, im Mitschnitt der HD Ausgang.

...sorry, aber das ist nicht genau das, was ich gern mal gehört hätte...

Gibt es dazu ggf mal ein Klangbeispiel, in dem man lediglich diese Korrektur hören kann?

ich bin an der Auswirkung des Phase Rotators auf die Stimme interessiert, auch wenn ich wummernd erstmal nicht so erstrebenswert finde...
Dadurch entsteht u.a. auch der kernige, wummernde, Radio-Mikrofonsound.
Im Netz habe ich das hier gefunden,
allerdings kann man anhand von künstlich erzeugten Keyboardsounds natürlich alles und nichts heraus hören.

Es wäre also schön, wenn man mal wirklich einzig den Phase Rotator und dessen Auswirkung hören könnte, auf die Stimme (gerne auch clean). Zudem frage ich mich natürlich, wenn diese Asymmetrie ja zu den Klängen dazu gehört,
Jede Stimme hat eine natürliche Asymmetrie

(ich kenne das auch sehr stark von z. B. Trompeten), weshalb muss sie dann korrigiert werden? Oder anders gefragt, handelt man sich damit ja vielleicht anderes/negatives ein? Und aus dem Paper von Orban und Omnia lese ich erstmal heraus, dass sie durch die Korrektur der Asymmetrie quasi die Peaks reduzieren, weil ja das komplette Signal auf der Nulllinie nach oben oder unten verschoben wird, also in sich selbst nicht verändert wird. Es geht also wieder erstmal nur um die einfachste Form von Loudnessgewinn, durch "Reduzieren" der Peaks. Ebenso steht da für mich, dass es eben keine Klangveränderung gibt.

The phase rotator makes voice waveforms more symmetrical and can sometimes reduce the peak-to-average ratio of voice by 3-4dB. Because this processing is linear (it adds no new frequencies to the spectrum, so it doesn’t sound raspy or fuzzy) it’s the closest thing to a “free lunch” that one gets in the world of transmission processing."
Später dann ist natürlich wieder dei Rede davon, wie sich das eine auf andere Klänge auswirkt, womit wir ja wieder beim Thema sind, dass jedes Audiosignal lieber sein eigenes Processing benötigt. Und in diesem Fall hier wird ja durch den Phase Rotator für die Stimme des Sprechers (für welchen von den beiden eigentlich? ;) natürlich auch die Musik und alle darin enthaltene Klänge beeinflusst. Und bei Phasenverschiebungen fallen mir natürlich unweigerlich Kammfiltereffekte ein :cry:

Also wenn es einen reinen A-B Vergleich mit ner asymetrischen Stimme vor und hinter Phase Rotator gäbe, find ich es cool.

Beste Grüße, Björn
 

Funkminister

Benutzer
Die Kammfiltereffekte die Du meinst @marillenfreund treten aber nur auf, wenn eine Phasen- oder Laufzeitänderung auf korrelierende Signale angewendet wird, sprich Originalsignal mit dem bearbeiteten gemischt wird. Wenn die Programmsumme im ganzen (und die Kanäle L/R zueinander phasenstarr) bearbeitet wird, kann das nicht auftreten.
Ich interpretiere Phase Rotation als den Echtzeitbearbeitungsschritt, der offline in der DAW "DC offset removal" heißt, oder auf gut Rundfunkdeutsch: Gleichspannungsanteil entfernen.
Das hat in der Tat keine klangliche Auswirkung, wenn man vom Extremfall absieht dass ein Verstärker am Eingang soviel Gleichspannung "sieht", dass er permanent in Sättigung geht, der Arbeitspunkt also verschoben ist. Dann zerrt's halt unschön, und das Entfernen der Gleichspannung per Koppelkondensator verhindert das, also -> Klangverbesserung)
Ich kann mich aber auch komplett irren, denn den Nutzen verstehe ich auch noch nicht ganz, außer dass das Signal anschließend bis aufs letzte dB ausgequetscht werden kann.

Danke für die Beispiele @TheSpirit, was das Soundprocessing tut hört man deutlich, leider kann ich nicht identifizieren welchen Anteil daran Phase Rotation hat.

Wer glaubt soviel Firlefanz zur Verfremdung seiner Stimme zu benötigen, sollte ehrlich zu sich selbst sein und bei Rotlicht die Nähe zu Mikrofonen meiden.
Rainer, so ähnlich wir ansonsten zu ticken scheinen was Klangästhetik und das Handwerk angeht - hier muss ich ein wenig intervenieren. Die Sprecher/Moderatoren vor dem Mikrofon sind in den allermeisten Fällen nicht die Konstrukteure der Gerätekette, die hintendran hängt.
Und die Konstrukteure wiederum sprechen in den seltensten Fällen selbst ins Mikrofon.
 
Zuletzt bearbeitet:

RainerK

Benutzer
Die Sprecher/Moderatoren vor dem Mikrofon sind in den allermeisten Fällen nicht die Konstrukteure der Gerätekette, die hintendran hängt.
Und die Konstrukteure wiederum sprechen in den seltensten Fällen selbst ins Mikrofon.
Die Konstruktion der Gerätekette bestimmt die Möglichkeiten. Was davon genutzt wird bzw. wie man die Geräte parametriert oder sogar "bypass" betreibt, sollten die Personen vor und hinter der Glasscheibe bzw.dem Mikrofon im Einvernehmen festlegen.
Wenn das nicht geschieht und danach sieht es zu oft aus, bleibt die Natürlichkeit auf der Strecke und - etwas überspitzt - wird die Zuhörerschaft betrogen. Es drängt sich aber der Verdacht auf, dass das nicht immer ungewollt ist.
 
Ich interpretiere Phase Rotation als den Echtzeitbearbeitungsschritt, der offline in der DAW "DC offset removal" heißt, oder auf gut Rundfunkdeutsch: Gleichspannungsanteil entfernen.
Aha, das hätte doch dann aber gar nichts mit Phasenverschiebung zu tun, die doch auf der Zeitachse stattfindet? Oder sehe ich das komplett verkehrt?
Das mit den Kammfiltereffekten stimmt natürlich, solange Original und Bearbeitung nicht gemischt werden. Allerdings soll sich der Klang der Stimme doch verbessern/verändern, insofern muss das nachgeschaltete Processing den Klang der anderen Summensignale doch ebenfalls beeinflussen, auch wenn darin die Asymmetrie ggf gar nicht vorhanden ist.
Also das bleibt für mich dubios, und es wäre schön, wenn jemand nachvollziehbare Klangvergleiche liefern kann.
Beste Grüße, Björn
 

Funkminister

Benutzer
Aha, das hätte doch dann aber gar nichts mit Phasenverschiebung zu tun, die doch auf der Zeitachse stattfindet?
Nee, nicht auf der Zeitachse, das ist ja der Unterschied. Eine Phasenwendung von 180° per elektrischer Verpolung hat ja auch nichts mit der Zeitachse zu tun. Wenn man das analog per Allpassfilter macht, ist auch keine Laufzeitkomponente enthalten.
Was davon genutzt wird bzw. wie man die Geräte parametriert oder sogar "bypass" betreibt, sollten die Personen vor und hinter der Glasscheibe bzw.dem Mikrofon im Einvernehmen festlegen.
Ja, durchaus - allein haben sie oft gar keine Wahl dies zu tun. Genauso wenig wie ich als Techniker befugt wäre, das Soundprozessing zu umgehen.
 

RainerK

Benutzer
Genauso wenig wie ich als Techniker befugt wäre, das Soundprozessing zu umgehen.
In meinem Berufsleben war ich nicht unmittelbar in der Produktion tätig, sondern hatte immer die Aufgabe und das Selbstverständnis, dafür zu sorgen, dass Ton- u- Bildsignale im Rahmen der technischen Grenzen auch über große Entfernungen möglichst 1:1 unverfälscht übertragen wurden.
Dies war über viele Jahre in vordigitaler Zeit mit analoger Technik oft eine nicht immer leicht zu meisternde, aber persönlich zufriedenstellende Herausforderung.
Vielleicht erklärt das meine Vorbehalte oder Ablehnung gegenüber einem auch hier oft propagierten, bewusst verfälschenden Signal-Processing, das aber kaum einen objektiven Mehrwert für die Zuhörerschaft ergibt.
 
Zuletzt bearbeitet:

Funkminister

Benutzer
Vielleicht erklärt das meine Vorbehalte oder Ablehnung gegenüber einem auch hier oft propagierten, bewusst verfälschenden Signal-Processing, das aber kaum einen objektiven Mehrwert für die Zuhörerschaft ergibt.
Die teile ich ja sogar, ich denke das geht aus meinen Postings durchaus hervor.
Das ändert (leider) nichts an der Tatsache, dass ich meinen persönlichen Geschmack in gewissen Arbeitsbereichen halt zum Dienstbeginn beim Pförtner abgeben muss...
 

Südfunk 3

Benutzer
Vielleicht erklärt das meine Vorbehalte oder Ablehnung gegenüber einem auch hier oft propagierten, bewusst verfälschenden Signal-Processing, das aber kaum einen objektiven Mehrwert für die Zuhörerschaft ergibt.
Es hat keinen Mehrwert für die Hörer, sicher nicht. Aber es hat einen (zumindest scheinbaren) Mehrwert im Marktgeschehen, denn die Werbebezahlenden werden von den Sendern als Kunden gesehen, nicht die werten Hörer.

Früher war es so, daß nach Pultausgang nur noch der EMT 266 als Notbremse kam, und der Sendungsfahrer war Herr über das vollständige tontechnische Geschehen. Heute ist das nicht mehr so, aus mehreren Gründen:

Wie oben gesagt, müssen (bzw. glauben es zu müssen) sich die Sender irgendwie, in der Regel durch Lautheit, von der „Konkurrenz“ abheben. Zu diesem Behufe werden von „Spezialisten“ programmierte Geräte (meist Angehörige der Optimod-Familie) nach Pultausgang in den Sendeweg geschleift. Der Mann am Pult kann sich fürderhin totblenden, die AGC hält wacker dagegen.

Weiters: „Männer (wie auch Frauen!) am Pult“ sind inzwischen weitestgehend ausgerottet. Heute ist Selbstfahren angesagt, und da ist ein Processing wie AGC schon wieder sinnvoll, weil es den Damen und Herren Selbstfahrern in der Regel sch**ßegal ist, mit welchem Pegel die Modulation das Pult verläßt. (Ich könnte da einige Beispiele nennen.) Von sauberem Sendungsfahren haben sie keine Ahnung – was ihnen allerdings auch nicht unbedingt vorzuwerfen ist, denn eigentlich sind sie ja (in tontechnischem Sinne) nur Moderatoren.

Und dann gibt es noch diejenigen, die in der Produktion tätig sind (sein müssen?), es aber nie gelernt haben. Derer existieren zweierlei: Die einen wollten und wollen das nicht, die fühlten sich wohl, wenn sie in die Produktionsregie kommen und sich ihren Beitrag von Fachleuten zusammenschrauben lassen konnten. Da ist nichts zu machen.

Und es gibt die, die endlich ihrer Stümperei freien Lauf lassen können. Wie beispielsweise (nur dieses eine, auch hier ist mein Fundus mannigfaltig) der Kollege K. (Vorname nicht Rainer!), der konsequent jeden Atmer anschnitt und mir auf meine kritische Nachfrage hin antwortete, das müsse so sein, damit das (endlich mal) dynamischer klinge. *seufz*

Ich habe es inzwischen aufgegeben, mich darüber aufzuregen. Ich beschränke mich darauf, innerhalb meines kleinen Biotops möglichst saubere Arbeit abzuliefern und nicht darüber nachzudenken, wie es später nach der Strich und nach der Faden wieder verhunzet wird.
 

Funkminister

Benutzer
Ja, leider isses genau so.
Ich frage mich gerade ob es irgendwie beruhigend ist, dass der von @Südfunk 3 beschriebene Zustand offenbar anstaltsübergreifend so gegeben ist (und wir ambitionierten Tonköpfe alle gleich leiden).

Dagegen ist Fernsehton immer noch eine Insel der Glückseligen - hier ist in=out und kein Soundprocessing direkt aus der Hölle macht Dir das im Schweiße Deines Angesichtes verrichtete Handwerk kaputt.
Wenn da nicht diese Bildleute wären, die ständig nörgeln dass da ein Mikrofon im Bild zu sehen ist...
 

Pianist_Berlin

Benutzer
Ich finde viele Studiotöne im Fernsehen derzeit besser als sonst, weil man oftmals auf Anstecker verzichtet, um den Leuten nicht so nahe zu kommen, und stattdessen wieder vernünftige Kleinmembranmikrofone auf die Tische der Talkshows und Nachrichtensendungen stellt.

Ansonsten zurück zu den Sprachaufnahmen in Sprecherräumen: Seit ich das Gefell M 990 im Einsatz habe, bin ich echt der Meinung: Je weniger ich danach in das Signal eingreife, um so besser klingt es.

Matthias
 

HectorPascal

Benutzer
Ich habe obiges Sprachbeispiel mal durch den Optimod geschickt, dabei alle Funktionen wie AGC, MB-Kompressor, EQ und Clipping soweit möglich deaktiviert oder runtergedreht. Was noch wirkt ist der Bandmix, Band 3 auf - 0,1 und Band 4 auf +1,4 dB, Band 3/4 Coupling bei 60. Der Bassclipper steht bei -6 dB.
Das ist also nahezu nur der Phase Rotator (sollte jemand einen Voiceprozessor neueren Datums besitzen, ist es sicher noch einfacher, nur den Phase Rotator anzulassen. Bei einem Optimod geht das nur bedingt.)

Der Unterschied ist nicht so groß, da die Stimme im Original schon ziemlich symetrisch ist.

Und das hat nichts mit DC Offset zu tun. Dabei ist ja nur die Nulllinie verschoben und wird korrigiert.
Der Phase Rotator symetriert die Peaks, Stimmen schlagen z.B. oft verstärkt nur in den positiven oder negativen Bereich aus. Nach dem Phase Rotator sind die Ausschläge nach oben wie unten nahzu gleich stark, was nachfolgende Bearbeitungen erleichtert und weniger Bearbeitung für gleiche Lautheit ermöglicht, also weniger Verzerrungen.
Wie genau er das macht, hat sich mir aber auch noch nicht erschlossen, zu mathematisch ...
Und es ändert auch leicht den Klang, bei Stimmen meiner Meinung nach zum Besseren, bei Musik eher gegenteilig, aber meist so schwach, dass man es kaum wahrnimmt.
Darum wird auch empfohlen, wenn möglich, den Phase Rotator nur auf den Mikrofonwegen einzusetzen, etweder durch eine gesonderete Schaltung oder das Voiceprocessing hat das mit an Board. Dann kann man den Phase Rotator im Sendeprocessor abschalten und die Musik klingt wieder etwas "sauberer".
 

Anhänge

  • Phase Rotator.mp2
    1,2 MB · Aufrufe: 5
Oben