Wie erzielt man diesen Sound?

Status
Für weitere Antworten geschlossen.
Was soll das denn? Da kann man keine 10 Minuten durchhören. Wie auf der Kirmes.

Vielleicht spielt er aber auch in echt mal eine Platte aus, oder sogar zwei, drei hintereinander und dazu noch ohne diese ganzen Jingle-Orgien. In den Videos zeigen Sie ja nicht, wie er einfach nur dasitzt und in der Nase popelt...;)
 
Vielleicht spielt er aber auch in echt mal eine Platte aus, oder sogar zwei, drei hintereinander und dazu noch ohne diese ganzen Jingle-Orgien. In den Videos zeigen Sie ja nicht, wie er einfach nur dasitzt und in der Nase popelt...;)

Nee ... tut er nicht. Die ganze Sendung (5 Stunden!!!) verläuft so :)

Ob das angenehm oder gruselig fürs Ohr ist oder nicht ist sicher absolut subjektiv. Unstrittig ist, dass diese Art des Sendung fahrens für uns ungewohnt ist. Meine Frau ("normale" Hörerin) findet es übrigens auch furchtbar und hektisch. Mich fasziniert seine Kompetenz, dieses Gespinst von Anrufen, Jingles und Songs so gekonnt und fehlerfrei fünf Stunden lang zu meistern. Nebenher nimmt er am Telefon ja auch noch Musikwünsche an. Hab da selber schon mal angerufen. Da läuft nix auf einen AB oder so.
 
Natürlich werden die Titel ausgespielt, was wir hier sehen sind die Moderationen. Die Mods sind doch ganz offensichtlich zusammengeschnitten. Ansonsten, es ist vollkommen egal, ob das unseren Frauen oder deutschen Hörern zu hektisch wäre oder nicht. Für die wird das ja auch nicht gemacht. Man kann nicht einfach deutsche Hörgewohnheiten auf amerikanische übertragen und umgekehrt.

Wenn man den Stil mal beiseite lässt, der Hall ist wirklich grässlich. Ansonsten ist da einfach us-amerikanisches Kommerzradio, was soll die Aufregung?
 
Naja, sogar im Vergleich zu anderen US-Stationen ist das Soundprocessing bei WDRC sehr aggressiv. Die Moderation dagegen ist in den USA fast schon üblich. Das hat seinen Grund sicherlich im übergroßen Angebot: In jedem Kuhdorf machen Sender auf und Unternehmensverkäufe wie auch Formatwechsel hin und her sind an der Tagesordnung.
Hin und wieder werden die Titel nicht ausgespielt, damit die Moderationshektik sich auf den Musikfluss überträgt. Für Otto Normalhörerim deutschsprachigen Raum ist das ein Graus! Zum Glück wird nicht durchgehend moderiert :D
 
Vielleicht spielt er aber auch in echt mal eine Platte aus, oder sogar zwei, drei hintereinander

...sicherlich wird da zwischendurch auch mal ein Titel annähernd ausgespielt, allerdings ebenfalls zu Gleichstrom gewandelt. Das Ganze dann immer als Soundprocessing zu benennen, damit kann ich mich nur schwer anfreunden. Sicherlich wird der Sound an sich beeinflusst, allerdings wird offensichtlich viel mehr auf die resultierenden Hüllkurven gestarrt, anstatt sich das klangliche Ergebnis anzuhören. Die Teile der Musiktitel im Video belegen das ja ganz schön. Da wird einfach permanent alles an das technische Maximum heraufgepresst.

Ansonsten, es ist vollkommen egal, ob das unseren Frauen oder deutschen Hörern zu hektisch wäre oder nicht. Für die wird das ja auch nicht gemacht. Man kann nicht einfach deutsche Hörgewohnheiten auf amerikanische übertragen und umgekehrt.

...ich kann mir ehrlich gesagt nicht vorstellen, dass man soetwas mit der Staatszugehörigkeit verbinden kann, denn hörpsychologisch ist dieses Permanentgenagel einfach irgendwann ermüdend, belastend für das Ohr und wird zum Abschalten führen. Und nur weil es zur "Hörgewohnheit" erklärt wurde (von wem eigentlich?) bedeutet es noch lange nicht, dass es den Hörern in dieser Form auch wirklich gefällt. Aber wenn man keine Alternative mehr bekommt... Das ist nun allerdings die alte Loudnessmaximierungsdiskussion.
Mein Standpunkt dazu: Ich bezweifle, dass jemals auch nur eine CD verkauft wurde, weil sie lauter als eine andere war. Wenn maximale Loudness ein Verkaufsargument wäre, dann gäbe es in den entsprechenden Läden CD Regale mit den lautesten CDs, und auf denen würde mit entsprechenden Werten darauf hingewiesen, wie laut sie sind. Gleiches trifft für mich auf Radiosender zu. Die Entscheidung zum Konsumieren fällt der Kunde einzig und allein danach, ob ihm der Inhalt gefällt, und in dieser Entscheidung lässt er sich auch nicht dauerhaft beeinflussen. Sollte mir Jemand glaubhaft etwas Gegenteiliges beweisen können, dann gründe ich mit Demjenigen schnellstmöglich ein Plattenlable mit angeschlossenem Radiobetrieb, Name des Ganzen "FULLSCALEPINKNOISE" oder "FSPN". Das müsste ja dann wahnsinnig erfolgreich sein, bei geringsten Kosten für inhaltliche Gestaltung.

Aber zurück zum Beispiel. Handwerklich (damit meine ich inhaltlich!) ist das natürlich perfekt gemacht, es nervt eben nur relativ schnell. Außerdem sieht man im Film auch, dass es sehr wohl Telefongespräche gibt, die offensichtlich zugespielt werden, weil "der gute Ron" gar nicht den Mund bewegt, obwohl er zu hören ist (z.B. bei ca 2:05). Und daher wissen wir auch gar nicht, ob nicht dieser ganze Zusammenschnitt irgendwie nachbearbeitet und somit perfektioniert wurde, um Technik-Nerds zu beeindrucken.
 
Außerdem sieht man im Film auch, dass es sehr wohl Telefongespräche gibt, die offensichtlich zugespielt werden, weil "der gute Ron" gar nicht den Mund bewegt, obwohl er zu hören ist (z.B. bei ca 2:05). Und daher wissen wir auch gar nicht, ob nicht dieser ganze Zusammenschnitt irgendwie nachbearbeitet und somit perfektioniert wurde, um Technik-Nerds zu beeindrucken.

Er bewegt den Mund nicht weil die Anrufe nicht LIVE stattfinden sondern eingespielt werden. Die Originalanrufe liegen 1-2 Stunden zurück. So war es bei mir auch. Der Musikwunsch wurde rund eine Stunde später erfüllt und das Telefongespräch wurde geringfügig geschnitten.

Im Grunde wollte ich aber auch keine Grundsatzdiskussion über gutes oder schlechtes Radio machen führen und welche Nationalitäten denn die besseren Hörgewohnheiten haben. Mir ginge um die womögliche laienhafte Frage, wie man das "in der Musik sitzen" des Moderators technisch nachvollziehen kann. Mit den Bordmitteln eines einigermassen gut ausgerüsteten Homestudios scheint das ja wohl nicht zu gehen ...

Und daher wissen wir auch gar nicht, ob nicht dieser ganze Zusammenschnitt irgendwie nachbearbeitet und somit perfektioniert wurde, um Technik-Nerds zu beeindrucken.

Ich "Technik-Nerd" habe vergessen, auf diesen Satz einzugehen. Die Videos (die in einer Dauer von 10-15 Minuten wöchentlich produziert und in YouTube veröffentlicht werden) sind nicht gefaked. Die Sendung findet genau so statt. Beweis: Zeuge Conny Ferrin :)
 
Die Videos (die in einer Dauer von 10-15 Minuten wöchentlich produziert und in YouTube veröffentlicht werden) sind nicht gefaked. Die Sendung findet genau so statt. Beweis: Zeuge Conny Ferrin :)

...womit wir natürlich noch immer nicht wissen, ob technisch das Eine oder Andere beeinflusst worden ist. Mit den heutigen Möglichkeiten könntest Du für eine Video PostPro sinnvolle Einzelsignale/Submixe aufzeichnen und für das Video perfektioniert zusammenfügen, aber egal. Da die Telefonteilnehmer nicht live eingesetzt sind, besteht beim Zusammenschnitt derselben natürlich die Chance auch diese Signale gezieltem Processing zu unterziehen, was ja auch durchaus sinnvoll ist, weil man die Mischung eben nicht dem Summentool überlassen kann/sollte. Gerade bei diesen Parts wird übrigens die Unterlege teils deutlich leiser, man sieht auch die Faderbewegungen. Das nun wieder belegt, dass "der gute Ron" sehr genau weiß was er da macht und sich vor allem auch anhört!!! Er ist offensichtlich ein absoluter Vollprofi, unabhängig von den technischen Beeinflussungen der Einzelsignale und der Summe aus diesen.

Mir ginge um die womögliche laienhafte Frage, wie man das "in der Musik sitzen" des Moderators technisch nachvollziehen kann. Mit den Bordmitteln eines einigermassen gut ausgerüsteten Homestudios scheint das ja wohl nicht zu gehen ...

...dazu habe ich ja weiter oben schon etwas erläutert, denn vom Prinzip her geht es quasi ohne jegliches Spezialequipment, will man mal auf diese ganze Permanentkompression verzichten. Nimm' Dir einfach mal verschiedene Musiktitel, lass' Dein Mikro offen und sprich immer dann, wenn kein Gesang zu hören ist. Alles Weitere ist nur eine Frage des Mischungsverhältnisses und von gezieltem Voice- weniger Summenprocessing. Auch "der gute Ron" hält sich an dieses Grundprinzip, und seine Unterlegemusiken bestehen hauptsächlich aus rhytmischen Elementen, bzw. sind die harmonie- und stimmführenden Instrumente soweit nach hinten gemischt, dass sie seiner Stimme genügend Raum lassen. Getreu dem Motto: Ein guter Mix ist ein guter Mix! Außerdem kennt er sein Zeug eben so gut, dass er selbst in kürzeste Freiräume hinein sprechen kann, bei den Musiktiteln ist es meist das Inthro oder die Abblende. Also, er ist eben verdammt gut und schnell in dem, was er da macht, und know how ist eben durch keine Technik der Welt zu ersetzen, allenfalls zu ergänzen was sich am Ende dann natürlich auch wieder bemerkbar machen wird.

Beste Grüße!
 
Ich habe einen Hinweis aus meinem Radiobuch von Patrick Lynen.

Er schreibt auf Seite 125/126:
"...wer heutzutage auf einen Ramp moderiert, zieht den Regler gar nicht oder nur wenig runter. Das reicht völlig aus.
Noch besser: Ein mit ca. -5db (RTW-Pegel) gestarteter Titel lässt ein leicht komprimiertes Mikrofonsignal problemlos vorne stehen..."

Die Frage von Hepp interressiert mich auch. "Der gute Ron" klingt wie mitten im Musiktitel. Hört sich sehr gut an. Welches Equipment ist nötig?


Auch wenn dea rumkotzt, wenn man aber ein "Stimm-Gerät" (Zitat von Countie) besitzt, dann kann man mit etwas Übung das ganze "Voice-Over" mit der Stimme und Nahbesprechung steuern und braucht die Regler nur "ganz grob" bedienen. Das ist Fakt und Patrick Lynen hat mit seiner Aussage nicht ganz unrecht. Ich habe das früher teilweise auch so gemacht.

Mit etwas Übung (also einfach Sendungen fahren) und der passenden Stimme weiß man nach einiger Zeit einfach, wie das ganze Soundprozessing des Senders reagiert und wie man ins Mikrofon sprechen muß, um einen gewünschten Effekt (z.B. cooler Tiefbass: "Hey Baby - Ich liebe dich!") zu erreichen. Wichtig dabei ist eigentlich nur, daß man als Moderator das Sendesignal (früher praktisch ohne Verzögerung über UKW) im Ohr - also auf den Kopfhörern im Studio - hat. Dann kann man mit dem Mikrofon und seiner eigenen Stimme "spielen"! Ich wußte damals jedenfalls genau, wie meine Stimme im Radio klingen sollte...

Kurzfassung: Einfach nur geil! ( Was soll ich sonst auch sagen? ;))

Aber gerade am Anfang des Videos (Pointer Sisters) "schreit" Ron die Hörer wie ein Marktschreier an. Er muß seine Stimme also ganz schön anheben, um überhaupt "über die Musik" zu kommen. Das gefällt mir nicht.

BTW: Zieht euch den Ton vom Video auf euren MP3-Player und hört euch diesen Aircheck einfach mal im Auto bei 120km/h auf der Autobahn an...



BTW: Vor einiger Zeit habe ich hier bemängelt, daß bei SWR1-BW die "Eins gehört gehört!" und "Für uns in BaWü" -Einspieler nach einer Moderation ganz schlecht "eingemixt" werden. Das klang mitunter einfach furchtbar. Mittlerweile klingt das ganz anders - klappt fast perfekt. Habt ihr das bemerkt?


Wer im Video genau hinschaut, sieht aber auch, daß Ron die Regler bei "Bedarf" (Telefonanrufer) minimal nachregelt (die Unterlegmusik etwas weiter runterzieht). Er macht das rein "gefühlsmäßig", weil er offenbar den "Master-Mix", der über den Sender geht, im Ohr hat. Und nur so wird das was! Als Selbstfahrer hat er die Tonregie!

Zum Hall:
Ähm - ich dachte bisher eigentlich, daß etwas Hall in der Stimme die Sprachverständlichkeit bei lauten Umgebungsgeräuschen (hier die laute Unterlegmusik) erhöht. Die Amateur- oder CB - Funker kennen sicherlich die Mikrofone "mit Hall", die man kaufen kann. Wenn man es mit dem Hall nicht übertreibt, kommt die Stimme durchaus "etwas besser" durch. Stimmt das so - oder ist das Unfug?




Vor gut fünf Jahren gab es diesen Thread hier im Forum:

http://www.radioforen.de/index.php?threads/dj-bei-q106-san-diego.23536/

Ich habe absolut nichts dagegen, wenn man eine Sendung "so wild" fährt! Sowas geht aber nur, wenn man die Technik im Studio wirklich blind beherrscht, ein richtiger "DJ" ist - und obendrein auch noch "freie Hand" hat.

Für 99% aller Radiomoderatoren in Deutschland kann man also sagen: "Bitte versucht diese DJ-Nummer aus Amerika nicht! Das geht definitiv in die Hose!"
 
Und um noch mehr solche Beispiele zu bringen:

Jack Armstrong - Gott hab' ihn selig. Der war hier in den Foren auch schon mal Thema.

KKHR-Aircheck und/oder WIXI-Reunion-Aircheck


Keine Frage: Der Mann war eine Granate. Dennoch hat dieser Full-Power-Fahrstil etwas schwer nerviges, das ich mir als Highlight im Radio zwar gut vorstellen kann, ich aber eindeutig nicht jeden Tag auch nur eine Stunde lang ertragen könnte.
Auch bei ihm sieht man die selben Dinge: Äußerst aktive Arbeit am Mikrofon, der eine ziemliche Passivität an den Fadern gegenübersteht. Die einzigen, die er deutlich sichtbar über große Strecken zieht, sind die von Mikrofon, Cartwalls und Hybrid, ansonsten wird redlich über die Musik geschrien. Und wenn dann doch mal gerade nichts läuft, fällt auf, wodurch das möglich wird: Extrem tief eingreifendes Levelling und Kompression, auf Grund derer dann der nervige Hall aufgerissen wird, weil ja sonst nichts da ist.

Der Mann und seine Arbeit sind zweifellos bewundernswert und spektakulär. Dagegen war ich Schlaftablette pur. Aber technisch und damit akustisch ist es extrem belastend und wahrlich nicht wünschenswert.

Für 99% aller Radiomoderatoren in Deutschland kann man also sagen: "Bitte versucht diese DJ-Nummer aus Amerika nicht! Das geht definitiv in die Hose!"
Das halte ich derweil für zahlenmäßig deutlich übertrieben. Es wird wohl eine ganze Reihe an Kollegen geben, die durchaus ganz authentisch diesen DJ-Stil auch drauf haben, schon weil sie nebenher dieser Tätigkeit auch noch nachgehen (müssen). Aber das gehört in den vieldiskutierten und -beklagten Bereich "Personality", welche im deutschen Hörfunk zugusten der Durchhörbarkeit weitgehend ausgerottet wurde.
 
1. Mit etwas Übung (also einfach Sendungen fahren) und der passenden Stimme weiß man nach einiger Zeit einfach, wie das ganze Soundprozessing des Senders reagiert und wie man ins Mikrofon sprechen muß, um einen gewünschten Effekt (z.B. cooler Tiefbass: "Hey Baby - Ich liebe dich!") zu erreichen. Wichtig dabei ist eigentlich nur, daß man als Moderator das Sendesignal (früher praktisch ohne Verzögerung über UKW) im Ohr - also auf den Kopfhörern im Studio - hat. Dann kann man mit dem Mikrofon und seiner eigenen Stimme "spielen"! Ich wußte damals jedenfalls genau, wie meine Stimme im Radio klingen sollte...


2. Wer im Video genau hinschaut, sieht aber auch, daß Ron die Regler bei "Bedarf" (Telefonanrufer) minimal nachregelt (die Unterlegmusik etwas weiter runterzieht). Er macht das rein "gefühlsmäßig", weil er offenbar den "Master-Mix", der über den Sender geht, im Ohr hat. Und nur so wird das was! Als Selbstfahrer hat er die Tonregie!

3. Zum Hall:
Ähm - ich dachte bisher eigentlich, daß etwas Hall in der Stimme die Sprachverständlichkeit bei lauten Umgebungsgeräuschen (hier die laute Unterlegmusik) erhöht. Die Amateur- oder CB - Funker kennen sicherlich die Mikrofone "mit Hall", die man kaufen kann. Wenn man es mit dem Hall nicht übertreibt, kommt die Stimme durchaus "etwas besser" durch. Stimmt das so - oder ist das Unfug?


zu 1.
eben, er hört sich das an, was nach draußen geht und reagiert (richtig) darauf, insofern steuert er also nach Loudness aus, also danach, wie die verschiedenen Klänge zueinander klingen. Wie das Ganze dann am Ende auf einem Pegelinstrument aussieht ist ihm herzlich egal, dass macht das Sendeprocessing, welches in erster Hinsicht eigentlich kein Soundprocessing ist und derart verstanden werden sollte. Dass da am Ende einfach alles platt gepresst wird hören wir (hoffentlich) alle, von der ursprünglichen, künstlerischen (Loudness) Dynamik der Musiktitel ist quasi nichts mehr zu hören. Und dass ist auch genau das, was einfach relativ schnell nervt, weil es keinen Moment zur Erholung (für das Ohr) gibt.

und damit zu 2.
...denn wer im Video genau hinsieht, der bemerkt auch, das "der gute Ron" sehr geschickt mit dem Abstand zum Mikrofon spielt. Das sind zwar teils nur minimale Abstandsveränderungen, ist aber somit eine ganz "natürliche Art der Kompression", die durch Pegel- und Klangveränderungen wirkt, wenn diese benötigt werden. Das geht so in dieser Form eigentlich nur mit einem dynamischen Mikrofon und könnte in diesem Fall sogar irgendwetwas Billigeres sein. Denn das, was uns teure Studiomikrofone in einem echten Sprecherraum so lieb und vor allem teuer macht, ist hier in diesem Fall (auch bei den akustischen Verhältnissen!) gar nicht gefragt. Das belegen auch sehr schön die Stellen, in denen "der gute Ron" frei zu hören ist, denn wirklich schön im Stile des Kommentars in einer Naturdoku klingt das nun wirklich nicht, braucht es auch gar nicht. Dieses Sprechtheater zwischen laut und leise/ fern und direkt, das er da sehr geschickt betreibt wäre wahrscheinlich mit einem U87 nur sehr schwer nachzubilden, weil dieses nämlich auch den Raumklang (der sich durch laut und leise deutlich verändert) viel stärker mit aufzeichnen würde. Das alles funktioniert in diesem Kontext natürlich nur, wenn man auch derart dicht an das Mikro rangeht, wie es "der gute Ron" teilweise macht.

zu 3.
den Effekt (ist eigentlich mehr ein Raum als ein Hall) würde ich mal als wirkliches/echtes Sounddesign bezeichnen, unabhängig davon, dass er nicht schön klingt. Aber die Idee ist ja offensichtlich genau die, das die Moderation quasi in die Musiken eingebettet ist. Und genau hier ersetzt sie die Vocals, die besonders in den Jingles im Effekt schwimmen. Eine trockene Moderation würde da definitiv herausplatzen, daher ist der Effekt nämlich auch auf den Telefonteilnehmern (schon bemerkt?) zu hören! Da hat sich also wirklich Jemand Gedanken über das Sounddesign und nicht nur den "Sound", oder besser die Hüllkurve und die MPX Leistung des Sendesignals gemacht! Allerdings wirkt der Hall plötzlich unnatürlich/merkwürdig, wenn im Hintergrund keine Musik zu hören ist und somit die ursprüngliche Idee nicht mehr greift. Es klingt dann eben als würde die Sendung irgendwie aus einem Tunnel gefahren werden. Aber genauso befremdlich käme uns ggf. das Vocal mit Effekt vor, wenn wir in einem Musikmix alle Instrumente abschalten würden.

Und wenn dann doch mal gerade nichts läuft, fällt auf, wodurch das möglich wird: Extrem tief eingreifendes Levelling und Kompression, auf Grund derer dann der nervige Hall aufgerissen wird, weil ja sonst nichts da ist.
.

Das stimmt natürlich so und zeigt auch, was durch das gnadenlos verdichtende Sendeprocessing (nicht Soundprocessing!!!) innerhalb des ursprünglichen Mixes (auch der ganzen Musiken) passiert, wenn nämlich die ursprünglichen Tiefenstaffelungen (Tiefen im Sinne von Abstand/Entfernung zum Hörer) komplett verloren gehen und einfach alles gleichermaßen vorne steht.

Wie sich ein Hall auf ein Sprachsignal auswirkt kann man selbst ganz gut in einem sehr halligen Raum ausprobieren. Lasst einfach Jemanden ziemlich laut und gleichmäßig sprechen, im Raum wird somit auch ein gleichmäßiges Raumsignal erzeugt. Wenn man nun die Entfernung zum Sprecher durch Nähergehen verringert, verändert sich das Verhältnis zwischen Sprach- und Raumsignal, zugunsten der Sprache und diese wird verständlicher, obwohl das Raumsignal an sich ja unverändert bleibt. Das lässt sich natürlich ebenso durch einen künstlich erzeugten Effekt und dessen Mischungsverhältnis zum Sprachsignal nachahmen, abgesehen davon, dass der Klang des Effektes an sich (bestimmt durch Predelay, Density, early Reflections etc. pp) natürlich auch Einfluss auf die Tiefenstaffelung hat.
Das war jetzt ein kleiner Ausflug in echtes Sounddesign, wie es in der Produktion (Musik, Film, Hörspiel etc) verstanden wird und werden muss, und erklärt vielleicht, weshalb entsprechend aggressives Sendeprocessing dieses ggf. komplett zunichte macht.

Beste Grüße!
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben