Soundprocessing – Der Klang der Sender

Status
Für weitere Antworten geschlossen.
Ich hätte das präzisieren müssen. Es handelt sich um eine einstige technische Führungskraft, die mit den Vorgängen bestens vertraut sein müßte. Techniker tun sowas (Klangzerstörung) meiner Erfahrung nach nie freiwillig, ältere, jahrzehntelang im Produktionsbereich arbeitende Techniker erst recht nicht. Die Reaktion kam nicht nur für mich absolut überraschend (nahezu schockierend), sondern auch für die Technik-Koryphäe, die mir mit dem Kommentar "ein Kämpfer für den guten Ton" die Emailadresse des Mannes gab.

Ich gehe inzwischen davon aus: dieser Mann ist (Von wem? Intendanz? Hörfunkdirektion?) regelrecht gebrochen worden und hat dann, um sich selbst weiteres Leid zu ersparen, einfach schwarz gegen weiß und gut gegen schlecht ausgetauscht. Zu deutsch: er vertritt aus Gründen des Selbstschutzes halt nun das Gegenteil von dem, was sein Techniker-Ethos, sein musikalisches und kulturelles Verständnis und sein ästhetisches Verständnis sagen. Gesundes und würdiges Leben ist das nicht. Und zu wünschen ist es auch niemandem, sein Lebenswerk selbst zerstören und danach die Zerstörung rechtfertigen zu müssen.

Letztlich paßt das aber zu dem, was ich aus anderen ARD-Anstalten teils zu hören bekomme. Da spricht ein einstmals leidenschaftlicher Hörfunktechniker, dem der Wechsel von ganz woandersher zum ARD-Hörfunk vor vielen Jahren richtig gutgetan hatte, heute in Verachtung von den Programmen und ist seit langem krank und nicht mehr arbeitsmäßig belastbar. Da freut sich ein ARD-Urgestein auf seinen Vorruhestand, weil er dann endlich das durch Wellenchefs und Hörfunkdirektoren verursachte Leid los wird. Da werden Techniker von den Programmchfs gezwungen, den schlechtmöglichsten "Sound" einzustellen (so kaputt wie möglich) und müssen, um das vorgegebene Ziel zu erreichen, sogar einen neuen Klangverbieger kaufen, weils der vorhandene nicht so pervers kann wie gewünscht.

Das ganze System ist hochgradig kaputt und pervers. Wir diskutieren das ja meist ausgiebig inhaltlich, aber die technische Seite ist genauso betroffen.

Und ich bin froh, nicht beim Hörfunk zu arbeiten. Hätte ich früher gerne mal. Aber so doch nicht.
 
Das Problem ist, dass sich nur ein Teil der Bevölkerung für Hörfunk interessiert, aber all diejenigen, denen völlig egal ist, was in welcher Qualität aus dem Äther kommt, in das Meinungsbild eingerechnet werden. Das ist für den öffentlich-rechtlichen Rundfunk ein inakzeptables Vorgehen, aber inzwischen Usus. Früher konnte man bei WDR 2 noch auf die Facebook-Pinnwand schreiben und da hagelte es Kritik, seitdem man im Jahr 2009 angefangen hatte, die einst sehr gute Rotation (durchaus auf Augenhöhe mit Radio Eins) sukzessive auf das heutige unterste Dudelfunkniveau zu senken. Die Antworten waren erst noch, dass ja x Mio. Hörer das Programm "gut finden". Falsch: Sie geben an, es zu hören. Weil sie es vielleicht wirklich gut finden, weil sie keine Alternative haben oder weil es ihnen einfach egal ist. Später kamen keine Antworten mehr und irgendwann wurde die Pinnwand ganz entfernt.

Zu deinem Beispiel Orban, @Radiowaves: Womit da bei U2 tatsächlich geworben wird, ist ja wirklich krass. Für mich ist das fehlerhafter Klang. Hätte ich das auf CD, würde ich sie zurückgeben. Ich habe mir auch mal Alive and Kicking in Audacity angeschaut. Ich musste reinhören, um zu erkennen, wo der Ausschnitt im Original beginnt. Da ist ja gar nichts mehr an Dynamik vorhanden - die Bass-, die Snare-Drum sind komplett plattgewalzt. Dabei hallt die Bass-Drum im Optimod auch noch so unschön nach, was in der Originalfassung kaum hörbar ist.

Und auch dein Ausschnitt aus dem Radio-Eins-Programm macht mich wirklich traurig. Da ich nicht alle Titel kenne, die im Tagesprogramm von Radio Eins laufen, wird mir durch die Gegenüberstellung erst bewusst, wie sehr der Sound verfälscht wird. Es wäre so einfach und schön, diese herrliche Musikauswahl wie in dem ersten File in einer angenehmen Art auf die Lautsprecher zu bekommen.
 

Anhänge

  • Optimod.jpg
    Optimod.jpg
    563,1 KB · Aufrufe: 30
Zuletzt bearbeitet:
Eine Frage, die sich mir bei meinen Gedanken über das Thema gestellt hat, ist: Was versprechen sich die Sender davon, teure Technik einzusetzen, nur um das Signal noch "gleicher" zu machen, als es aus dem Studio kommt? Ist es der Konkurrenzkampf "(vermeintlich) lauter = präsenter"? Das wäre für ein belangloses Hitradio vielleicht ein nachvollziehbarer, wenn auch streitbarer Gedankengang. Aber für ein Programm, das sich an eine auditiv anspruchsvollere Zielgruppe richtet, läuft das dem Konzept des Programms doch zuwider.
 
I
Das ganze System ist hochgradig kaputt und pervers. Wir diskutieren das ja meist ausgiebig inhaltlich, aber die technische Seite ist genauso betroffen.
Wie ja ThoRr auch schon sehr passend anmerkte, worin besteht der Sinn, den Sound zu verhunzen? Inhaltliche Defizite - so sehr ich sie immer abgelehnt habe - wären ja für mich mit dem Argument "Kostenreduktion" wenigstens noch ansatzweise erklärbar.
(Teure) Technik zu verbauen und einzusetzen zur "Klangverhunzung" ergibt für mich nun aber überhaupt keinen Sinn.
Aber ich muss wohl nicht mehr alles verstehen...
 
Ist es der Konkurrenzkampf "(vermeintlich) lauter = präsenter"?
In 1. Linie, ja. Da gibt es zahlreiche Erhebungen mit der Erkenntnis, dass die Mehrheit der Hörer den jeweils lauteren Sender eindeutig vorzieht.

Zudem war es eine eher schleichende Entwicklung und ursprünglich sogar als Service für den Hörer gedacht.
Dieser Service, der dafür sorgen sollte, dass alle Programmteile gleich laut und gleich gut zu verstehen sind, ohne den Hörer ständig am Lautstärkeregler drehen zu lassen, ist (unter Beteiligung der üblichen Berater, übereifrigen Programmdirektoren und den Wünschen aus den Marketingabteilungen der Sender) immer weiter aus dem Ruder gelaufen. Da irgendwann alle Mitbewerber mindestens ebenso laut wie die eigene Station waren, musste man sich neue Unterscheidungsmerkmale einfallen lassen. Das war die Stunde der Klangverbieger: StereoMax, SonicMaximizer und so weiter, um das Sendesignal fetter, breiter, tiefer, bassiger, geiler erscheinen zu lassen.

Viele technische Entwicklungen und die umfangreichen Einsparungen von Fachpersonal im technischen Bereich sorgten dann dafür, dass auch technisch unerfahrene Mitarbeiter ihre Sendungen selbst fahren konnten/durften/mussten. Dadurch bedingt wurden natürlich Sicherungen (im Sinne von z.B. Limitern/Kompressoren) nötig, die z.B. übersteuerten Mikrofonsound und katastrophale Lautstärkesprünge verhindern konnten. Durch den Einsatz nahezu tauber Mikrofone konnte auf teuren Studioakustikbau verzichtet werden; man legte gesteigerten Wert auf die Optik der Sendestudios und hatte ja inzwischen auch einen ganzen Laden voller Displays unterzubringen. Und sei bitte dankbar für diesen ganzen Aufwand, denn das 'reine'... äh... also unbearbeitete Pultsignal eines handelsüblichen Radiosenders ist das pure Grauen. ;)

Im Zeitalter der Mini-Knopf-im-Ohr-Player ist dieses Processing völlig normal und die neue Generation Hörer stellt offenbar auch keine Qualitätsansprüche an den Sound, wenn man die Mucke auch noch hören kann, wenn grade die U-Bahn vorbeidonnert. Und grundsätzlich macht niemand Programme für den gesetzten Herrn im Ledersessel, der, noch im Büroanzug mit lässig gelockerter Krawatte und dem Weinbrandschwenker in der Hand, den Aufzug im dritten Akt genießt. Der ist längst weg oder hört das auf der Autobahn über seine bereits werksmäßig brutal verkurbelten Bose-Lautsprecher.
 
Es dürfte eine Kombination aus "Herdentrieb", panischem Nachäffen der Privaten, echtem Glauben an "das wollen die Hörer so" und Befolgen von Berater-Ratschlägen sein. Dazu die hörästhetische Entgleisung der Programmverantwortlichen. In welchem Maße welches bei den einzelnen Programmen zutrifft, vermag ich nicht zu beurteilen.

Letztlich ist das Kaputtmachen des Klanges auch bei den billigsten Popwellen schädlich, da so ausgerechnet die Mehrheit der Bevölkerung zunehmend vom natürlichen Hören entfremdet wird. Doch das tun Musikhören übers Smartphone, Magerbitraten auf Youtube und seit 20 Jahren billigste Vollplast-Anlagen an Stelle des einstigen Konfirmanden-Traumes von der ersten eigenen "richtigen" Stereoanlage ja auch.

@DelToro: der Witz ist ja, daß spätestens, seitdem die BNetzA auf die Nichtüberschreitung der 0 dBr Modulationsleistung achtet, der Lautheitsvorteil nicht mehr existiert. Wer derbe komprimiert, muß die Summe niedriger pegeln, damit sie nicht zu laut wird. Dann hat man knapp 0 dBr MPX-Leistung bei vielleicht nur 40 kHz Spitzenhub, während ein anderes Programm in den Spitzen bis knapp 75 kHz Hub kommt, aber auch bis knapp an 0 dBr MPX-Leistung rankommt. Der Unterschied zwischen beiden Programmen sind aber etliche dB mehr Dynamik - mal ganz übertrieben dargestellt.

Bei den Messungen, die die ARD im Sommer 2012 an ihren realen Programmen anfertigte, gab es solche Fälle. Radio Eins, um das es hier zuletzt ging, erreichte am 14.-15.8.2012 -18,2 LUFS Lautheit / 2,1 LU Loudness Range / -9,1 dBTP Spitzenpegel. Das RBB Kulturradio erreichte am 13.-14.8.2012 faktisch identische -18,5 LUFS Lautheit bei 10,6 LU Loudness Range und -7,1 dBTP Spitzenpegel. Da könnte tatsächlich bissl mehr FM-Hub dahinterstecken, weil man sichs leisten kann aufgrund des "luftigeren" Signals.

Fazit: lauter wird man nicht mehr mit Brachialkompression. Man wird nur platter und damit langweiliger. Und wenn der Kollege mit dem FMspy mal wieder in Berlin sein sollte, muß er selbigen mal zu Messungen an Hub und MPX-Leistung mitbringen.

Etwas völlig anderes sind freilich die von Dir genannten "fetter, breiter, ..."-Manipulationen. Da geht es ja nicht primär um Lautheit, sondern um "geiler". Und da muß ich manchen Programmen schon Respekt zollen, wie sie einen "fetten" Sound hinbekommen, ohne völlig kaputt zu klingen. In der letzten Zeit hatte ich beim irgendwo-Popwellen-Hörern (meist unfreiwillig im Schwimmbad) das Gefühl, manche Titel würden inzwischen sogar extra so produziert, daß sie trotz üblen Processings im Radio noch auffallend "fett" und nicht kaputt klingen. Kann aber auch sein, daß bestimmte heute gern genutzte Stilmittel zufällig gut zu manchen Processing-Zeitkonstanten passen. Sie sind schneller als die AGC, halten selbige also noch "unten" und erlauben dadurch etwas Dynamik, die nicht sofort ausgeregelt wird.

Diese scheußliche Nummer ist so ein Kandidat, bei dem mir das aufgefallen ist:


Der Bass hält die AGC unten und es hat so auch im Radio noch etwas Druck.

Witzig finde ich auch, wie die einst guru-mäßig installierten "tauben Mikrofone" (RE20) inzwischen ebenso guru-mäßig oft gegen Neumann-Großmembran (BCM 104 "Duschkopf") getauscht wurden. Es wirkt wirklich wie "Mode", denn es kommt massenhaft, wie in einer Welle.
 
Zuletzt bearbeitet:
Es dürfte eine Kombination aus "Herdentrieb", panischem Nachäffen der Privaten, echtem Glauben an "das wollen die Hörer so" und Befolgen von Berater-Ratschlägen sein. Dazu die hörästhetische Entgleisung der Programmverantwortlichen.
Aus meiner Sicht eine sehr treffende Zusammenfassung.

Witzig finde ich auch, wie die einst guru-mäßig installierten "tauben Mikrofone" (RE20) inzwischen ebenso guru-mäßig oft gegen Neumann-Großmembran (BCM 104 "Duschkopf") getauscht wurden. Es wirkt wirklich wie "Mode", denn es kommt massenhaft, wie in einer Welle.
Radio ist eine Welle, überall. Nicht nur im technischen Bereich, auch in der Moderation oder in den Verpackungen kommt alles mit gut vorhersagbarer Regelmäßigkeit. Überraschend ist daran maximal noch, welche spezielle Zutat aktuell ausgetauscht werden muss. ;)

Durch Neuentwicklungen wird viel Outboard auch einfach überflüssig, obwohl es für lange Zeit unverzichtbar schien. Dazu gehören die VIPs und das RTW 1206D und seine Brüder, ebenso die Signalverteiler und Sprechstellen, weil die (ihrerzeit wellenmäßig-modern plötzlich überall installierten) DHD-Pulte alles Nötige schon mitbringen. Mika-Arme haben den ganzen Einzellösungsschrott ebenfalls nahezu komplett verdrängt, USB-Mikrofone die Reportagesets ersetzt.

Neuer Trend auf breiter Front wird (dann doch schon :rolleyes: ) Whatsapp, Instagram ("Leute, da sind die Jungen, auf sie!") und... Visual Radio! Also im Grunde alles, was man in angrenzenden Ländern schon seit Jahren nutzt und tut, nur hat es nun mal irgendjemand auf irgendeinem wichtigen Media Dingsbums mit Powerpoint an die Wand geworfen und allen Beteiligten "Das! Und nur DAS ist die Zukunft, liebe Brüder und Schwestern! Jetzt Whatsapp nutzen oder morgen sterben!" zugerufen. Na, geht doch.
 
Zuletzt bearbeitet:
In 1. Linie, ja. Da gibt es zahlreiche Erhebungen mit der Erkenntnis, dass die Mehrheit der Hörer den jeweils lauteren Sender eindeutig vorzieht.

Getreu dem Motto: Trau keiner Statistik, die Du nicht selbst gefälscht hast! folgende Anmerkung dazu.

Richtig ist, dass eine Erkenntnis lautet, dass das lautere Signal bevorzugt wird, sogar wenn es sich dabei um genau dasselbe also unbearbeitete Signal handelt, welches lediglich um ggf weniger als 1 dB lauter gemacht wurde!
Daraus wird dann eben immer wieder die Behauptung, dass die Hörer dieses Kriterium auch auf Sender anwenden, obwohl diese ja niemals zeitgleich inhaltlich dasselbe Signal anbieten. Nur dann wäre ja ein echter Klang-/Sound-/Loudnessvergleich möglich.

Ohne Probleme könnte ein aktueller CD Track auf UKW mit der dort erreichbaren Loudness von -18LUFS ausgestraht werden, ohne ihn zusätzlich zu bearbeiten. Die Truepeaks lägen dann mit ca -10dBfs sogar unterhalb den technisch möglichen. Innerhalb des Titels nachzuregeln wäre auch überflüssig, da die Dynamik (der Unterschied zwischen lauten und leisen Stellen in der Musik) heutzutage sowieso meist kleiner als 5LU beträgt, was gerade bei Musik vom Ohr problemlos verfolgbar ist. Außerdem würden diese gewollten Unterschiede dann auch das Ohr des Hörers erreichen. Stattdessen hören wir heute eben immer, dass im Refrain runter gezogen wird, damit es dann bei der Strophe wieder nach oben geht, damit nur alles schon gleich bleibt. :(
Anders ist dies sicher mit Sprache unterschiedlicher Loudness und zu großer Schwankungen in deren Dynamik. Aber dem kann man ja mit gezieltem Voiceprozessing entgegenwirken, anstatt auch die Musik durch diese Presse zu knüppeln, merke:
Jedes Audiosignal erfordert ein eigenes ggf. nicht zu vereinheitlichendes Audioprozessing! Zumindest wenn einem der Klang und nicht irgendein Sound am Herzen liegt. ;)

Beste Grüße, Björn
 
Zuletzt bearbeitet:
Ja, die Popwellen-Rotation kommt ja schon in fettem Sound aus der Musikindustrie. Da müßte man nichts mehr dran machen. Was machen muß man dann z.B. am Mikrofonweg, der gehört in einem solchen Umfeld durchaus etwas "angefettet", sonst paßt das Peak-Lautheits-Verhältnis einfach nicht zur Musik und man handelt sich Streß ein.
 
Mit dem Thema "Lärm" hat sich auch das Schweizer Fernsehen Ende vergangenen Monats in der Sendung Einstein unter den Themen
Was ist laut - und was ist Lärm? / Der neue «Flüster-Jet» der Swiss / Wenn Lärm zur Hörenswürdigkeit wird
beschäftigt. Unter anderem geht es auch um "Hörschrott", "Klangpostkarten", "klassische Orchester" und der Moderator testet, wie man sich in einem schalltoten Raum fühlt.

Der Vodcast findet sich hier.


Ein bisschen Schweizerdeutsch zu verstehen empfiehlt sich.
 
Zuletzt bearbeitet:
Mit dem Thema "Lärm" hat sich auch das Schweizer Fernsehen Ende vergangenen Monats in der Sendung Einstein...beschäftigt

...und im Fernsehen natürlich nach R128 produziert, inklusive sinnvoller, weil dramaturgisch wichtiger, Dynamik. Somit lassen sich nämlich auch Unterschiede zwischen laut und leise darstellen, beispielsweise beim Vergleich der Flugzeuggeräusche bei ca. 6:30. Mit aktuellem, angeblich unverzichtbarem Hörfunkprozessing, würde permanent nachgeregelt und somit die Unterschiede hinfällig, der Sinn des Beitrages vollkommen zerstört.

Danke für das schöne Beispiel!

Beste Grüße, Björn
 
Da gibt es zahlreiche Erhebungen mit der Erkenntnis, dass die Mehrheit der Hörer den jeweils lauteren Sender eindeutig vorzieht.
Hierzu wären unbedingt die Rahmenbedingungen des Tests zu erwähnen.

Im direkten Vergleich ist der Vorzug unbestritten eindeutig. Das haben sogar Toningenieure in Tests bestätigt (Der Lautheitsunterschied sagt aber noch nichts darüber aus ob das lautere Signal entsprechend bearbeitet wurde).

Wenn dann aber mit dem Lautstärkesteller beides auf subjektiv gleiche Abhörlautheit nivelliert wird sieht das schon anders aus. Dann machen sich die Unterschiede in Klang und Dynamik bemerkbar. Auch wenn anfangs dem aggressiveren Klang der Vorzug gegeben wird kann sich das wegen Eintönigkeit und Ermüdung ins Gegenteil verkehren. Dann schaltet der Hörer um oder ab.

Zudem war es eine eher schleichende Entwicklung und ursprünglich sogar als Service für den Hörer gedacht.
Was den Service betrifft:
In den Zeiten als Dynamikkompression im Hörfunk noch verpönt war gab es Aussteuerungs-Richtlinien für diverse Genres, zu Sprache und Musik. So wurde z.B. die Musik entsprechend niedriger ausgesteuert als Sprache. Die Programmlautheit lag im Mittel bei -23LUFS und praktisch niemand im Versorgungsgebiet hat sich m.W. über's UKW-Rauschen beschwert. Der Klang war meist kristallklar und ganztätig anhörbar (vom Inhalt mal abgesehen).

Aus dem Ruder gelaufen ist das m.E. zunächst durch den Einfluss ausländischer Sender und letztendlich durch den deutschen Kommerzfunk, der versuchte seine begrenzte technische Reichweite durch Brüllen auszugleichen. Unter diesem Druck konnten sich auch im soliden Hörfunk die Protagonisten des Loudness Wars und in der Folge des Sound Designs durchsetzen.

mfg.

add
Ja, die Popwellen-Rotation kommt ja schon in fettem Sound aus der Musikindustrie. () Was machen muß man dann z.B. am Mikrofonweg, der gehört in einem solchen Umfeld durchaus etwas "angefettet", sonst paßt das Peak-Lautheits-Verhältnis einfach nicht zur Musik ...
Ich fürchte mit "etwas anfetten" kann Sprache nicht mit der fetten Industriemusik konkurrieren, letztere müsste zum Ausgleich soweit runtergezogen werden, daß sie deutlich unter dem zulässigen Spitzenhub liegt. Übrigens wirkten schon die früher verwendeten Amplitudenbegrenzer als "Anfetter" für die Sprache.
 
Zuletzt bearbeitet:
Ich fürchte mit "etwas anfetten" kann Sprache nicht mit der fetten Industriemusik konkurrieren, letztere müsste zum Ausgleich soweit runtergezogen werden, daß sie deutlich unter dem zulässigen Spitzenhub liegt. Übrigens wirkten schon die früher verwendeten Amplitudenbegrenzer als "Anfetter" für die Sprache.

Natürlich meinte ich: die "Industriemusik" gehört auch nach R128 ausgesteuert. Damit fällt sie sowieso ca. 8-12 dB in der Aussteuerung ab. Die Mikrofonwege dann unbearbeitet (kann man sich vor allem im Selbstfahrstudio kaum leisten) ebenfalls nach R128 dazuzugeben würde aber spätestens bei den 5 dB Gain, die für UKW hinzugefügt werden, ins Clipping laufen. Das könnte man natürlich so einstellen, daß hier eine akustisch erträgliche Kompression entstünde, da wäre das "Anfetten" tatsächlich wieder da, wo Du es von früher beschrieben hast: im Amplitudenbegrenzer. Man kann es aber auch vorab machen. Es geht nicht um gewaltsames Verbiegen, sondern ums dezente Komprimieren der höchsten Spitzen in den Mikrofonwegen.
 
In den Zeiten als Dynamikkompression im Hörfunk noch verpönt war gab es Aussteuerungs-Richtlinien für diverse Genres, zu Sprache und Musik. So wurde z.B. die Musik entsprechend niedriger ausgesteuert als Sprache

Anmerkung dazu:
Diese Aussteuerungsempfehlungen bezogen sich anfangs auf unkomprimiertes und speziell bearbeitetes Material und auf die damals verwendeten Messinstrumente, in der Regel sog. Quasipeakmeter mit 10ms Integrationszeit. Somit empfahl man also Offsetwerte, weil man wusste, dass die Anzeigen einige Pegelspitzen (z.B. kurze Peaks durch Snaredrums o.ä.) gar nicht anzeigen, diese jedoch trotzdem sauber übertragen werden sollen, man brauchte also Headroom. Ebenso gab es dann auch Emfehlungen für die bewusste Untersteuerung von komprimiertem Material (Headroom durch schnelleres Peaklimiting ggf. überflüssig), was der Versuch war, eine durchgängige Loudness zu erreichen.
Das alles waren Empfehlungen für Denjenigen, der am Produktionspult sitzt und das Signal zusätzlich auch mit den Ohren bewertet. Wenn dieses Signal so dann auch zur Sendung käme, wäre eigentlich alles gut. Aber dann kamen eben die vielfältig besprochenen Prozessings, die eben heute viel mehr machen, als rein technische Richtwerte zu garantieren. Je nach Einstellung würden sie eine eben beschriebene Untersteuerung ggf. wieder zunichte machen. Da diese Kisten nicht in der Produktionsregie sondern in der Sendeabwicklung sitzen, kann der Kollege am Produktionspult (ggf. auch ein Ü Wagen) auch gar nicht richtig kontrollieren geschweige denn beeinflussen, wass genau ausgestrahlt wird. Noch schlimmer, wenn seine Produktion evtl. auf unterschiedlichen Wellen zur Sendung kommt, dann wird sie dort auch noch unterschiedlich klingen.

Beste Grüße, Björn
 
Wer hat's erfunden? Äh: Eingeführt? Ja, es waren die Privaten. Ich erinnere mich daran, wie wir anno 89 im Produktionsstudio in Ulm saßen und mal Antenne Bayern auf's Pult (und damit auf den RTW) gelegt haben. Reichlich ungläubig haben wir auf die Anzeige geschaut, die sich kaum mal einen Millimeter bewegt hat. Wir selbst haben damals noch brav ein sauberes Signal gefahren, Musik 2 dB unter Sprache.

ABER: Der Trend zum Optimodisieren kam ja aus den USA. Dort hatte Orban mit seinem Multiband-Kompressor Optimod einen ziemlich Eindruck auf dem Hörfunkmarkt hinterlassen. Kein Wunder: Ein gut komprimiertes Signal reicht bei AM einfach mal weiter, weil es an den Rändern des Versorgungsbereiches nicht so schnell im Rauschen untergeht. Nun aber zeichnete sich ab, dass in den USA nach Jahrzehnten, in denen FM (=UKW) nur eine Randerscheinung war, die Mittelwelle immer weiter zurückgedrängt wurde und UKW die Führung übernehmen würde.

Damit wäre der schöne Markt für Sendekompressoren weg gewesen. Also erzählte man den Station Managern, dass lautere Sender mehr gehört würden. Auch auf UKW! Und die haben es geglaubt. Mal abgesehen davon, dass es -wie schon schon von "Tonband" und "marillenfreund" geschrieben- gewisse Neigungen in dieser Richtung gibt - diese aber wohl um einiges überzogen dargestellt wurden.

Interessant übrigens, dass der bei US-Engineers durchaus gängige Begriff der "listener fatigue" kaum seine entsprechende Verbreitung im deutschen Sprachraum gefunden hat...

By the way: Bemerkenswert war seinerzeit (80er) ja der Sound von 208 Luxembourg (engl. Programm) auf 1440. Weiß jemand, welche Kompressionsgerätschäft hier eingesetzt wurde? Der fette Sound war seinerzeit buchstäblich einmalig.

Es grüßt in die Runde:
oneaclock
 
Ich kann mich noch gut an die Zeit Mitte der 80er erinnern. Bayern 3 hatte da noch guten sauberen und dynamischen Klang. Ö3 aus Österreich war lauter, hatte aber auch schon massiv dieses Pumpen im Klang drin, das ich damals so seltsam fand und überhaupt nicht verstand, warum man das braucht. Das kannte ich sonst auch noch von AFN, aber der klang eh immer schon etwas gruslig.
Ich glaube, die Südtiroler (Radio Brenner, Südtirol 1, Radio Transalpin) klangen auch immer recht sauber, die hatten wohl eh kein Geld für so Schnickschnack.

Später bei den ersten privaten Lokalsendern in Bayern gehörte Dynamikkompression dann schon zum "guten Ton" und Antenne Bayern hatte das natürlich auch gleich von Anfang an. Irgendwann dann Anfang der 90er begann auch Bayern 3 mit diesem Mumpitz (als nach einer Programmreform diese Super 3-Sendung eingeführt wurde), allerdings anfangs noch relativ sanft.
 
@Inselkobi: Danke für den Hinweis auf diese SRF-Sendung.

Die Nummer mit den Fressgeräuschen von Schnecken muß ich direkt auch mal ausprobieren. In den Studios von Radio Zwergenland ("Hinter den sieben Bergen") ist es nachts bekanntlich auch sehr ruhig. Nicht schalltot, aber durchaus sehr leise. Als Störgerausch entpuppte sich bei mir auch schon das leise Rauschen des Wassers (bzw. der Pumpe) in den Rohren der Heizung. Grundsätzlich sind unsere Reportergeräte und Mikrofone schon gut und empfindlich. Aber gerade bei solchen - von der Idee her durchaus etwas schrägen - Aufnahmen muß der Aufnahmeverstärker zeigen was er kann.

BTW: Ich bin übrigens schon seit längerer Zeit auf der Suche nach einem "Standardgeräusch", welches sich in jedem Haushalt findet, leicht reproduzierbar ist (bitte keine Basteleien mit Elektronik) und mit seiner definierten "Lautstärke" (in einer definierten Entfernung zum Mikrofon) für eine (nach dem Einpegeln) einigermaßen verlässliche Vergleichbarkeit der Aufnahmen der einzelnen Recorder sorgen könnte. Mir ist noch nix wirklich praktisches eingefallen. Ein Piezo-Feuerzeug "knackt" zwar sehr kurz (Stichworte: Impulsantwort, Faltung, Raumsimulation), aber nicht immer gleich laut und fällt damit als "Lautstärke-Normal" aus. Vorschläge?

Bei der AAA hat man vor Jahren ein(!) Testband von einem zum anderen Tonbandfreund per Post verschickt, worauf diese zumindest die Wiedergabeseite ihrer Maschinen "einigermaßen" (oder auch genauer) auf "Standard" einstellen konnten. Das ist Voraussetzung, bevor man überhaupt auf der Aufnahmeseite anfängt rumzudrehen...

Wir können aber kein "Standard-Geräusch" in physikalischer Form (meinetwegen einen Wecker) mit der Post verschicken. Oder müssen wir das doch?

Das war jetzt leicht OT. Zum eigentlichen Thema melde ich nachher nochmal.
 
Zuletzt bearbeitet:
Also erzählte man den Station Managern, dass lautere Sender mehr gehört würden. Auch auf UKW! Und die haben es geglaubt. Mal abgesehen davon, dass es -wie schon schon von "Tonband" und "marillenfreund" geschrieben- gewisse Neigungen in dieser Richtung gibt - diese aber wohl um einiges überzogen dargestellt wurden.

Es ist tatsächlich so, daß es nahezu unmöglich ist, UKW-Empfang qualitativ mit einer nicht-Kulturwelle zu überprüfen. Ich mußte das in den vergangenen Monaten des öfteren tun, da ich ein Kabelnetz UKW-mäßig komplett neu erstellt habe. Neben potentiellen Empfangsproblemen von UKW-Signalen in der Kopfstelle (bei uns bis auf eine zur Zuführung genutzte Frequenz nicht zutreffend) ging es vor allem um Rauschen, das erst in den Empfängern der Kabelkunden entsteht, wenn mehrere Programme durch die Vorselektion des Tuners bis in den ZF-Mischer vordringen. An dessen Kennlinie können solche Sauereien passieren. Dagegen hilft eine geschickte Frequenzwahl für die Auskabelungen, letztlich sollten binnen 2, besser 3 MHz keine gleichen Abstände zwischen Programmen vorkommen. Sonst könnten Mischprodukte auf belegte Frequenzen fallen.

Bei uns ists nun so, daß der DLF im Kabel gering mehr rauscht als DKultur. Man merkt es, wenn man mit Kopfhörer bei ruhiger Umgebung hinhört. Hätte ich auf dieser Frequenz eine Popwelle drauf, würde das nie auffallen. Deren hochgezogenes Rauschen bei eigentlich leisen Stellen in den gesendeten Musiken oder der hochgezogene Raumklang bei Sprache dominiert völlig.

Derbe komprimiert verdeckt also schon eventuelle Empfangsprobleme, freilich mit Kollateralschäden. Wäre das, was Klassikradio z.B. so abliefert, ein Empfangs-Rauschen, würde ich aktiv werden und so lange am Kabelnetz herumbasteln, bis es behoben ist. Die haben inzwischen immer Orkan in Pianissimo-Stellen...
 
Bei uns ists nun so, daß der DLF im Kabel gering mehr rauscht als DKultur. Man merkt es, wenn man mit Kopfhörer bei ruhiger Umgebung hinhört. Hätte ich auf dieser Frequenz eine Popwelle drauf, würde das nie auffallen. Deren hochgezogenes Rauschen bei eigentlich leisen Stellen in den gesendeten Musiken oder der hochgezogene Raumklang bei Sprache dominiert völlig.

Wenn Du sagst es rauscht gering mehr, ist das wirklich so unzumutbar, dass man dagegen ankämpfen muss? Außerdem wäre natürlich schon interessant, an welchen Stellen im Programm (Sprechpausen, leise Stellen in Musik etc) dies geschieht.
Und genau daher macht man sich ja schon immer Gedanken darüber, wieviel Dynamik ein Programm verträgt. Und hierbei müssen wir schon wieder unterscheiden, denn nicht in jeder Form von inhaltlichem Programm ist Dynamik auch sinnvoll, denn wenn die inhaltliche Information in der Sprache zu finden ist, dann sollte diese eben auch relativ konstante Loudness oder eben eine geringe Dynamik aufweisen, damit man die Information auch durchgängig gut verstehen kann. Wenn Dynamik in der Sprache ggf ein dramaturgisch wichtiges Stilmittel darstellt, wie zum Beispiel im Hörspiel, dann kann die Loudnessrange/Dynamik durchaus höher sein, auch hier ist jedoch über sinnvoll große Unterschiede zwischen laut und leise nachzudenken und technisch dafür zu sorgen. In einer Nachrichtensendung oder Talkshow ist zu große Dynamik absolut kontraproduktiv!
Aus meinen praktischen Erfahrungen ist es auch hier ratsam, nicht mehr ausschließlich mit Peakleveln, sondern zunehmend mit Loudnessleveln zu arbeiten. Denn ein eventuelles Rauschen muss eben von einem bestimmten Loudnesslevel überdeckt werden, der Peaklevel (der könnte durch Schmatzen bei dicht besprochenem Mikrofon sehr hoch sein) eines Tonsignals ist dafür ggf nicht aussagekräftig.

Und nun muss man wieder schauen, welcher durchschnittliche Loudnesslevel ist erforderlich, um Signale technisch sauber bis zum Empfänger zu übertragen? Dabei ist folgender Aspekt auch zu berücksichtigen, vor allem wenn es Hörer-/Zuschauerbeschwerden gibt. Wie oben erklärt entsteht Rauschen ggf. im Empfänger, was man auf Senderseite also gar nicht im Griff hat.
Ebenso bieten zum Beispiel Fernsehgeräte in ihren Audioeinstellungen heutzutage klangverändernde Einstellungen an, die weit über die eines EQs hinaus gehen. Diese können sich erheblich auf die Sprachverständlichkeit auswirken, wenn zum Beispiel so etwas wie "Raumklang" oder "Musik" angeboten wird, weil hier oft Stereoanteile verstärkt werden und dann Raumanteile evtl. die Sprache verdecken.
Bei der Übertragung von Audio im Dolbyformat (kann auch stereo also 2.0 sein) wirken zudem auch Dolby eigene Beeinflussungen im Empfänger. Diese wirken durch die in den Dolbymetadaten festgelegten Parameter. Um die Auswirkung auch schon in der Produktion also auf Senderseite einzuschätzen gibt es von Dolby das DP 570, das sog. Autiotool, welches die Empfängerseite simuliert.

Ich mache mal Schluss mit der Erkenntnis, dass das was beim Empfänger heraustönt ggf. nicht das ist, was der den Ton Herstellende in seiner Regie hört, eben weil sehr viele Variablen, inklusiver unterschiedlicher Wellenprozessings (weshalb???) in diesem Signalweg liegen können.
Ich muss hier leider darauf hinweisen, dass das Fernsehen dieser Problematik auf eine sinnvollere Art reagiert hat, als es das Radio noch immer versucht. Dazu empfehle ich gern noch einmal die 20 Uhr Tagesschau, die ja in verschiedenen Fernseh- und Radiokanälen übertragen wird. Wenn man die TV Kanäle wechselt, dann wird sie immer gleich klingen, weil man auf nachträgliches Prozessing verzichtet. Auf den verschiedenen Radiokanälen hingegen wird man neben unterschiedlicher Loudness vor allem veränderte Räumlichkeiten bei Moderationen und oft pumpende und unerträglich verdichtete Mischungen zwischen Sprache und Atmo in den Beiträgen feststellen, was der Sprachverständlichkeit oft massiv entgegen wirkt. Schwierig ist dieser Hörvergleich natürlich, weil man ja niemals wirklich genau dieselbe Stelle hört. Wer also die Chance hat müsste das mal auf zwei verschiedenen Wegen parallel aufzeichnen, um es im Nachhinein zu vergleichen. Den reinen Test, dass die TV Kanäle identisch sind, während es im Radio hin und her geht, kann man natürlich auch recht unkompliziert gestalten, weil Kabel und Satellitennetze die Wiedergabe beider Signale anbieten.

Jetzt ist es doch wieder viel Text geworden, sorry und beste Grüße! Björn
 
Wenn Du sagst es rauscht gering mehr, ist das wirklich so unzumutbar, dass man dagegen ankämpfen muss?

Nein, muss man sicher nicht. Man hört es bei einem guten UKW-Empfänger nur unter Kopfhörer und bei Ruhe im Zimmer. Dazu braucht man eine Signalpause (Nachrichten mit längerer Sprechpause) oder eine Pianissimo-Passage in einem Klavierkonzert. "Gute Empfänger" fürs Kabel müssen überraschenderweise nichtmal teure separate Tuner sein, eine Komplettanlage Onkyo CR-L5 ist besser an diesem Kabelanschluss als ein Sony ST-S 361 (einst Bestbewertung STEREO), jeweils mit individuell optimiertem HF-Pegel. Die getesteten Kabelanschlüsse in Jena und Berlin-Oberschöneweide (beides TeleColumbus) waren deutlich verrauschter. Dort konnte ich aber weder Pegel messen noch fein einstellen und es waren andere (Yamaha-)-Anlagen.

Wenn Dynamik in der Sprache ggf ein dramaturgisch wichtiges Stilmittel darstellt, wie zum Beispiel im Hörspiel, dann kann die Loudnessrange/Dynamik durchaus höher sein, auch hier ist jedoch über sinnvoll große Unterschiede zwischen laut und leise nachzudenken und technisch dafür zu sorgen.

Sollte doch eigentlich in Hörspielproduktionen für den Rundfunk berücksichtigt werden, oder?

Bei der Übertragung von Audio im Dolbyformat (kann auch stereo also 2.0 sein) wirken zudem auch Dolby eigene Beeinflussungen im Empfänger. Diese wirken durch die in den Dolbymetadaten festgelegten Parameter.

...und schon das wird in den Empfangsgeräten unterschiedlich gehandhabt. Ein Sat-Receiver Technotrend TT-select S845HD+ ist auf der AC3-Spur bei den öffentlich-rechtlichen Kulturwellen 6 dB lauter (!) als auf der MP2-Spur. Ein Sat- oder Kabelreceiver von LaSAT/Bemondis ist das nicht. Leider kann der Technotrend im AC3-Modus nur Bitstream-Output am SPDIF und nicht auch Stereo-Downmix-PCM, sonst hätte ich längst mal mit der Margin-Anzeige eines DAT-Recorders nach Übersteuerungen im AC3-Output gesucht. Das ganze am Analogausgang zu suchen war mir bislang zu beschwerlich.

Auf den verschiedenen Radiokanälen hingegen wird man neben unterschiedlicher Loudness vor allem veränderte Räumlichkeiten bei Moderationen und oft pumpende und unerträglich verdichtete Mischungen zwischen Sprache und Atmo in den Beiträgen feststellen, was der Sprachverständlichkeit oft massiv entgegen wirkt.

Das kannst Du auch auf DVB haben. Nimm Dir mal die MDR-Nachrichten vor, die ab 23 Uhr parallel auf MDR Info, MDR Figaro, MDR 1 Sachsen, MDR Sachsen-Anhalt und MDR Thüringen laufen. Anbei 3 Beispiele, leider nur mit den kaputten "Einsern", die sich hier allesamt pervers zerstört, aber doch unterschiedlich präsentieren. Wie die Nachrichten leidlich brauchbar (Figaro, sauber ist das auch nicht, die haben selbst schon Kompression im Mikrofonweg drin) klingen, kann man sich ja vorstellen.
 

Anhänge

  • 2014-07-27_00-01-12_MDR1 SACHSEN_MDR1 SACHSEN_cut.mp2
    3 MB · Aufrufe: 11
  • 2014-07-27_00-01-13_MDR S-ANHALT_MDR S-ANHALT_cut.mp2
    3 MB · Aufrufe: 10
  • 2014-07-27_00-01-14_MDR THÜRINGEN_MDR THÜRINGEN_cut.mp2
    3 MB · Aufrufe: 9
Kleiner, aber sehr auffälliger, "Zufallsfund" aus dem SWR1-Kopfhörer vom Donnerstag. Da haut es euch die Rübe runter... ;)

Oben im Bild die Waveform vom SWR1 (über DAB+ aufgezeichnet), unten die Referenzaufnahme. Beide Aufnahmen laufen minimal auseinander (evt. unterschiedliche Quell-CDs), dürften aber von der selben analogen "Ur-Quelle" (hier leider kein Bier) stammen. Man achte hierbei auf die Geräusche, die an leicht "kratzende Potis" oder dieses "schmiergeln" bei manchen Schallplatten erinnern.

Ich sags mal so: Das Soundprocessing von SWR1 (nur in/aus BAD?) ist für derartige Musikaufführungen etwas ungeeignet. Und ja, unter Kopfhörern hört man die überaus schnelle Reaktion der AGC auch in kurzen Sprechpausen während der Nachrichten als leichte Zunahme des Grundrauschens.
 

Anhänge

  • SWR1_vs_Referenz_Uriah_Heep_Gypsy.gif
    SWR1_vs_Referenz_Uriah_Heep_Gypsy.gif
    72 KB · Aufrufe: 25
  • 20160421_2226_SWR1_Uriah_Heep_Gypsy.mp3
    1,3 MB · Aufrufe: 26
  • Referenz_Uriah_Heep_Gypsy.mp3
    1,4 MB · Aufrufe: 19
Otto spielt "Gypsy"? Donnerwetter! :thumbsup:

Schönes Beispiel. Der Soundprozessor schiebt bei plötzlicher Fastnull-Modulation im linken Kanal (im Song ca. 20 Sekunden lang ab 4:12) den Pegel hoch, allerdings (und gottseidank) nicht bis Vollaussteuerung. Trotzdem kein Genuss.

Die kritische Stelle könnte man bearbeiten. Mein Vorschlag wie angehängt. :D
 

Anhänge

  • Urah_Heep_-_Gypsy.mp3
    1,1 MB · Aufrufe: 14
Zuletzt bearbeitet:
Moment mal. Stille im linken Kanal... Da war doch mal was. Genau. Pink Floyd - Wish you were here. Diese Stille im linken Kanal am Anfang triggerte im August 2015 die Silence-Detection, obwohl im rechten Kanal durchaus noch Pegel anlag. Beispiel unten.

Kann es sein, daß das SWR1-Soundprocessing nur den linken Kanal, anstatt die Monosumme, als Regelgröße nimmt?
 

Anhänge

  • 20150822_234925_SWR1__Pink Floyd mit Mel & Kim.mp3
    331,2 KB · Aufrufe: 14
Kann es sein, daß das SWR1-Soundprocessing nur den linken Kanal, anstatt die Monosumme, als Regelgröße nimmt?
Das weiß ich nicht. Das können andere, mehr mit der Technik Vertraute, besser beantworten. Ich kann mir nur vorstellen, dass das Soundprocessing die Stereo-Kanäle getrennt betrachtet, zumindest getrennt bearbeitet. Man sieht es deutlich an Deiner Grafik, dass links die sehr, sehr leisen Signale nach dem Pegelabfall allmählich angehoben wurden, unschöner Klang.

In meinem Beispiel habe ich diese 20-Sekunden-Strecke links auf Stille ausgeblendet, damit der Prozessor aus der Stille nicht mehr machen kann. X mal Null bleibt Null. Soll doch meinetwegen im Schaltraum der Sendeausfall-Alarm ausgelöst werden. :)
Den rechten Kanal habe ich in dieser kritischen Phase sanft um 200% angehoben, damit ich das Signal vorgebe und nicht der Prozessor wie in Deinem Beispiel zu sehen, macht, was er will. Die Anhebung hätte sogar noch mehr sein können.
 
Zuletzt bearbeitet:
@Zwerg#8, so schnell kommt doch keine Silence Detection, oder? Da sollte schonmal 10 Sekunden Ruhe sein, sonst triggert man sich das doch ständig. Und dann startet das "Notband" (beim hr warens vor etlichen Jahren Flashcard-Player im Schaltraum, dürfte anderswo nicht viel anders aussehen) doch hoffentlich nicht mitten im Titel...

@count down, ich habe den Eindruck, die Kanäle sind gekoppelt bearbeitet. Wenn man mal in einer Software auf das original eine heftige Kompression drauflegt, merkt man, daß das recht ähnlich klingt. Leider habe ich kein AGC-Plugin greifbar, mit dem ich mal richtig "nachbauen" könnte. Man sieht es auch beim Vergleich der Hüllkurven. Der linke Kanal geht erstmal radikal hoch, aber ab etwa 16 Sekunden dimmt er, weil im rechten Kanal der Pegel steigt. Das gegenteilige verhalten Original - SWR 1 ist deutlich zu erkennen: im Original wird links ab etwa 22 Sekunden lauter, bei SWR 1 wird es leiser, da rechts die Regelung dominiert.

In meinem Beispiel habe ich diese 20-Sekunden-Strecke links auf Stille ausgeblendet, damit der Prozessor aus der Stille nicht mehr machen kann. X mal Null bleibt Null.

Bleibt es nicht zwingend, siehe das Ergebnis von Radio Eins, das ich letztens gepostet habe:
http://www.radioforen.de/index.php?attachments/radioeins-20111216-panne-pultmitschnitt-mp3.11919/
vs.
http://www.radioforen.de/index.php?attachments/radioeins-20111216-panne-dvb-mitschnitt-mp3.11920/

Das war freilich nicht "null", sondern offenbar Dither oder gar eine analoge Zwischenstrecke irgendwo in Babelsberg. Und das wurde auch gnadenlos hochgezogen. Präzise "Null" gibt es möglicherweise gar nicht, weil immer irgendwo Dither drinhängt, also ein Zufalls-Signal (Rauschen) auf den ein, zwei kleinsten Bits. Das mutet im ersten Moment als absurd an, sorgt aber bei Operationen wie z.B. Bittiefen-Konvertierung (24 auf 16 Bit) oder generell bei extrem niedrig gepegelten Stellen für hörbar saubereren Klang als z.B. simples "Abschneiden" überzähliger ("zu fein aufgelöster") Bits. Man kann durch Rauschformung sogar dafür sorgen, daß einzelne Töne spektral sauber stehen, obwohl sie unterhalb der formalen Auflösungsgrenze des Systems (16 Bit: 96 dB) liegen. Dabei wird die rausch-Energie in andere weniger störende Spektralbereiche (z.B. zwischen 16 kHz und CD-Nyquist-Grenze 22,05 kHz) verschoben. Man kann das freilich nicht grenzenlos ausreizen, die Energie bleibt erhalten und wird dann in den anderen Frequenzbereichen störend. Es gibt irgendwo eine Demo, bei der der natürliche Rauschgrund einer CD (16 Bit) um einen extrem leisen Pegelton herum abgesenkt wurde, der Ton ist faktisch nicht darstellbar (er läuft nur im kleinsten Bit), aber er kann problemlos nach Verstärkung gehört werden und geht nicht im Rauschen unter. Nichts anderes machte z.B. Sony beim "Super Bit Mapping", nur halt breitbandiger im empfindlichsten Hörbereich. Vgl. auch die Grafiken hier: http://www.production-partner.de/basics/dac-converter-dsd-fuer-sacd/2/.

Zurück zum Thema: kaputtes Processing bei SWR 1. Man will halt auf Biegen und Brechen immer voll laut sein. Dabei passiert so etwas zwangsläufig - woher soll der arme Prozessor wissen, daß diese Stelle so gedacht ist? Das extrem schnelle Hochregeln (man macht so etwas normalerweise deutlich langsamer, dann fällt es kaum auf bzw. die Passage geht vorüber, bevor es schlimm wird) scheint wohl Mode zu werden? MDR Sachsen-Anhalt ist ähnlich krank unterwegs.

Was hier neben deutlich längerer Zeitkonstante eventuell helfen würde:

- Maximalen Verstärkungsfaktor beim Hochregeln begrenzen auf vielleicht 6 bis 10 dB. Im Hörbeispiel zieht es ca. 30 dB hoch! Die Funktion wird von den Amis gerne "Gated AGC" genannt und soll genau so etwas verhindern.

- AGC weiter einschränken und stattdessen mit mehr über-alles-Kompression arbeiten. Damit hat man die Dynamik schonmal eingeschränkt, so daß solche Stellen (wo fast gar nichts mehr kommt) nicht mehr vorkommen. Dabei geht es um Kompressionsraten von vielleicht 1,5:1 oder so, nicht 5:1.

Königsweg meiner Meinung nach: das ganze komplizierte Geraffel mit dutzenden Parametern rauswerfen, einen Jünger d07 ausm Fundus holen, reinhängen, Level Magic aus, dezente Kompression an, das passende der wenigen Presets auswählen und fertig. Klingt dann wie Bayern 2 und ist brauchbar.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben