Der Soundprocessing-Thread

Status
Für weitere Antworten geschlossen.
@marillenfreund
Ja, natürlich kommt sie, hatte nur keine Lust, dass von unterwegs ausführlich ins Handy zu hacken.

Ich sag mal, richtge Fakten, falsche Schlußfolgerungen.

"Es ist doch gar nicht unsere Aufgabe, die angelieferten Musiken klanglich zu verändern und ihnen am Ende auch noch eine eigene, rein subjektive, Note zu verleihen!"

Jain.
Dazu müssen wir nochmal zu den Aufgaben des Soundprozessings kommen und dessen Notwendigkeit erkennen. Verneint man die Notwendigkeit, konnen wir uns das alles hier Sparen.
Aufgaben sind eine möglichst gleichbleibende Lautheit über das gesamte ausgespielte Material, ein gleichbleibendes Klangbild und die Einhaltung der Vorgaben bei der FM Übertragung. Das mal grob reduziert.
Das macht man, damit man nicht ständig am Lautstärkregler sein muß und damit man alles gleich gut versteht, auch in lärmreichen Umgebeungen, wie im Auto (da wird am meisten Radio gehört). Deshalb kommt man nicht drum rum, das Klangbild des Ausgangsmaterials in der Summe zu ändern. Das ist leider die Nebenwirkung. Diese Nebenwirkungen sollten möglichst gering sein, deshalb ist es wichtig auf Regelartefakte zu achten.
Ich gebe gerne zu, dass jedoch mit dem Prozessing viel Mist gemacht wird. Die meisten Dynamiksektionen z.B. greifen zu stark ein, sind also falsch eingestellt. Ein gut eingesteller Multibandkompressor hat eine max. Gainreduction von 6 dB pro Band. Alles darüber klingt gepresst.

"Was genau ist eigentlich das Ausbügeln von Klangunterschieden? Diese Entstehen ja teils einfach durch die Instrumentierung, das Arrangement und zum Beispiel die Tasache, ob Till Lindemann oder Björk singt. Wes halb sollte man dies ausbügeln und was macht uns dann glauben, dass das ohne hörbare Artefakte zu schaffen ist?"

Lautstärke entsteht durch Frequenzverteilung und Dynamik bezogen auf Zeit. Da wären wir bei den Kurven gleicher Lautheit. Diese besagen, grob zusammengefasst, bei welcher Lautstärke welche Frequenz im Verhältnis zu jeder anderen Frequenz gleich laut empfunden wird. Da ist jedes Material anders, mal mehr Mitten, mal mehr Bässe, mal mehr Höhen, wie du richtig sagst, Mischung und Instrumentierung. Unabhängig vom Klangbild unterscheiden sich deshalb auch alle in der Lautheit, egal, ob alles gleich gepegelt ist.
Deshalb ist eine Regelung notwendig. Das war aber nur die Frequenzverteilung. Dynamik und damit Energiegehalt noch garnicht berücksichtigt. Hält man sich an die Kurven gleicher Lautheit und bügelt einen Multibandkompressor drüber ist alles futsch. Energiegehalt, ich sag mal salopp der Wums der Bässe ist deftiger trotz Pegelung nach "KGL". Wieder ist alles aus dem Gleichgewicht. Ein Gutes Soundprozessing ist nach Energieverteilung gewichtet. Ich kenne nur einen Sounddesigner, der das fürs On Air Prozessing berücksichtigt.

Also, für das Ausgleichen von Loudnessunterschieden gibt es ein ganz einfaches technisches Hilsmittel, nämlich die Veränderung des jeweiligen Wiedergabepegels, das geht ohne weiteres Processing als mit einem Pegelsteller ;) Das alles darf natürlich nicht die nachgeschaltete AGC (wusste gar nicht, dass es die mittlerweile auch als Multiband gibt) nicht wieder kaputt machen.

Viel Spass dabei. Dann bräuchte jeder Sender eine "Pegelstelle", die unter Berücksichtigung aller zuvor genannten Punkte einspielt und nachregelt.
Deshalb ist es folgerichtg, das zu automatisieren mit einem Soundprocessing.
Ebenso die Klangunterschiede, damit Abbas Höhen dich nicht Nerven und Rammsteins Bässe deine Lautsprecher nicht zum klirren bringen.

... Und die Erklärung dafür, dass dieser Sound nicht mehr erreichbar sein wird, wenn man nicht grundlegend etwas ändert ist, dass unterschiedliche Klänge und Frequenzen unterschiedlich viel Energie benötigen um von unserem Ohr wahrgenommen zu werden (Kurven gleicher Lautstärke). Wenn nun heutzutage alles daran gesetzt wird diese Unterschiede zu vernichten ist es ja ganz logisch, dass man zum Beispiel keinen richtigen Bass mehr hört. Denn im oberen Pegelbereich, der ihm gehören sollte tummeln sich ja bereits die Hi Hat, E Gitarren, Vocals, Keyboards.......

Estmal weiß keiner mehr, wie SWF3 klang, die hatten sicher auch nen alten Optimod. Würde man diesen heiligen Sound mit heute vergleichen, würde der wohl eher abstinken. Hörgewohnheiten haben sich geändert, ebensoso die Produktionstechnik und damit auch der Klang.
Wenn jede Platte unter Berücksichtig der Kurven gleicher Lautheit gemischt wäre, müsste man nicht so sehr eingereifen. Du zäumst das Pferd von hinten auf, anders rum wird ein Schuh draus.

Ich hoffe das war jetzt sachlich und faktenbezogen.
 
Zuletzt bearbeitet:
@count down
Es geht nicht um den einzelnen Song, sondern um Klang und Lautstärkeunterschiede zu anderen Programmelementen. Sieh es im Zusammenhang! Sendest du rund um die Uhr nur diese eine durch den Brickwalllimiter gedrehte Wurst, brauchst du garnix machen. Verbinden sich aber Musik, Beiträge und Moderation zu einem Programm, sieht das meißt so aus:Unbenannt-1.jpg

Jetzt die Notwendigkeit erkannt?
 
Zuletzt bearbeitet:
Das ist selbstversändlich. Ich habe lediglich Deinen Hinweis unterstrichen, dass an etlichen, heutigen Musikproduktionen nichts mehr zu verschlimmbessern ist.
 
@ADR
Ich verstehe etwas immer noch nicht: ist R128 nie "erfunden" worden? Wirkt fast so, wenn ich Deine umfangreiche Abhandlungen hier lese, in der ja tatsächlich real existierende Probleme genannt werden - nur eine Lösung nicht: die Anwendung von R128 auf die Elemente des Sendespeichers vor dem Ausspielen. (Ja, ich weiß, Björk klingt dann immer noch wie Björk und Rammstein klingt immer noch wie Rammstein und beide klingen nicht wie irgendein "Sound", also offenbar Ziel verfehlt?)

Ich kenne nur einen Sounddesigner, der das fürs On Air Prozessing berücksichtigt.
Wo darf ich reinhören, um mir das Ergebnis dieser Arbeit anzuhören?

Welches Processing soll hier noch draufsatteln? (Ansicht eines Produktionsmasters aus 2020)
Ich vermute mal, das passende Processing wäre "14 dB absenken". Klingt dann natürlich mangels jeglicher Dynamik völlig flach und wie eingeschlafene Füße, aber so wollten es die, die das verbrochen haben, doch offenbar. Nach einmal durch AAC bei niedriger Bitrate (DAB+) sind dann auch wieder ein paar Spitzen drauf, dann siehts wenigstens nicht mehr ganz so brikettiert aus.

;)
 
Zuletzt bearbeitet:
@ADR
Ich verstehe etwas immer noch nicht: ist R128 nie "erfunden" worden? Wirkt fast so, wenn ich Deine umfangreiche Abhandlungen hier lese, in der ja tatsächlich real existierende Probleme genannt werden - nur eine Lösung nicht: die Anwendung von R128 auf die Elemente des Sendespeichers vor dem Ausspielen. (Ja, ich weiß, Björk klingt dann immer noch wie Björk und Rammstein klingt immer noch wie Rammstein und beide klingen nicht wie irgendein "Sound", also offenbar Ziel verfehlt?)
;)

R128 gibts, findet aber im Radio keine Anwendung. Na vielleicht bei ein paar Öffis. R128 ist aber auch nur son Schätzeisen, für mein Hörempfinden haut das noch nicht hin. Dynamik- und Frequenzverteilungsunterschiede bleiben trotzdem. Beim Fernsehen wendet man R128 an und was macht man trotzdem? Richtig, man bügelt nen Optimod drüber. Hat wohl nen Grund ... .
 
Zuletzt bearbeitet:
Das macht man, damit man nicht ständig am Lautstärkregler sein muß und damit man alles gleich gut versteht, auch in lärmreichen Umgebeungen, wie im Auto (da wird am meisten Radio gehört). Deshalb kommt man nicht drum rum, das Klangbild des Ausgangsmaterials in der Summe zu ändern. Das ist leider die Nebenwirkung. Diese Nebenwirkungen sollten möglichst gering sein, deshalb ist es wichtig auf Regelartefakte zu achten.
Da möchte ich nur kurz einwerfen, dass ich keinerlei Verständlichkeitsprobleme im Auto bei Programmen habe, die nicht alles heftig durch die Mangel nehmen. Als Beispiele seien DLF, DLF Kultur, Bayern 2 und WDR 5 genannt.
Kommt, ohne die Lautstärke nachregeln zu müssen genau so verständlich aus einer über 30 Jahre alten Installation in einem VW T3, bei 110 auf der Autobahn wahrlich kein leises Auto.
In neueren Fahrzeugen stellt sich das Problem fast gar nicht mehr (außer, Du fährst Cabrio und das mit offenem Verdeck recht schnell).

Ich gebe gerne zu, dass jedoch mit dem Prozessing viel Mist gemacht wird. Die meisten Dynamiksektionen z.B. greifen zu stark ein, sind also falsch eingestellt. Ein gut eingesteller Multibandkompressor hat eine max. Gainreduction von 6 dB pro Band. Alles darüber klingt gepresst.
Ich muss mal Zeit und Muße finden, reale Klangbeispiele aus dem Ausland mitzubringen, am Besten natürlich nicht vom Webstream abgegriffen.
Interessant wäre z. B. ein Vergleich zwischen NPO Radio 2 aus den Niederlanden und Antenne Bayern. Wo ermüdet das Gehör schneller...
wobei es zwischen den Programmen wenig inhaltliche Überschneidungen gibt.

Wie dezent ein Optimod 8500 klingen kann lässt sich hingegen gut bei VRT Radio 1 in Belgien anhören (Achtung, Stream kann möglicherweise vom Processing her abweichen und DAB matscht so vor sich hin). Und „leiser“ als die anderen kommen die einem auch nicht vor (wobei in Belgien überall ein Hub gefahren wird der die 75 kHz schon weit hinter sich lässt).

Das hier häufiger zitierte SWF3 habe ich aber auch nicht als übermäßig sauber im Ohr, die eher langsame ACG hörte man deutlich regeln. Aufnahmen aus den letzten Tagen existieren (hatte vor der Fusion viel mitgeschnitten), allerdings kann man die nicht wirklich zur Dynamikbeurteilung heranziehen, da von der Musik der Quellbänder (19,05 cm 1/4-Spur) nur noch „dolbysierte“ Kassettenkopien existieren.
Hätt ich‘s später mal nicht überspielt.
 
Ich verstehe die Notwendigkeit, ein einheitliches Klangbild zu schaffen. Aber kann man das zumindest bei Musik nicht auch dadurch erreichen, dass sie schon in geeigneter Form auf Platte liegt? R128 wurde ja schon genannt. Wenn das nicht voll ausreicht, könnte ein nachgeschaltetes Soundprocessing ja noch dezent(!!!) nachregeln. Ich vermute, dass eine einmalige Nachbearbeitung per Hand aus Zeit- und Kostengründen ausscheidet.

Denn ich muss bei dem Thema immer an Narcotic von Liquido denken, wo man im Radio anfangs immer vom eigentlich sehr leisen Intro regelrecht angeplärrt wird, und sobald Schlagzeug/Gitarre dazu kommt (was original dann sehr laut wird), geht das Geklimper gefühlte 10dB in den Keller. Das ist doch nichts, was man eigentlich erreichen will? Ich kenne keinen Radiosender, der das hinbekommt. Und da gibt es viele weitere Beispiele...

Und umgekehrt: Bayern 2 mit seinem dezenten Soundprocessing, das als Positivbeispiel genannt wurde, kommt oft lauter rüber als diverse Privatsender mit ihrer Brickwall, da diese wegen der MPX-Leistungslimitierung dann doch niedriger gepegelt werden müssen. Die Münchner Lokalsender z.B. klingen da im Vergleich durch die Bank flach und kraftlos. Das ist doch auch nicht Sinn der Sache.

Und dann gibt es ja schon innerhalb eines Titels gravierende Klangunterschiede, je nach Quelle. Entscheidet man sich eigentlich bei älteren Titeln bewusst für remasterte Versionen, da die vom Klangbild her ja üblicherweise besser zu neueren Titeln passen, oder ist das schon wieder zu viel Aufwand? Es gibt ja durchaus auch von Dire Straits-Titeln mittlerweile Brickwall-Versionen.
 
Zuletzt bearbeitet:
@count down
Es geht nicht um den einzelnen Song, sondern um Klang und Lautstärkeunterschiede zu anderen Programmelementen. Sieh es im Zusammenhang! Sendest du rund um die Uhr nur diese eine durch den Brickwalllimiter gedrehte Wurst, brauchst du garnix machen. Verbinden sich aber Musik, Beiträge und Moderation zu einem Programm, sieht das meißt so aus:Anhang anzeigen 18241

Jetzt die Notwendigkeit erkannt?
Diese Peak-Hüllkurve sagt aber nichts über die Lautheit des Materials aus.
Und wenn es darum geht, Lautheitsunterschiede auszugleichen, ist der einfachste Weg der, das Audiomaterial im Moment der Entstehung nach einer einheitlichen Messlatte (meinetwegen die EBU R128) auszusteuern. Das muss nicht einmal destruktiv sein, es reicht eine Analyse und entsprechende Metadatengenerierung, um beim Ausspiel eine Pegelkorrektur einwirken zu lassen, so wie schon @lg74 schrob. Die Brickwallbrikettpresswurst läuft dann halt 14dB unter Vollaussteuerung. Das hat wer anders verkackt.
Das technisch aufwändigste ist die Nivellierung des live gesprochenen Wortes, Jünger LevelMagic™ (beispielshalber) erledigt aber auch das.

Natürlich enthebt ein Messgerät nach R128 nicht von der Beurteilung des Programmaterials per Ohr - es ist nur ein sehr brauchbares Werkzeug um auch unter schlechten Abhörbedingungen, bei müdem Gehör, und in Verbindung mit entsprechendem Regelverstärker auch automatisiert eine lautheitsgerechte Aussteuerung zu bewerkstelligen. Das ist schon erheblich mehr als ein Schätzeisen, und ein Kernziel bei der Entwicklung dieser Richtlinie war es, mehr Dynamik zuzulassen, nachdem jahrelang auf -9dBFS brikettiert wurde.
Ich kenne keinen Fernsehsender, der einen Optimod in der Sendeschiene einsetzt, freue mich aber über Hinweise - man lernt ja nie aus. Mit einer Einstellung, die Lautheit ignoriert und nur nach Quasi-Spitzenpegel (UKW-Parameter entfallen ja) optimiert, wäre das in der Tat absurdst.

Was das Thema Klangunterschiede angeht - da wird es doch sehr subjektiv. Dazu müssen die Unterschiede per se erst einmal als negativ/unerwünscht deklariert werden, ansonsten erschließt sich mir der Ansatz, diese auszubügeln, einfach nicht (auch das ist natürlich subjektiv).
Ob es per Optimod & Co. aber gelingt, das Beste der 70er, 80er und die aktuellsten Hits von heute auf Gleichklang zu trimmen, lass' ich mal offen. Und Sprache klingt dann natürlich immer noch anders. Das ist, wie der Akademiker so sagt, materialimmanent.
Als Analogie zum Optimod fällt mir da immer Flüssigwürze oder Glutamat ein, die auf's Mittagessen gekippt werden - egal ob es nun Sauerbraten oder Milchreis ist.
 
Zuletzt bearbeitet:
Da möchte ich nur kurz einwerfen, dass ich keinerlei Verständlichkeitsprobleme im Auto bei Programmen habe, die nicht alles heftig durch die Mangel nehmen. Als Beispiele seien DLF, DLF Kultur, Bayern 2 und WDR 5 genannt.

Wer sagt denn, dass man alles heftig durch die Mangel nehmen muß? Auch die von dir genannten Programme haben ein Soundprozessing. Aber eines, dass nicht mehr als nötig macht. Richtige Richtung also.
 
Genau das meine ich. Unbearbeitet geht es nunmal auf keinem Verbreitungsweg - und wenn wir bloß über die Pegellimitierung sprechen.
Da wäre mal eine Begriffsklärung nötig - ist die Limitierung zwecks Vermeidung der Übersteuerung des Übertragungskanals schon „processing“ (beispielsweise für DVB-S, wo Hub und Konsorten ja erstmal keine Rolle spielen)? Strenggenommen behaupte ich ja, es wird ja in das Signal eingegriffen.

Allgemein denkt man ja, wenn es um Processing geht zunächst mal an die Stationen, bei denen es am stärksten auffällt (völlig wertneutral gemeint).
Persönlich, also Geschmackssache, ist mir das Eingangsbeispiel schon zu viel des Guten, ebenfalls übertrieben finde ich das sonst gerne gehörte radioeins - höre ich durchaus, obwohl mich der Klang auf allen Abhören, vom Badezimmer bis zur Stereoanlage stört, nervt, ermüdet (es läuft entweder DVB-S oder eine eigene 1:1-Umsetzung von DVB-S auf UKW, die 128 kbps MP3 des Webstreams sind also nicht schuld).

Wenn es aber hörbar verzerrt, leise Passagen präsenter werden als laute (und obendrein noch die Wiedergabegeschwindigkeit der Titel angepasst wird, hat jetzt nichts mit Processing des Ausgangssignals an sich zu tun), Menschen an durchaus brauchbaren dynamischen Shure-Mikrofonen völlig entstellt klingen und eher ans Navigationsgerät erinnern... dann darf man doch von „kaputt“ sprechen, oder?
 
Persönlich, also Geschmackssache, ist mir das Eingangsbeispiel schon zu viel des Guten, ebenfalls übertrieben finde ich das sonst gerne gehörte radioeins - höre ich durchaus, obwohl mich der Klang auf allen Abhören, vom Badezimmer bis zur Stereoanlage stört, nervt, ermüdet (es läuft entweder DVB-S oder eine eigene 1:1-Umsetzung von DVB-S auf UKW, die 128 kbps MP3 des Webstreams sind also nicht schuld).

Alle rbb Programme aus Potsdam haben einen alten 8200 und einen nachgeschalteten d07. Wenn man dann auf dem Berliner Markt mithalten möchte, dann hört man den 8200 irgendwann pumpen bzw. husten. Zudem verbreitet der rbb auf allen Wegen (FM, Online Stream, DAB) immer das gleiche Signal mit festgetackerten -9 dB. Aber über den Klang der rbb Wellen gibt es hier im Forum ja genug Beschwerdeäußerungen. Zurecht!
 
Alle rbb Programme aus Potsdam haben einen alten 8200 und einen nachgeschalteten d07. Wenn man dann auf dem Berliner Markt mithalten möchte, dann hört man den 8200 irgendwann pumpen bzw. husten.
Das größte Manko ist die Sprache. Meines Wissens nach wird da schon onboard im Pult dynamikbearbeitet bevor es in der Summe ins Processing geht und dann die zwei weiteren Dynamikbearbeitungen (8200 + D07) durchläuft. Wobei es sich meiner Kenntnis entzieht, ob der D07 hart regelt oder nur als Schutz dient.

Ich wüsste nicht, wo beispielsweise DLF und DLF Kultur in puncto Sprachverständlichkeit und -präsenz auf UKW nicht mithalten könnten - mit ausgewogenerem Klang und einer Dynamik, die der des gesendeten Werkes deutlich näher kommt.

Den 8200 sehe ich nicht als Hauptschuldigen und - persönliche Meinung - fand das damalige WDR Einslive aus dem Kölner Mediapark deutlich ausgegorener als das heutige Signal aus Potsdam. Und das war für damalige Verhältnisse schon äußerst brutal und mindestens genau so „laut“ (man könnte auch „penetrant“ schreiben) und immer am
möglichen Spitzenhub.
Warum ich das erwähne: zum Einsatz kamen ein Modulation Sciences Stereomaxx und nachgeschaltet ein Optimod 8200. Das Signal waberte bei Musik permanent an der Grenze zur Negativkorrelation (Stereomaxx eben) und war gefühlt sehr Höhenlastig mit Absenz des Oberbasses und der Mitten; das war so hart, dass die ADR-Coder damit nicht klargekommen sind und dieser Ausspielweg dann ein anders Processing bekam.
Übrigens: die Musik ging unbearbeitet durch die Lawo Diamond auf die Summe, im Mikrofonweg damals Yellowtec VIP, anfangs mit individuellen Presets, später ging man zu „one fits all“ über, recht „dezent“ eingestellt. Mikrofone damals U87 (außer bei Fiehe und Domian), also alles halbwegs vergleichbar mit Potsdam heute - und trotzdem noch „luftiger“ und nicht so ermüdend wie die jetzige radioeins-Modulation, auf deren Hüllkurve man lässig ein Lineal legen kann.

Zudem verbreitet der rbb auf allen Wegen (FM, Online Stream, DAB) immer das gleiche Signal mit festgetackerten -9 dB. Aber über den Klang der rbb Wellen gibt es hier im Forum ja genug Beschwerdeäußerungen. Zurecht!
Und jetzt ja noch eine weitere ;)
DVB-S weil da systembedingt noch die wenigsten Nachfolgekollateralschäden dazukommen (und auf Astra ja auch viele andere interessante Programme laufen). Die UKW-Umsetzung dann um es zuhause in allen Räumen Zeitsynchron zu bekommen, mit vorhandenem, alten, gutem Equipment und teils auch auf „Liebhabergeräten“.
Würde ja einfach analog terrestrisch empfangen, dafür wohne ich aber etwa 500 km zu weit vom nächsten Standort weg ;)

Ich kenne die Berichte, dass man beim RBB zwischen UKW - DVB-S - DAB+ - Stream keinerlei Unterschied hört, kann nur DVB-S gegen Stream vergleichen. DVB-S über nicht ganz schlechten Consumerreceiver gefühlt sauberer, Abhören des Seitensignals beider Wege gibt meinem Gefühl recht. Ist aber auch wirklich keine Überraschung, was soll der Codec bei 128 kbps auch anderes machen?
 
Ich wüsste nicht, wo beispielsweise DLF und DLF Kultur in puncto Sprachverständlichkeit und -präsenz auf UKW nicht mithalten könnten
... und DLF Kultur ist auf UKW schon vergleichsweise "brachial" unterwegs, verglichen zu Astra 19,2°. Das ist derbe komprimiert und klingt immer noch anständig und sauber. Ist ja offenbar auch kein Multibandprocessing, das die Klangfarbe verändert und keine AGC regelt permanent über die Verzerrungsgrenze.

Deshalb sind Programme wie DLF Kultur, Bayern 2 oder WDR 5 auch hier aus meiner Sicht etwas fehl am Platze: das ganze klangliche Manipulieren findet da nicht statt. Da läuft halt ein UKW-Transientenlimiter mit fester Vorkompression oder dezentem Jünger Level Magic. Und nicht die komplette Maschinerie, die was völlig eigenes aus dem Input macht.

Diese Programme sind für mich deutlich sprachverständlicher als das plattkomprimierte verzerrte Zeugs, das heute meist linealglatt an der 0 dBr langkratzt.

das war so hart, dass die ADR-Coder damit nicht klargekommen sind und dieser Ausspielweg dann ein anders Processing bekam
Aphex 2020. Klang in meiner Erinnerung wesentlich offener, dynamischer, angenehmer. Später kam der Hörfunktransponder und der bekam bei den 320 kbps dann offenbar das UKW-Processing. Es war nämlich deutlich schlechter als ADR, was dazu führte, dass mein DVB und ADR könnender Receiver Einslive auf ADR im Speicher behielt, während alle anderen auf DVB wechselten (und damit das RDS verloren, denn dass konnte die Kiste nicht).
 
Zuletzt bearbeitet:
Deshalb sind Programme wie DLF Kultur, Bayern 2 oder WDR 5 auch hier aus meiner Sicht etwas fehl am Platze: das ganze klangliche Manipulieren findet da nicht statt. Da läuft halt ein UKW-Transientenlimiter mit fester Vorkompression oder dezentem Jünger Level Magic. Und nicht die komplette Maschinerie, die was völlig eigenes aus dem Input macht.
Deshalb meine etwas ketzerische Frage, wie wir „processing“ eigentlich definieren. Jeglicher Eingriff? Oder wenn etwas spektral am Signal gemacht wird?

Aphex 2020. Klang in meiner Erinnerung wesentlich offener, dynamischer, angenehmer. Später kam der Hörfunktransponder und der bekam bei den 320 kbps dann offenbar das UKW-Processing.
Das stimmt so, und wenn mich meine Erinnerung nicht völlig täuscht war der 8200 auf UKW damals von einem externen „Spezialisten“ aus dem Südwesten eingestellt, der zur Kontrolle wohl auch mal auf einem gewonnenen Plüschelch auf der A5 geritten sein soll und - wesentlich später - R128 reichlich verschnupft in einem Fachmagazin kommentierte. Man mag mich gerne korrigieren, wenn das falsch ist. Der Aphex wurde dann ‚inhouse‘, wie man so schön sagt wenn Betriebsfremde die Finger von den Knöpfen lassen sollen, eingestellt.

Fun fact: bevor Einslive in Köln auf der 87,6 aufgeschaltet wurde strahlte man auf dieser Frequenz mitunter Veranstaltungsfunk aus, wie auch das WDR-Programm zum Weltjugendtag in Köln 2005. Das Programm wurde aus den Kölner Messehallen gesendet, es gab zwei Studios, die sich nahtlos ablösen konnten, aufgrund der - vorsichtig Ausgedrückt - sehr suboptimalen Akustik vor Ort mikrofoniert mit Shure-Kondensatormikrofonen (waren es schon KSM9 oder deren Vorhänger, ich weiß es ehrlich gesagt nicht mehr), jedenfalls Nieren für Gesang auf der Bühne, heute würde man Neumann KMS 105 nehmen, hatten wir aber damals nicht.
Gemischt wurde in den improvisierten „Studios“ (Platz in Messehalle mit Filzstellwänden drum, nach oben offen) auf analogen Seem Seeport-Pulten - und um zum Thema zurückzukommen: Processing für UKW übernahm ein Aphex Dominator. Der war einem größeren Yamaha-Digitalpult nachgeschaltet, dass mehr die Aufgabe einer Kreuzschiene innehatte und neben der Programmausspielung auf die unterschiedlichen Wege auch das komplette Kommandorouting übernahm. Zum Sender Kölnturm ging es einmal analog direkt Stereo per „Postleitung“ +15dBu, Senderseitig wird noch eine Limitierung am Standort erfolgt sein deren Hardware ich nicht kenne. Ein zweiter Ausgang ging hinter dem Dominator per Leitung zum Schaltraum, die haben das dann nochmals durchs AM-Processing gejagt und auf Langenberg 720 und Bonn 774 kHz verbreitet.
Ziel war es von der Verständlichkeit und „Lautheit“ an WDR 5 und den DLF heranzukommen, trotz der schlechten Bedingungen vor Ort, gelang gut.

Die Mittelwelle passt ja auch ins Thema Processing - zumal mit DAB+ Heutzutage teils ein ähnlich schmaler Übertragungskanal zur Verfügung steht, schaut man mal nach Großbritannien und die Frechheiten, die da Anno 2020 auf die Hörer losgelassen werden.
Die vom WDR wurde aufbereitungstechnisch wohl weit vor meiner aktiven Zeit dort eingestellt, sicher 90-Grad-Filter Um sauberes Mono zu erzeugen, wohl Optimod AM, mehr kann ich leider nicht beisteuern, außer, dass ich im Rahmen von Eventübertragungen aus dem Ausland das Sendesignal in 128 kbps MP2 Per ISDN zulieferte, Mono versteht sich.
Gerade da hätte ich mir vor der Übergabe an AM eine deutlich stärkere Kompression gewünscht... das Signal klang ja (bis zur Abschaltung der Mittelwellensender) unter guten Bedingungen schön und reizte die Bandbreite voll aus, aber die Verständlichkeit war schon am Rand der ‚Ausleuchtungszone’ bei mobilem Empfang nicht mehr gegeben - Beispiel: Bundesligakonferenz in Brüssel im Auto auf der 720 kHz hören, bevor die Netzabdeckung Streaming während der Fahrt ermöglichte. War schwer verständlich und nur unter guten (stationären) Bedingungen sauber, da hätte die nominale Reichweite des Senders mehr hergegeben. Und stationär gab es ja schon Sat oder Livestream.
 
Ich kenne die Berichte, dass man beim RBB zwischen UKW - DVB-S - DAB+ - Stream keinerlei Unterschied hört,
Keinerlei mag vielleicht für Ottonormalverbraucher gelten. Ich höre beim RBB DAB+ aber schon noch das gezischele der SBR Höhen raus. Sicher kommt das beim rbb jetzt nicht so extrem raus wie jetzt zum Beispiel beim MDR oder WDR, aber da ist es trotzdem. Löblich finde ich jedoch die durchaus gelungene Klangqualität von rbbKultur und COSMO, die mit ihren 96kbps wirklich überzeugen können. Gut, bei COSMO kommt das Processing ja auch vom WDR und nicht vom rbb. Und rbbKultur ist ja eh nochmal anders eingestellt als jetzt radioeins (dort höre ich nicht mal einen Unterschied zwischen den 96kbps der FFO Variante und den 88kbps der normalen Variante, bei ABB verhält es sich ähnlich mit ihren 88 bzw 80kbps) oder Fritz.

Was ich mich ebenso frage, warum MDR Sachsen tagsüber mit 80kbps besser klingt als abends/nachts mit 88kbps. Das versteh ich auch nicht so recht. Höre ich mir zum Beispiel den sorbischen Rundfunk über DAB+ an bekomme ich nahezu klaren Klang, während es wenn es wieder auf 88kbps gestellt ist, der Sound wieder so muffig wird, wie auch bei JUMP und Sputnik. Auch bei den anderen MDR Sachsen Versionen konnte ich das beobachten. Gibt es vielleicht irgendetwas was die in Sachen Sounddesign und Klangeinstellung in Bautzen anders machen als in Dresden beim Hauptfunkhaus Sachsen, oder dass die generell tagsüber was anderes machen, abgesehen von der Bitrate?
 
Zuletzt bearbeitet:
Wenn man mal überlegt, was für Wege die Signale zurücklegen und wie oft wird codiert und decodiert.
Vom Sendestudio zum Schaltraum, Codec Mantelprogramm zum Regionalstudio, dort decodiert, sich draufgeschaltet, Codec zurück zum Hauptfunkhaus, decodieren, Soundprozessing, codieren, zum Funkturm. Da kann nix Gutes bei rumkommen zumindest beim rbb, und das hört man.
 
Aufgaben sind eine möglichst gleichbleibende Lautheit über das gesamte ausgespielte Material, ein gleichbleibendes Klangbild und die Einhaltung der Vorgaben bei der FM Übertragung.

Also wenn ich darf, dann versuche ich das mal auf den historischen Zeitstrahl zu bringen. Es ist nämlich vollkommen klar, dass wir immer alles aus der aktuellen Sicht betrachten und dabei vergessen, dass wir vielleicht Probleme bekämpfen, die erst im Laufe der Jahre entstanden sind und vielleicht sogar beim Versuch, andere zu bekämpfen?
Am Anfang war das Sendeprocessing, das sich auf das Einhalten der technischen Vorgaben und Eckparameter der Ausstrahlung beschränkte. Ich würde das mal in die Zeit ab 1950 bis in die 70er packen, aber das wissen die Spezialisten hier sicher genau. Wichtig ist mir, dass zu diesen Zeiten allgemein noch nicht so wahnsinnig viel am Peaklevelverlauf einzelner Audiosignale manipuliert wurde, auch nicht in der Produktion. Man versuchte mit den jeweiligen technischen Gegebenheiten lediglich das Aufnahme- und Wiedergabemedium technisch gut auszusteuern, was bei der damaligen Technik automatisch zu annähernd gleichen Loudnesseindrücken führte. Ich denke, auch der Klang war noch ziemlich ähnlich, weil die Vielzahl an Mikrofonen noch überschaubar war und bei Aufnahmeräumen auf nicht verfälschende Akustik geachtet wurde, es sei denn in der Musik war eine bestimmte Akustik erwünscht (extrem: Pfeifenorgel ohne Kirchenhall, undenkbar).
Prinzipiell begnügte man sich also mit den technischen Gegebenheiten und den daraus resultierenden Übertragungsmöglichkeiten.
Aber immer mehr entdeckte man in der Produktion, dass es möglich ist, den Sound durch das bewusste Überfahren einzelner Elemente des Signalflusses zu beeinflussen. Beispielhaft nenne ich mal die Magnetbandsättigung oder die Übersteuerung von Röhrenstufen in Gitarrenverstärkern. Plötzlich war es möglich, unterschiedlich laute Aufnahmen zu erreichen. Ein verzerrter E Gitarrensound zum Beipiel kann gegen einen Tom Schlag sehr laut wirken, obwohl er im Verhältnis einen viel geringeren Peaklevel produziert. Das machte man sich natürlich in der Musikindustrie sofort zu Nutze, der Loudnesswar war geboren, denn plötzlich waren zum Beispiel in Jukeboxen (sozusagen die ersten Playlists) unterschiedlich laute Platten, weil ja niemand den Wiedergabepegel verändern konnte. Na und wie es eben so ist, wenn die jungen Leute richtig Party machen wollen, dann muss es eben auf jeden Fall erstmal laut sein!
Jetzt kürze ich mal etwas ab, denn jetzt kommen wir zum Thema lauter ist besser:

Da wären wir bei den Kurven gleicher Lautheit. Diese besagen, grob zusammengefasst, bei welcher Lautstärke welche Frequenz im Verhältnis zu jeder anderen Frequenz gleich laut empfunden wird. Da ist jedes Material anders, mal mehr Mitten, mal mehr Bässe, mal mehr Höhen, wie du richtig sagst, Mischung und Instrumentierung. Unabhängig vom Klangbild unterscheiden sich deshalb auch alle in der Lautheit, egal, ob alles gleich gepegelt ist.

...jetzt geht es ja erst richtig los, weil der Wunsch entsteht, diese Effektwirkungen auch bei der Ausstrahlung im Radio zu nutzen.
Also die Kurven gleicher Lautstärke zeigen an, wie unterschiedlich viel Energie verschiedene Frequenzen benötigen, um vom Ohr gleich laut empfunden zu werden, also gleich gut hörbar sind. Diese Kurven sind SEHR unlinear und leider nicht bei jedem Schalldruck gleich. Insofern führt also jede Veränderung des Wiedergabepegels automatisch zu einer Veränderung des Klanges, erstens weil man ja plötzlich Frequenzen hört, die man vorher nicht gehört hat und zweitens, weil man sich generell vielleicht schon auf einer mehr oder weniger nichtlinearen der Kurven bewegt.
Hiermit kann man zum Beispiel schön den Effekt des Loudnessschalters an Klangregelungen erklären. Man versucht hiermit bei unverändertem Wiedergabepegel dem Ohr/Hirn sozusagen den Zustand "laut" vorzugaukeln, indem man Frequenzen anhebt von denen das Hirn weiß, dass es laut sein muss, wenn wir sie hören. Wenn man dann den Wiedergabepegel jedoch erhöht, dann wirken Bässe und Höhen schnell zu stark, weil wir sie aufgrund der höheren Lautstärke besser hören (Kurven gleicher Lautstärke) und die Nichtlinearität der Klangregelung somit nicht mehr richtig passt.
Was mich zu meinem Lieblingsbeispiel führt, das eigentlich immer irgendwann von irgendwem kommt um zu belegen, dass lauter auch besser ist. Darin wurden Testhörern (teilweise wohl auch Musiker und Tonmeister) ein und dieselben Klangaufzeichnungen lediglich mit 1 dB unterschiedlichem Wiedergabepegel vorgespielt. Und siehe da, die lautere Fassung fand mehr Anklang :eek:. Keine Sorge, ist doch ganz logisch, weil man ja plötzlich u.a. mehr tiefe Frequenzen (Kurven gleicher Lautstärke) hörte und allein dadaurch, dass man mehr hörte auch das Klangbild facettenreicher und somit "interessanter" klang :oops:. Aber nochmal zur Klarstellung, der Sound der Aufnahme an sich wurde nicht verändert, die höhere Lautstärke von 1 dB lässt uns einen anderen Sound hören!
Insofern ist das eine dB Unterschied also quasi schon Soundprocessing, aber nur solange man noch lauter machen kann, ohne die Aufzeichnungen in anderer Art zu verändern! Somit beantwortet das auch diese Frage:

Deshalb meine etwas ketzerische Frage, wie wir „processing“ eigentlich definieren. Jeglicher Eingriff? Oder wenn etwas spektral am Signal gemacht wird?

Aber das reicht uns ja nicht. Wir wissen jetzt, dass wir etwas lauter erscheinen lassen können und werden süchtig danach. Und zwar immer bis an die jeweils erreichbaren Grenzen!
Wir müssen lauter machen, dürfen es pegelmäßig aber nicht mehr. Also fangen wir an zu begrenzen (zerstört Peaks in einigen Klängen die für deren Wahrnehmbarkeit wichtig sind), mit immer kürzeren Attackzeiten, suuper! Jetzt wird das alles auch noch komprimiert, wir können das Ganze wieder nach oben schieben, suuuuper. Durch das Komprimieren schieben wir natürlich die Frequenz- und Klanganteile ineinander und verändern, unnatürlich, die Wirkung der Kurven gleicher Lautstärke!
Oh Mist, jetzt wird immer mehr im Selbstfahrerbetrieb gearbeitet und niemand mehr hört sich den Studioausgang daraufhin an, ob Moderationen, Musiken, Jingles, Telefontöne, Werbung noch gut aneinander passen. "Ey, Processingfachmann, kann man da nicht etwas mit dem Sendeprocessing machen?", "Weiß ich nicht genau, dafür ist es eigentlich gar nicht gedacht, aber ich probiere mal ein bisschen rum."
Und jetzt kommt die nächste Waffe. Wir haben trotz Processing unterschiedlich laut klingende Elemente. Man bräuchte für jedes Element unterschiedliches Processing, indem man den Eingang irgendwie mitregelt, damit nicht einmal zu viel und einmal zu wenig bearbeitet wird. Die Geburtsstunde der AGC, halelujah!
"Ah suuuuper, jetzt ist das besser geworden, aber es regelt manchmal so komisch. Nach der Werbung sind die Nachrichten erst leise und werden dann lauter, mach mal, dass das schneller geht. Ach so, außerdem ist da manchmal so ein Pumpen in der Musik, wenn der Bass einsetzt. Gibt es da jetzt nicht so Multibandkompressoren?"
Also gut, jetzt zerlegen wir das ganze Audio in immer mehr Bänder, so dass wir diese unterschiedlich bearbeiten können. Was macht eigentlich ein Kompressor? Er reduziert (Gainreduction!) den Pegel ab einem bestimmten Peaklevelschwellwert um ein einstellbares Verhältnis, das derart herunter gedrückte Signal kann man dann wieder anheben. So, und das machen wir jetzt in mehreren Bändern, mit unterschiedlichen Regelzeiten, natürlich komplett ohne Wechselwirkung ;). Mal ein Beispiel, auch bezüglich der Kurven gleicher Lautstärke wichtig. Wir wissen, dass wir für tiefe Frequenzen mehr Pegel benötigen, um sie im Vergleich zu 2-6 kHz gut zu hören. Jetzt aber komprimieren (machen leiser!) wir Bässe stärker, damit sie andere Bänder und den Limiter nicht beeinflussen. Somit reduzieren wir also den nach Kurven gleicher Lautstärke notwendigen Peaklevelunterschied.
Naja, und jetzt gibt es offensichtlich auch Multiband AGCs, was natürlich die ganzen Zwischen- und Nebenwirkungen all dieser Bearbeitungs- und Veränderungsstufen noch unkontrollierbarer macht, vor allem weil dieser ganze Wahnsinn ja parallel auch in der Musikindustrie getrieben wird. Daher gibt es nämlich auch kaum noch Peakleveldifferenzen, die jedoch für das Hören und auch für das Einstellen von Schwellwerten und Ratios eigentlich unerlässlich sind.
Somit verschwimmt alles immer mehr in einer einzigen Klangsoße, aus der man einzelne Klänge nicht mehr entspannt differenzieren kann, sondern nur noch mit Anstrengung. Und jetzt Achtung! Was sagt der nichtprofessionelle Hörer über einen Klang, den er (weshalb auch immer) nicht gut hört? MeinerErfahrung nach kommt die Kritik, dass das zu leise ist. Waaass, zu leise :eek:? Wir haben doch aber schon alles getan, um es lauter zu machen :cry:.
Was mich zu der Erkenntnis bringt, dass eben alles irgendwann nicht mehr zu steigern ist, sondern im Weiteren nur schlechter wird.
Denn auch wenn man dann das offensichtlich Schlechte versucht zu verbessern, dann verschlechtert man anderes, auf das man gerade nicht achtet. Und wer jetzt sagt, das könne nicht passieren, der frage sich im Stillen ob er oder sie nicht auch schonmal lange aktiv hörend an Parametern geschraubt hat um dann festzustellen, dass das Gerät im Bypass ist ;). Also mir ist das schon passiert, sogar mindestens zweimal.
Außerdem sollte nach dem Gelesenen auch klar sein, dass Hörvergleiche IMMER mit loudnesskorrigiertem Material stattfinden MÜSSEN, da ja sonst die Kurven gleicher Lautstärke wirken. Erst dann lassen wir uns nicht von der höheren Loudness begeistern/täuschen/blenden, sondern hören plötzlich auch die negativen Beeinflussungen und Artefakte.
Abgesehen davon hört man bei reinen A/B Vergleichen im Labor viele Artefakte ohnehin nicht, wenn sie nämlich erst später durch die Zusammensetzung der Elemente im Programmfluss entstehen, und dort noch mehr, wenn über Musik gesprochen wird oder plötzlich ein Verkehrsservice rein muss. Hier sind wir aber wieder dabei, dass dieses nachgeschaltete Processing einfach ungeeignet ist, die teils erheblichen Loudnesssprünge an den Nahtstellen im Programmfluss zu korrigieren, da es ja nicht vorhersehen kann, was gleich passiert. Somit knallt also eine Station ID nach den Nachrichten kurz rein und wird dann schlagartig abgesenkt, die Moderation aus dem Studio startet dann im Keller und wird langsamer hochgeregelt, als der Zuhörer am Volume Knopf ist. Nunja, der muss dann eben gleich wieder runterdrehen, weil die Moderation jetzt "komischerweise" doch zu laut ist.

Jetzt aber zum Schluss. Wir reden ja ständig von Loudness, also wäre es doch nur sinnvoll Loudness auch zu messen, und eben somit erstmal alles gleich laut zu machen. Das passiert im Fernsehen seit 2012 und mittlerweile funktioniert es auch ganz gut. Bis auf diejenigen, die trotzdem noch irgendwelches Processing danach setzen, oder noch schlimmer glauben, die R128 mittels Processing zu erfüllen. Als Beispiel nenne ich mal Tele5, da pumpt es teils grauenhaft, bei Spielfilmen unzumutbar. Von den "etablierten" deutschen Fernsehsendern ist mir allerdings nicht bekannt, dass dort noch Optimods in Betrieb sind:

Beim Fernsehen wendet man R128 an und was macht man trotzdem? Richtig, man bügelt nen Optimod drüber. Hat wohl nen Grund ... .

...insofern wäre ich für Aufklärung dankbar. Aber der Aussage ist ja zu entnehmen, dass im Fernsehen eigentlich alles ganz OK ist.
Aber nicht nur im Fernsehen wird nach Loudness normalisiert, sondern mittlerweile auch auf nahezu allen Streamingplattformen im Internet. Und normalisieren heißt ausdrücklich, anpassen des Wiedergabepegels (keinerlei Processing in Form von Kompressoren, Enhancern oder sonstigen Tool) jedes einzelnen Files, damit alle beim Ausspielen denselben Loudnesslevel erzeugen. Somt wird erreicht, dass der Volumeregler auf Empfängerseite nicht mehr verändert werden muss. In diesem Bericht wird das ganz gut beschrieben. Und weshalb sollte das nicht auch im Radio funktionieren, wenn wir wissen, dass auf UKW ohnehin nicht mehr als durchschnittlich -18LUFS erreichbar sind. Und zum Totschlagargument Auto noch folgendes. Gerade hier erreichen Signale, in denen noch Transienten enthalten sind eine bessere Hörbarkeit als plattgebügelte, weil sie aus dem relativ statischen und breitbandigen Fahrgeräuschsbrei herausragen und somit am Ohr ankommen. Und meist muss man das Radio dann auch im Stand gar nicht leiser machen, was beim platten Signal notwendig ist.

Naja, ich mache mal Schluss, sorry für den langen Text.

Beste Grüße, Björn
 
Der Grund warum man trotz R128 beim TV mit Optimod TV oder ähnlichem (auch Jünger) drüberbügelt ist zum einen, dass R 128 nicht hundertprozentig hinhaut, zum anderen, dass es nunmal Klangunterschiede gibt, die man angleicht um ein einheitliches Tonbild zu erreichen. Das erreicht man nie mit R 128 allein. Wo ist da Aufklärungsbedarf?
 
Die generelle Unterstellung, dass man beim TV "mit Optimod TV oder ähnlichem (auch Jünger) drüberbügelt" darf bezweifelt werden. Eher ist davon auszugehen, dass bereits in der Produktion "kaputte" Processings unterschiedlichster Hilfsmittel bemüht werden, die natürlich beim Ausspielen nicht mehr verändert werden (können). Typisch sind z.B. ungeeignete Rauschreduzierungen + Processings von O-Tönen bei TV-Film-Produktionen. Berichte über Behinderungen der Tonis bei Aufnahmen durch Kamera und Regie sind Legion und die Verzweiflungsschreie, die das in der Mischung auslöst, will sowieso keiner hören.
 
Zuletzt bearbeitet:
Wo ist da Aufklärungsbedarf?

Erstmal bei der Frage, wer im TV Optimods benutzt! Teilweise (zum Beispiel im Ersten) arbeitet ein Levelmagic, der übrigens auch nichts am Klang macht, und in manchen Fällen leider ungeschickt den Pegel mitfährt, jedoch lange nicht wie AGCs im Hörfunk, weil es ein relativ breites Nullband gibt, das 1:1 durchlässt.
Und die immer geforderten Klangveränderungen wären nach meiner Auffassung obsolet, weil eine vorherige Loudnessnormalisierung, anders als reine Peaklevelbetrachtung , auch die Frequenzverteilung berücksichtigt. Und ansonsten bleibe ich hierbei stur, weil ein Radiosender streng genommen nicht "berechtigt" ist das Werk eines Künstlers nach seinem Geschmack zu verändern, und bestimmte Sounds und Klänge, sowie Mischungsverhältnisse auch immer Ausdruck ihrer Zeit sind. Ein Museum stellt Kunstwerke auch aus, ohne sie zuvor zu verändern und irgendwie gleich zu machen. Außerdem hört dieses ganze Processing niemand ab, der dessen Wirkung beurteilen und entsprechend Einfluss darauf nehmen kann. Das könnte kurzfristig nicht mal Derjenige, der es erstellt hat, da es durch längere Regelprozesse teilweise keine unmittelbare Beurteilung gibt.
Ich bin mir auch sicher, dass ein großer Teil der Analognostalgie einfach damit zu tun hat, weil in diesen Zeiten eben noch ganz anders produziert wurde. Und die viel beschworene Wärme einfach dadurch kam, dass wenn man lauter abhörte einfach mehr tiefe Frequenzen hörbar wurden. Und das ist eben etwas anderes, als wenn ich komprimiere, denn dadurch verändere ich ja das "richtige" Verhältnis so dass die tiefen Frequenzen pegelmäßig weniger hoch über den Frequenzen liegen, die den Klang hart machen.
Aber wie ich schon angedeutet habe, wenn man erstmal Jahrzehntelang in eine Richtung gerannt ist, dann ist es eben schwierig an einem anderen Weg Gutes zu entdecken, denn dann wäre ja plötzlich alles Bisherige falsch. Fakt ist jedoch, dass es im Hörfunk, mit welchen Mitteln auch immer, ja nicht funktioniert und schon lange nicht mehr gut klingt. Wenn dem nicht so wäre, dann gäbe es ja auch diesen Thread nicht. ;)

Beste Grüße, Björn
 
Zuletzt bearbeitet:
Nur eine Nebenbemerkung:
weil ein Radiosender streng genommen nicht "berechtigt" ist das Werk eines Künstlers nach seinem Geschmack zu verändern
Ja, das waren noch Zeiten als es im ARD-Hörfunk nicht möglich war, das Signal auf dem Zuspielweg von Platte und Band auch nur zu entzerren.

In einem Beitrag, den ich vor gefühlten Jahrhunderten hier mal geschrieben habe, merkte ich an, dass sogar fehlerhaft miserabel gepresste Schallplatten so mumpfig gesendet wurden, wie sie waren.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben