@marillenfreund
Ja, natürlich kommt sie, hatte nur keine Lust, dass von unterwegs ausführlich ins Handy zu hacken.
Ich sag mal, richtge Fakten, falsche Schlußfolgerungen.
"Es ist doch gar nicht unsere Aufgabe, die angelieferten Musiken klanglich zu verändern und ihnen am Ende auch noch eine eigene, rein subjektive, Note zu verleihen!"
Jain.
Dazu müssen wir nochmal zu den Aufgaben des Soundprozessings kommen und dessen Notwendigkeit erkennen. Verneint man die Notwendigkeit, konnen wir uns das alles hier Sparen.
Aufgaben sind eine möglichst gleichbleibende Lautheit über das gesamte ausgespielte Material, ein gleichbleibendes Klangbild und die Einhaltung der Vorgaben bei der FM Übertragung. Das mal grob reduziert.
Das macht man, damit man nicht ständig am Lautstärkregler sein muß und damit man alles gleich gut versteht, auch in lärmreichen Umgebeungen, wie im Auto (da wird am meisten Radio gehört). Deshalb kommt man nicht drum rum, das Klangbild des Ausgangsmaterials in der Summe zu ändern. Das ist leider die Nebenwirkung. Diese Nebenwirkungen sollten möglichst gering sein, deshalb ist es wichtig auf Regelartefakte zu achten.
Ich gebe gerne zu, dass jedoch mit dem Prozessing viel Mist gemacht wird. Die meisten Dynamiksektionen z.B. greifen zu stark ein, sind also falsch eingestellt. Ein gut eingesteller Multibandkompressor hat eine max. Gainreduction von 6 dB pro Band. Alles darüber klingt gepresst.
"Was genau ist eigentlich das Ausbügeln von Klangunterschieden? Diese Entstehen ja teils einfach durch die Instrumentierung, das Arrangement und zum Beispiel die Tasache, ob Till Lindemann oder Björk singt. Wes halb sollte man dies ausbügeln und was macht uns dann glauben, dass das ohne hörbare Artefakte zu schaffen ist?"
Lautstärke entsteht durch Frequenzverteilung und Dynamik bezogen auf Zeit. Da wären wir bei den Kurven gleicher Lautheit. Diese besagen, grob zusammengefasst, bei welcher Lautstärke welche Frequenz im Verhältnis zu jeder anderen Frequenz gleich laut empfunden wird. Da ist jedes Material anders, mal mehr Mitten, mal mehr Bässe, mal mehr Höhen, wie du richtig sagst, Mischung und Instrumentierung. Unabhängig vom Klangbild unterscheiden sich deshalb auch alle in der Lautheit, egal, ob alles gleich gepegelt ist.
Deshalb ist eine Regelung notwendig. Das war aber nur die Frequenzverteilung. Dynamik und damit Energiegehalt noch garnicht berücksichtigt. Hält man sich an die Kurven gleicher Lautheit und bügelt einen Multibandkompressor drüber ist alles futsch. Energiegehalt, ich sag mal salopp der Wums der Bässe ist deftiger trotz Pegelung nach "KGL". Wieder ist alles aus dem Gleichgewicht. Ein Gutes Soundprozessing ist nach Energieverteilung gewichtet. Ich kenne nur einen Sounddesigner, der das fürs On Air Prozessing berücksichtigt.
Also, für das Ausgleichen von Loudnessunterschieden gibt es ein ganz einfaches technisches Hilsmittel, nämlich die Veränderung des jeweiligen Wiedergabepegels, das geht ohne weiteres Processing als mit einem Pegelsteller Das alles darf natürlich nicht die nachgeschaltete AGC (wusste gar nicht, dass es die mittlerweile auch als Multiband gibt) nicht wieder kaputt machen.
Viel Spass dabei. Dann bräuchte jeder Sender eine "Pegelstelle", die unter Berücksichtigung aller zuvor genannten Punkte einspielt und nachregelt.
Deshalb ist es folgerichtg, das zu automatisieren mit einem Soundprocessing.
Ebenso die Klangunterschiede, damit Abbas Höhen dich nicht Nerven und Rammsteins Bässe deine Lautsprecher nicht zum klirren bringen.
... Und die Erklärung dafür, dass dieser Sound nicht mehr erreichbar sein wird, wenn man nicht grundlegend etwas ändert ist, dass unterschiedliche Klänge und Frequenzen unterschiedlich viel Energie benötigen um von unserem Ohr wahrgenommen zu werden (Kurven gleicher Lautstärke). Wenn nun heutzutage alles daran gesetzt wird diese Unterschiede zu vernichten ist es ja ganz logisch, dass man zum Beispiel keinen richtigen Bass mehr hört. Denn im oberen Pegelbereich, der ihm gehören sollte tummeln sich ja bereits die Hi Hat, E Gitarren, Vocals, Keyboards.......
Estmal weiß keiner mehr, wie SWF3 klang, die hatten sicher auch nen alten Optimod. Würde man diesen heiligen Sound mit heute vergleichen, würde der wohl eher abstinken. Hörgewohnheiten haben sich geändert, ebensoso die Produktionstechnik und damit auch der Klang.
Wenn jede Platte unter Berücksichtig der Kurven gleicher Lautheit gemischt wäre, müsste man nicht so sehr eingereifen. Du zäumst das Pferd von hinten auf, anders rum wird ein Schuh draus.
Ich hoffe das war jetzt sachlich und faktenbezogen.
Ja, natürlich kommt sie, hatte nur keine Lust, dass von unterwegs ausführlich ins Handy zu hacken.
Ich sag mal, richtge Fakten, falsche Schlußfolgerungen.
"Es ist doch gar nicht unsere Aufgabe, die angelieferten Musiken klanglich zu verändern und ihnen am Ende auch noch eine eigene, rein subjektive, Note zu verleihen!"
Jain.
Dazu müssen wir nochmal zu den Aufgaben des Soundprozessings kommen und dessen Notwendigkeit erkennen. Verneint man die Notwendigkeit, konnen wir uns das alles hier Sparen.
Aufgaben sind eine möglichst gleichbleibende Lautheit über das gesamte ausgespielte Material, ein gleichbleibendes Klangbild und die Einhaltung der Vorgaben bei der FM Übertragung. Das mal grob reduziert.
Das macht man, damit man nicht ständig am Lautstärkregler sein muß und damit man alles gleich gut versteht, auch in lärmreichen Umgebeungen, wie im Auto (da wird am meisten Radio gehört). Deshalb kommt man nicht drum rum, das Klangbild des Ausgangsmaterials in der Summe zu ändern. Das ist leider die Nebenwirkung. Diese Nebenwirkungen sollten möglichst gering sein, deshalb ist es wichtig auf Regelartefakte zu achten.
Ich gebe gerne zu, dass jedoch mit dem Prozessing viel Mist gemacht wird. Die meisten Dynamiksektionen z.B. greifen zu stark ein, sind also falsch eingestellt. Ein gut eingesteller Multibandkompressor hat eine max. Gainreduction von 6 dB pro Band. Alles darüber klingt gepresst.
"Was genau ist eigentlich das Ausbügeln von Klangunterschieden? Diese Entstehen ja teils einfach durch die Instrumentierung, das Arrangement und zum Beispiel die Tasache, ob Till Lindemann oder Björk singt. Wes halb sollte man dies ausbügeln und was macht uns dann glauben, dass das ohne hörbare Artefakte zu schaffen ist?"
Lautstärke entsteht durch Frequenzverteilung und Dynamik bezogen auf Zeit. Da wären wir bei den Kurven gleicher Lautheit. Diese besagen, grob zusammengefasst, bei welcher Lautstärke welche Frequenz im Verhältnis zu jeder anderen Frequenz gleich laut empfunden wird. Da ist jedes Material anders, mal mehr Mitten, mal mehr Bässe, mal mehr Höhen, wie du richtig sagst, Mischung und Instrumentierung. Unabhängig vom Klangbild unterscheiden sich deshalb auch alle in der Lautheit, egal, ob alles gleich gepegelt ist.
Deshalb ist eine Regelung notwendig. Das war aber nur die Frequenzverteilung. Dynamik und damit Energiegehalt noch garnicht berücksichtigt. Hält man sich an die Kurven gleicher Lautheit und bügelt einen Multibandkompressor drüber ist alles futsch. Energiegehalt, ich sag mal salopp der Wums der Bässe ist deftiger trotz Pegelung nach "KGL". Wieder ist alles aus dem Gleichgewicht. Ein Gutes Soundprozessing ist nach Energieverteilung gewichtet. Ich kenne nur einen Sounddesigner, der das fürs On Air Prozessing berücksichtigt.
Also, für das Ausgleichen von Loudnessunterschieden gibt es ein ganz einfaches technisches Hilsmittel, nämlich die Veränderung des jeweiligen Wiedergabepegels, das geht ohne weiteres Processing als mit einem Pegelsteller Das alles darf natürlich nicht die nachgeschaltete AGC (wusste gar nicht, dass es die mittlerweile auch als Multiband gibt) nicht wieder kaputt machen.
Viel Spass dabei. Dann bräuchte jeder Sender eine "Pegelstelle", die unter Berücksichtigung aller zuvor genannten Punkte einspielt und nachregelt.
Deshalb ist es folgerichtg, das zu automatisieren mit einem Soundprocessing.
Ebenso die Klangunterschiede, damit Abbas Höhen dich nicht Nerven und Rammsteins Bässe deine Lautsprecher nicht zum klirren bringen.
... Und die Erklärung dafür, dass dieser Sound nicht mehr erreichbar sein wird, wenn man nicht grundlegend etwas ändert ist, dass unterschiedliche Klänge und Frequenzen unterschiedlich viel Energie benötigen um von unserem Ohr wahrgenommen zu werden (Kurven gleicher Lautstärke). Wenn nun heutzutage alles daran gesetzt wird diese Unterschiede zu vernichten ist es ja ganz logisch, dass man zum Beispiel keinen richtigen Bass mehr hört. Denn im oberen Pegelbereich, der ihm gehören sollte tummeln sich ja bereits die Hi Hat, E Gitarren, Vocals, Keyboards.......
Estmal weiß keiner mehr, wie SWF3 klang, die hatten sicher auch nen alten Optimod. Würde man diesen heiligen Sound mit heute vergleichen, würde der wohl eher abstinken. Hörgewohnheiten haben sich geändert, ebensoso die Produktionstechnik und damit auch der Klang.
Wenn jede Platte unter Berücksichtig der Kurven gleicher Lautheit gemischt wäre, müsste man nicht so sehr eingereifen. Du zäumst das Pferd von hinten auf, anders rum wird ein Schuh draus.
Ich hoffe das war jetzt sachlich und faktenbezogen.
Zuletzt bearbeitet: