Preamp-/Audio-Interface?

Status
Für weitere Antworten geschlossen.
@ Tonband:


Sorry, ich habe da glaube ich die Übersicht in euren Wort-Rangeleien verloren. Muss aber auch sagen, dass ich mir diesen Hahnenkampf nicht im Detail durchgelesen habe, eben weil so viele Pauschalisierungen vorgenommen wurden.

Es wäre schön wenn hier mehr auf sachlicher Ebene diskutiert wird und wenn möglich Referenzen herangezogen werden, die für alle zugänglich sind.
Darum hatte ich diesen test ja überhaupt gepostet, weil ich gerne mal eure Meinung zu lesen wollte.
 
@ Tonband:
Es wäre schön wenn hier mehr auf sachlicher Ebene diskutiert wird (..)
Darum hatte ich diesen test ja überhaupt gepostet, weil ich gerne mal eure Meinung zu lesen wollte.
Ja, ist klar @streamer. Ich habe sowas bisher auch gern vermieden. Wenn ich so unfair angegriffen werde könnte ich natürlich auch den Schwanz einziehen. Liegt mir aber nicht. Vor allem dann nicht, wenn der Kontrahent nicht bereit ist Missverständnisse auszudiskutieren. Schwamm drüber.

Zum Thema: Verstärkermessungen
Weil der Zwerg gerade einen STEREO-Artikel gepostet hat schmeiss' ich den mal hier rein.
STEREO schrieb:
Die HiFi-Technik hat heute einen sehr hohen Stand erreicht, so dass man die letzten, minimalen technischen Unzulänglichkeiten bei den meisten Geräten, wenn überhaupt, eher messen als unmittelbar hören und wahrnehmen kann.
(..)
Nicht selten klingt ein dezent und entsprechend abgestimmt „klirrender“ Verstärker mit geringen ungeradzahligen und mit aufsteigender Ordnung sanft abfallenden Klirranteilen sogar farbiger und satter, das hat mit „Zerren“ nichts zu tun, es handelt sich eher um absichtliche Verfärbung, „Klangtuning“, wenn man so will.
Ein derartiger AMP zählt m.E. aber zu den EFFEKT-Geräten. Ich wünsche sowas in einem Pre-AMP nicht.

Natürlich reicht es nicht Amplituden-/Phasen-Frequenzgang und Klirrfaktor anzugucken. Wie aus diesem Artikel auch hervorgeht sind die dynamischen Parameter (slew rate, latency) für die Musikwiedergabe von essentieller Bedeutung. Aber auch dafür gibt es Messverfahren, auch für "Mess-Atheisten" anwendbar.

mfg. TB
 
Also was eine einfache Frage hier so alles für Grundsatzdiskussionen auslöst...

Und alles damit das was gequatscht wird irgendwie elektrisch/elektronisch übertragen wird und wo anders aus einem Lautsprecher rauskommt, mit der Auflage, dass man es noch verstehen kann ;)

Diese vielen Details von wegen Stecker, Kabel, Röhre oder nicht, und, und, und und, ... Ich weiß zwar was ihr alle meint - aber sorry - aber ich find' das etwas übertrieben...
 
Was übertrieben ist und was nicht richtet sich nicht danach, ob der Anwender etwas von dem versteht, was physikalisch in den Klamotten passiert, die er benutzt, sondern vielmehr nach dem was er mit seinen Arbeitsmitteln erreichen will. Und da ist es sicher nicht ratsam, auf Produktionsebene die niedrigsten anzunehmenden Qualitäten der Ausspielhardware den Endverbrauchers als eigenen Standard zu wählen.
 
Kenne Studios die mit dem Presonus VXP arbeiten, wie auch wir, oder aber dem mindprint en-voice mk2...
Beides sind super Geräte, könnte dir noch welche auflisten wie den Universal Audio LA-610, wobei die Gerätschaften dein Preis-Limit übersteigen würden (denke ich mir).
Auch "super geil", ist der Avalon VT 737SP.
 
Was übertrieben ist und was nicht richtet sich nicht danach, ob der Anwender etwas von dem versteht, was physikalisch in den Klamotten passiert, die er benutzt, sondern vielmehr nach dem was er mit seinen Arbeitsmitteln erreichen will. Und da ist es sicher nicht ratsam, auf Produktionsebene die niedrigsten anzunehmenden Qualitäten der Ausspielhardware den Endverbrauchers als eigenen Standard zu wählen.
Ja, da gebe ich dir recht. Die ursprüngliche Fragestellung richtete sich ja nach einer günstigen aber brauchbaren Lösung.

Also: was ist um LowBudget Bereich brauchbar?
 
Moment mal!

Ich bitte alle Streithähne mal kurz um etwas Zurückhaltung!

Grundsätzlich haben wir es in der realen Welt immer mit "bandbegrenzten" Signalen zu tun, egal ob rein analog oder digital.

Ein ideales Rechtecksignal gibt es nur in der Mathematik oder auf dem Papier.

http://de.wikipedia.org/wiki/Rechteckschwingung

Ihr habt die Formel gesehen.

Aber habt ihr sie auch verinnerlicht?

Salopp ausgedrückt: Je mehr "Oberwellen-Sinusschwingungen" ich dazuaddiere, um so "schöner" wird mein Rechtecksignal. Das Idealbild einer Rechteckschwingung werde ich aber nie sehen. Und auch niemand in der (real existierenden) Welt wird jemals dieses Signal generieren können. Warum nicht? Ganz einfache Antwort: Wir haben es immer mit bandbegrenzten Systemen (z.B Kabel oder Leiterbahnen) zu tun, die dieses ideale Signal durch Kapazität, Induktivität und den ohmschen Widerstand mit einem Tiefpass versehen. Und schon sind die hochfrequenten Terme in unserer wunderhübsch aussehenden Gleichung nicht mehr relevant...

Ich höre an dieser Stelle besser auf, denn ich wollte ja aktuell eigentlich nur über Vinyl-Schallplatten, Tonarme und Abtastsysteme referieren. Das mache ich auch noch...

Also ein Beispiel. Erster Screenshot, arian Trace Pro nicht angepasst.(gemessen mit angeschlossenem "Verbraucher")

marian_trace_pro_tilt.png



Und so sieht es nach der Anpassung aus.

marian_trace_pro_tilt_cor.png



Würde ich nun die länge des KAbels ändern, müsste ich es wieder neu anpassen.


Aber ich hab von sowas ja keinen Plan :|
 
Dann zoom doch mal "richtig nah" an die Sprungstelle ran. Das real existierende Signal KANN nicht unendlich schnell von 0 auf 1 springen. Das geht nicht, da man dazu auch unendlich hohe Frequenzen bräuchte.

Einfaches Beispiel: Die Schaltzeiten von irgendwelchen Gattern in elektronischen Bauelementen. Das sind nur wenige Nanosekunden, aber das ist halt doch etwas Zeit, die vergeht. Damit habe ich dann aber auch eine obere Grenzfrequenz des Bauelements, die in den Datenblättern angegeben ist. Ein Signal ist also immer bandbegrenzt.

"Unendlich schell" geht nur in der Theorie.

In diesem Zusammenhang muß man sich einfach mal aktuelle Prozessoren anschauen. Die Taktfrequenzen sind so hoch, daß dem Layout der Leiterbahnen (*) allergrößte Bedeutung zukommt. Sonst funktioniert das ganze Timing im Chip nicht. Das ist schon so richtig "relativistisch", kaum vorstellbar. Wenn ich nun an die "gemütlichen" 985 kHz Taktfrequenz in meinem alten C-64 zurückdenke... ;)


*) Hier geht es um die Kapazität einer Leitung bzw. die Lichtgeschwindigkeit im Vakuum im Verhältnis zur "Lichtgeschwindigkeit" in einem Leiter., welche von der Art des umgebenden Dielektrikums abhängig ist. Das ist dann übrigens der berühmte Verkürzungsfaktor in der HF-Technik.


Grüßle
 
Dann zoom doch mal "richtig nah" an die Sprungstelle ran. Das real existierende Signal KANN nicht unendlich schnell von 0 auf 1 springen. Das geht nicht, da man dazu auch unendlich hohe Frequenzen bräuchte.

Einfaches Beispiel: Die Schaltzeiten von irgendwelchen Gattern in elektronischen Bauelementen. Das sind nur wenige Nanosekunden, aber das ist halt doch etwas Zeit, die vergeht. Damit habe ich dann aber auch eine obere Grenzfrequenz des Bauelements, die in den Datenblättern angegeben ist. Ein Signal ist also immer bandbegrenzt.

"Unendlich schell" geht nur in der Theorie.

In diesem Zusammenhang muß man sich einfach mal aktuelle Prozessoren anschauen. Die Taktfrequenzen sind so hoch, daß dem Layout der Leiterbahnen (*) allergrößte Bedeutung zukommt. Sonst funktioniert das ganze Timing im Chip nicht. Das ist schon so richtig "relativistisch", kaum vorstellbar. Wenn ich nun an die "gemütlichen" 985 kHz Taktfrequenz in meinem alten C-64 zurückdenke... ;)


*) Hier geht es um die Kapazität einer Leitung bzw. die Lichtgeschwindigkeit im Vakuum im Verhältnis zur "Lichtgeschwindigkeit" in einem Leiter., welche von der Art des umgebenden Dielektrikums abhängig ist. Das ist dann übrigens der berühmte Verkürzungsfaktor in der HF-Technik.


Grüßle

Ja das stimmt schon im grunge. wenn man ganz nah auf die ecke zoomt, kann man es deutlich erkennen.
Übrigends 4x Oversampling!
 
Ja das stimmt schon im Grunde. wenn man ganz nah auf die Ecke zoomt, kann man es deutlich erkennen.

Natürlich kann man das ganz sicher erkennen. Gut, ich erkenne das erstmal an...


Übrigens 4x Oversampling!

Ups, du arbeitest mit "Oversampling"! Cool! Shannon würde dir seine Arbeit von 1947/48 jetzt um die Ohren hauen.

Stichwort: "Bandbegrenzung". Du wolltest dazu etwas sagen?

Du hast das Wort.
 
Wenn man eine höhere Abtastfrequenz wählt, erhält man keine zusätzlichen Informationen. Der Aufwand für Verarbeitung, Speicherung und Übertragung steigt jedoch. Trotzdem wird Überabtastung (oversampling) häufig angewendet. Liegt nämlich die Nutzbandbreite B sehr nahe bei der halben Abtastfrequenz, so werden sehr hohe Anforderungen an die Flankensteilheit des Tiefpassfilters gestellt. Diese analogen Filter können häufig nur mit großem Aufwand abgeglichen werden.
Überabtastung erlaubt es, die Anforderungen an den analogen Tiefpassfilter drastisch zu reduzieren, indem die steilflankige Bandbegrenzung auf einen präzisen Digitalfilter hoher Ordnung verlagert wird. In der Praxis wird häufig ein Überabtastungsfaktor M = 2 oder M = 4 gewählt. Somit braucht man weniger steile analoge Filter vor dem Abtasten. Nach der Abtastung wird dann ein digitales Filter zur Abtastratenreduktion eingesetzt, womit die Abtastfrequenz nachträglich gesenkt wird. Dieses digitale Filter wird auch als Dezimationsfilter bezeichnet und kann beispielsweise in Form eines Cascaded-Integrator-Comb Filters realisiert werden.
Mathematisch ausgedrückt hat ein idealer Tiefpassfilter als Übertragungsfunktion eine Rechteckfunktion. Diese Übertragungsfunktion schneidet das Spektrum im Frequenzraum perfekt ab, und das gefilterte Signal kann perfekt aus den Abtastpunkten rekonstruiert werden. Allerdings lässt sich ein ideales Tiefpassfilter nicht praktisch realisieren, da es nicht kausal und unstetig ist.
Deswegen verwendet man analoge Tiefpassfilter, welche eine stetige, trapezähnliche Übertragungsfunktion aufweisen und deren Flanken mit kontinuierlicher, endlicher Steigung zu- bzw. abnehmen. Diese Filter können beispielsweise in Form von Butterworth-Filtern realisiert werden. Nach dem Abtasten erfolgt die digitale Glättung und das Heruntertakten auf die Nutzbandbreite. Die Flankensteilheit hat dabei einen Einfluss auf die Güte des rekonstruierten Signals.


Sagt Wikipedia???!
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben