bei einer HD4000 wird der Sound auch nur durch einen Soundchip gesendet.
Der wird doch nicht von der GPU berechnet....
In der Regel natürlich nicht, sonst würde ich ja nicht die Frage nach einem Software-Synthesizer stellen.
Was die Radeon HD4xxx sendet ist eine Audio-Datei und die kann eine GPU mit einem programmierten Software-Synthesizer sehr wohl selber errechnen aufgrund von Midi-Eingaben und Klangmustern.
Davon abgesehen ist es klanglich wahrscheinlich eher vorzuziehen, eine entsprechende Hostsoftware mit passendem VST-Rompler zu kaufen, imho. Dabei hat man dann noch zusätzliche Möglichkeiten zur Klangveränderung.
Man kann zusätzlich auch Effekte einbinden. Dies geht zwar (abgesehen von z.B. dem auf CUDA basierenden Faltungshall) auf Kosten der CPU-Leistung, aber dafür zu Gunsten der Flexibilität.
Die GraKa kann das besser und flexibler als eine CPU, weil sie schneller ist, weil die Rechenvorgänge einer GPU der Klangberechnung entsprechen und weil sie nicht mit anderen zyklischen Aufgaben betraut ist, wie die CPU, die das Timing stören.
(Jedenfalls, was eine passive Via Epia 1Ghz CPU anbelangt.)
Einen klassischen Soundchip braucht die Karte nicht, solange sie digital bleibt und keinen Analogen Sound ausgibt. Deshalb hat sie auch keine Cinch.
Solange sie also DTS-HD und Dolby True HD 4 weitergibt bleibt der Soundchip von untergeordneter Rolle.
Warum haben dann Profipulte z.B. XLR oder SPDIF/opt. Digitalausgänge
Meines Wissens sind die Datenraten von HDMI SPDIF weit überlegen. (Dies entnehme ich jedenfalls den Zahlen bei Wikipedia). SPDIF kriegt gerade einmal einen Downmix von der HDMI Datenrate zusammen.
Allerdings sind die Geräte noch selten.
Es scheint mir, dass niemand in diesem Forum zuverlässige Infomationen hat, sonst hätte sich sicher schon jemand meine Frage gestellt.
Ich höre viele Dumme Sprüche aber wenig Kompetenz.