Sagen wir mal so, die GPU ist um so Vieles schneller, weil sie mit 128Bit rechnet, die Anzahl der simultan laufenden Rechenoperationen ist wesentlich höher. Zudem hat die GPU ja fast eine Cache in 128MB Größe, da der Grafik-Ram ja nun wirklich "höllisch" schnell an die CPU mit einem zudem sehr breiten Bussystem.
Eine GPU kann zudem ohne weiteres mit Integer, Long Integer, Float oder der Gleichen umgehen, weil es einfach nur ausdrucksweisen für Zahlen sind. Denn mal ehrlich:
Was bringt eine Interne Rechengenauigkeit von 40Bit wenn wir bei einer Integer zahl rumgämpeln? Ich meine, das ist als ob du mit einem Mercedes SLR auf dem Acker herumfährst.
Ich sehe das Problem vielmehr darin, wenn dann mal Daten von der GPU verarbeitet werden müssen, die jetzt von 3D API's kommen, wie man dieser dann sagen soll: STOP jetzt nur Grafik Rendern! Ich meine, es ist ja nun durch den Faktor "Mensch" nicht vorhersehbar, dass man SPielen will oder der Gleichen.
Nunja, dennoch finde ich das Ergebnid von 20GFlops sehr beeindruckend.
MfG GuaRdiaN