News Die GPU auch als CPU nutzen?

Frank

Chefredakteur
Teammitglied
Registriert
März 2001
Beiträge
8.805
Grafik-Prozessoren besitzen mehrere Millionen Transistoren und dennoch leisten sie nichts anderes als 3D Szenen zu rendern, obwohl sie mitunter über 500 Dollar kosten können. Doch könnte man sich die Leistung einer GPU nicht auch in anderen Bereichen zu Nutze machen?

Zur News: Die GPU auch als CPU nutzen?
 
naja... evtl steckt nvidia ja bissl geld rein und bald gibs ihr board mit eingebauter graka und cpu ;p
 
könnt ihr mal testen was das bei euch bringt würde mich mal so interessieren ob es sich lohnt das auszuprobieren
 
seltsam, ich frag mich warum so ein grafikchip um so viel mal schneller ist, als heutige CPU's. Warum bauen nicht Intel oder AMD sowelche CPU's, die so schnell sind wie eine 5900 Ultra, wenn es doch anscheinend möglich ist. Ich mein ne highend graka kostet in etwa so viel eine eine high end CPU, beide verbraten auch etwa gleich viel strom. Also wo ist denn da noch das Problem? Wenn man eine Graka so Einstellen kann, das sie teilweise CPU Anwendungen durchführen kann, nur x mal schneller, dann wird es doch bestimmt auch für Intel oder AMD möglich sein, eine CPU zu bauen die auch 20 teraflops leistet und trotzdem zu allen Programmen kompatibel ist.

Nur mal so ne Vorstellung.
 
mhh naja das scheitert daran das die graka ja nur für einige sachen vom pc zuständig is...nämlich die grafik...und deswegen sind auch nur bestimmte andere sachen auf ihr berechenbar...naja und die cpu is nun mal für alles zuständig! und muss in "allem gut sein" und halt nich nur für die grafik!
 
die grakas kann mit floats und ints umgehen und das wars schon...wenn jetzt solche sachen kommen wie large_integers dann muesste man schon tief in die trickkiste greifen...
die gpu ist viel zu spezialisiert auf das, was sie leisten soll, als dass man sie nun ploetzlich in einem so weiten feld sinnvoll einsetzen koennte....
des weiteren wird doch genau das was oben im text beschrieben wird schon getan...zb vertex shader...
vertex berechnungen, die der cpu erspart bleiben...
und genauso gibt es (wenn auch suendhaft teuer) raytraycing-karten...halt für diesen best. zweck und dafür weit aus schneller als die cpu, die ein alleskoenner sein muss...
 
moin
ich glaube nicht das die gpu's in zukunft als pseudo-co-prozzi für die normale host cpu agieren werden
ich glaub(und hoffe vorallem) das die clearspeed cpu's sich durchsetzen werden, mit 25gflops@200mhz währen sie die idealen co-prozessoren. vorallem dürfte davon linux und die opensource profitieren weil die ja viel flexibler und schneller etwas adaptieren im gegensatz zu z.B. M$

just my 2 cents
 
@4 Weil Intel und AMD auch Geld mit 4,5,6,7,8 und 9Ghz CPUs verdienen wollen......
 
Die sollen lieber den DivX Codec auch für NVidia Karten optimieren, so wie die das bei ATI gemacht habe, das geht mit sicherheit, aber ATI musste wohl sau viel geld dafür bezahlen, dass die das machen.
 
@11 jein, lies 6
auch die clearspeed cpu ist quasi ein hochgeschwindigkeitszug, jedoch kann sie mehr als eine gpu, kann aber dafür dinge die eine gpu kann wiederum nicht, ist halt wieder "nur" eine spezialisierte cpu
 
Sagen wir mal so, die GPU ist um so Vieles schneller, weil sie mit 128Bit rechnet, die Anzahl der simultan laufenden Rechenoperationen ist wesentlich höher. Zudem hat die GPU ja fast eine Cache in 128MB Größe, da der Grafik-Ram ja nun wirklich "höllisch" schnell an die CPU mit einem zudem sehr breiten Bussystem.

Eine GPU kann zudem ohne weiteres mit Integer, Long Integer, Float oder der Gleichen umgehen, weil es einfach nur ausdrucksweisen für Zahlen sind. Denn mal ehrlich:
Was bringt eine Interne Rechengenauigkeit von 40Bit wenn wir bei einer Integer zahl rumgämpeln? Ich meine, das ist als ob du mit einem Mercedes SLR auf dem Acker herumfährst.

Ich sehe das Problem vielmehr darin, wenn dann mal Daten von der GPU verarbeitet werden müssen, die jetzt von 3D API's kommen, wie man dieser dann sagen soll: STOP jetzt nur Grafik Rendern! Ich meine, es ist ja nun durch den Faktor "Mensch" nicht vorhersehbar, dass man SPielen will oder der Gleichen.

Nunja, dennoch finde ich das Ergebnid von 20GFlops sehr beeindruckend.

MfG GuaRdiaN
 
Was soll ich dazu sagen?

vieleicht, ICH wuste es GRAKA´s sind viel zu schnell. diese rechenpower wird Scheiße eingestezt und erhöht nur den stromverbrauch. mit 2GFlop und cleveren routinen würde eine GRaka weniger strom verbrauchen und das gleiche wie jetzt.

@14
40Bit bei fließkomma? das ist viel viel zu wenig. 80Bit sind heute standart (64-Bit bei SEE/SEE2) und die bringen eine ganze menge. natürlich nicht wenn man die nur in intagers wandelt.

grüße
LoM
 
Ähm @ 15, ich glaube du hast meinen Post falsch verstanden.

Die Rechengenauigkeit der Anzeige, und damit die Genauigkeit der Operation lag früher bei 16bit. Später kam dann eine Genauigkeit von 24bit, gefolgt von einer 32bittigen Genauigkeit. Nun sind wir z.B. bei der Matrox Parhelia bei 40bit angelagt. Diese genau Berechenung sorgt dafür, dass es keine Farbverfälschungen auftreten.

Ich habe mich gerade noch mal schlau gemacht. Verwunderlich ist es nicht, dass die GPU so schnell ist. Denn sie hat ja nur ein bestimmtes Spektrum am Befehlen, die abgearbeitet werden können müssen. Von daher ist eine Optimierung leicht. Und bei mittlerweile 8 parallelen Pipelines ist es nicht undgewöhnlich, dass diese GPU so viel Leistung hat. Vorsichtig gesagt könnte man die GPU einen RISC (Reduced Instruction Set C(?)) Prozessoer nennen.

Naja ich bin erstmal wech! ^^
-> nachher wieder da!
 
@guardian
du meinest mit den intagern und so die graka, stimt dann hab ich es falsch verstanden.

Das mit den Farben ist auch übertrieben, wir können nur so um die 300 farben unterscheiden. wenn man jetzt noch die abstufungen dazunimmt kommen mehr farben zustande.
man müsste in die graka so eine art farbpallente einbauen wie bei 8bit grafiken. diese farbtabelle müsste natürlich sehr viel größer sein. aber keine 40Bit die braucht man nicht.
schätzen wir mal 16Bit das ist dann eine farbpalette mit 65k farben. die berechnung wird nun mit 16bit gemacht und danach wird dann eine iterpolation mit der tabelle gemacht und schon hat man ein bild was aussieht wie 40Bit aber nur mit 16bit gerendert wurde.
 
wenn dann wird man wohl unter Linux als erstes die Technologie einsetzen können... bis Windows dafür bereit ist dauert es wohl...
 
Zurück
Oben