News SuperPI wird durch CUDA Nvidia-GPU-tauglich

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.630
Die CPU ist ein Alleskönner, während man die GPU nur für spezielle Aufgaben verwenden kann, die diese dann meistens aber deutlich schneller abarbeiten kann als der Rechenkollege. Auch wenn dieser Satz noch immer (und wohl auch für immer) gilt, so gibt es dank eines ständig größer werdenden GPGPU-Markts immer mehr Software, die von der GPU profitieren kann.

Zur News: SuperPI wird durch CUDA Nvidia-GPU-tauglich
 
endlich!

die gpu ist einfach schneller und besser. und braucht dazu noch eine geringere voltage.

bin ja gespannt, wie sich das auf alle anwendungen
 
Super, noch ein virtueller GenitalGrößenVergleich den die Welt nicht braucht.

Die sollten sich lieber hilfreicherene Aufgaben widmen...
 
Schon toll, wenn immer mehr Programme auf den GPUs laufen. Mit SuperPI bekommen dann GPU-Programme (wohlgemerkt keine Spiele) einen Freeware-Benchmark den jeder User ohne weiteres nutzen kann.

In 5 Jahren wird der dann auch mal von Nutzen sein, wenn es genug GPU komforme Programme gibt :evillol:
 
Zuletzt bearbeitet: (typo)
die gpu ist einfach schneller und besser. und braucht dazu noch eine geringere voltage.

Schneller ja, besser nur teilweise, eine CPU kann alles berechnen, eine GPU kann nur bestimmte sachen berechnen, deshalb ist mit ausnahme der Geschwindigkeit die CPU besser.

und was hat bitte die voltage damit zu tun??? fals du auf die Verlustleistung rauswillst ist die Voltage auch ziemlich egal (außer die zu vergleichenden voltage sind die gleiche Architektur in der gleichen fertigugn), auszug aus der wiki:
Die erste Generation des Pentium, der P5, wurde auf der CeBIT 1993 vorgestellt. Die beiden einzigen Vertreter des P5 sind der Pentium 60 und der Pentium 66. Beide arbeiten mit einer Versorgungsspannung von etwa 5 Volt und sind von Haus aus nicht Multiprocessing-fähig.

dieser hatte trotz 5 volt spannung so wenig verlustleistung dass man ihn mit nem mini-kühler kühlen konnte, heute Quad-Cores haben nur 1,2 bis 1,5 volt brauchen aber bis zu 140 Watt.
 
TheWarrior23 schrieb:
die gpu ist einfach schneller und besser.
Nö, nur anders.

deer schrieb:
Hoffentlich kommen bald Video-Encoding Programme welche GPU´s bzw. CUDA benutzen
Kenne mehrere, die sich in Forschungsprojekten daran versucht haben und das ist nicht trivial. Beim h264 Encoding entstehen viele unterschiedliche Datenabhängigkeiten, die der GPU Architektur nicht gut gefallen. GPUs eignen sich gut als dumme number cruncher, aber je mehr Abhängigkeiten zwischen unterschiedlichen Daten und Pfaden entstehen, desto mehr stalled die Hardware und entfernt sich immer weiter von ihrer theoretischen Rechenleistung.
 
Zuletzt bearbeitet:
Ich würde mich auch freuen, wenn es bald Programme mit GPU-Unterstützung geben wird.
Dann gibt man das viele Geld nicht nur zum Zocken aus, sondern hat auch mehr Power in anderen Anwendungen.
 
stna1981 schrieb:
...und falls AMD eine CUDA-Lizenz bekommt ;)
Wozu? Das AMD Pendant zu CUDA nennt sich CTM.

@topic
Erstmal abwarten, inwiefern sich SuperPi für diverse Rechenoperationen überhaupt parallelisieren lässt. Ansonsten bringt GPU Power nämlich gar nichts. Dann sind CPUs mit ihrer überlegenen Cache-/Prefetch-/Branching-Logik immer noch im Vorteil.
Interessant ist auch, dass die Berechnungen wohl teilweise nicht IEEE konform sein werden. Fragt sich, ob das auf die Ergebnisse Einfluss hat.
 
Zuletzt bearbeitet:
Das ist doch mal ein Schritt in die richtige Richtung.
Die Berechnungen bzw. Aufgaben die einer GPGPU nicht liegen, könnte man auf die CPU auslagern.
Aber bis es mal soweit ist, werden noch ein paar Jährchen vergehen.
 
Viel interessanter ist jedoch die baldige Verfügbarkeit von Folding@Home für CUDA-fähige GPUs.
Im Blog der Folding@Home ist schon von einer erweiterten Testphase die Rede.
 
Das Problem ist halt, daß sobald man einer GPU den ganzen Verwaltungskram aufhalst sie mit ihrer ganzen parallelen Rechnenpower nix mehr anfangen kann.

Wer sich näher dafür interessiert warum die GPU eben nicht "besser" sondern nur "anders" ist, dem seien diese beiden Wiki Artikel ans Herz gelegt:

Streamprozessor
Vektorprozessor
 
SuperPI ist schon schweinealt und nutzt nur einen Kern. Ich frage mich bis heute, warum sich keiner mal dran gesetzt hat und eine Version rausbrachte, die MehrkernCPUs unterstützt? Das wäre primär sinnvoller als gleich auf die GPUs zu setzen.

In Sachen GPU war ATI mit der Encodingfunktion Vorreiter -und das sollte mal vorangetreieben werden. Sprich, die großen Videoschnittsuiten sollten da mal ein Auge drauf werfen.
 
Na fantastisch und wieder einmal fehlt ein gemeinsamer Standard in Sachen GPGPU. AMDs CTM schaut wieder doof aus der Röhre. Und wahrscheinlich wird es sich so wie das sagenhafte 3DNOW von AMD entwickeln. Läuft nicht unabhängig von der Hardware. Wieso meinen die tollen Hersteller Kundenbindung durch solche Restriktionen erhalten zu können?
 
Wollte man nicht vor längerer Zeit mal, eine GPU so ummodellieren das sie die Aufgaben eines CPUs übernehmen? War glaub vor nem Jahr oder 2 mal die rede von. Schaun wer mal was für Performanceschübe uns das bringt.
 
@brutos
das ist nunmal die kehrseite der allseits gelobten "konkurrenz am markt" .. siehe hd-dvd/blu.ray ;)
 
ich finde eine super pi berechnung völlig sinnfrei.
was bitte soll das ,doch wieder nur ein weiterer strategisches zug
ich denke sie haben einfach nur große sorgen was ihre zukunft angeht

das sie soetwas nötig haben wundert mich doch sehr,hat der streit mit intel doch tiefere wunden gezogen
 
Zurück
Oben