News Erster „Direct Compute“-Benchmark aufgetaucht

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.621
Das GPU-Computing, sprich das Berechnen von Daten auf der Grafikkarte abseits des 3D-Renderings, nimmt immer mehr an Bedeutung zu. Nicht nur OpenCL, sondern genauso Direct Compute stehen mittlerweile in den Startlöchern und mit den Radeon-HD-5000-Karten gibt es nun auch eine GPU, die vollständig diesbezüglich kompatibel ist.

Zur News: Erster „Direct Compute“-Benchmark aufgetaucht
 
ich geh davon aus, dass der G200 im Gegensatz zum RV870 einfach schon viel mehr auf Computing ausgelegt ist und deswegen die Nase vorn hat.
Ich denke das gerade beim GPGPU AMD Grafiikarten deutlich schlechter als die Nvidia Grafikkarten abschneiden werden, da Seitens NV schon viel länger eine Optimierung dahingehend stattfindet. So fällt der G200 DIE nicht zuletzt aufgrund vieler Transitoren für GPU so rießig aus.

Werde heute Abend mal testen auf was meine Core i7 CPU und HD4850 kommen... Anscheinend top ich damit schon locker eine HD5870.
 
Werde heute Abend mal testen auf was meine Core i7 CPU und HD4850 kommen

Schon getestet auf einer HD4670 es erscheint eine Fehlermeldung im Benchmark , die Grafikkarte wird mit 0% Auslastung nicht genutzt nur die CPU mit 100%.
 
Wie willst du denn die 4850 testen wenn die ATIs erst ab HD 5000 unterstützt werden?
 
bei den HD5000 liegts gewiss an der fehlenden software/optimierung.


gruß
 
DX10 ATIs werden noch nicht unterstützt, da brauchts wohl erstmal nen neuen Catalyst.

Der Bench verabschiedet sich auf meiner GTX260 übrigens mit einer DX11-ist-fehlerhaft-Meldung (Win7RC).
 
Nachdem ich die "d3dx11_42.dll" runtergeladen habe und in den Ordner kopiert habe, startet das Prog.
Meine GTX 275 kann es aber nicht benchen, es kommt "Could not create Shader!"
 
FEHLER im ersten Absaz, zweiter Satz: "Nicht nur OpenGL,..." <-- Das sollte wohl "OpenCL" heissen, oder? OpenGL ist ja nun nicht mehr ganz so neu ;)

Wichtiger als irgendwelche Benchmarks wären mir viel eher reale Anwendungen. Selbst bei CUDA, das es ja mittlerweile schon eine kleine Ewigkeit gibt sind alle mir bekannten Anwendungen eher Techdemos als wirklich nützliche Anwendungen, mal abgesehen von den wissenschaftlichen Anwendungen, die kann ich nicht beurteilen. Denn Sachen wie Badaboom zeigen zwar deutliche Geschwindigkeitsvorteile, aber Badaboom bspw. ist ja mal echt ein Witz, sowas kann man im Anwendungsalltag vergessen. Und Number-Crunching hat zwar ein edles Motiv in den meisten Fällen (Folding@home etc.), aber was soll man damit als Anwender denn bitte anfangen? GPGPU verkauft sich ja mittlerweile prächtig auf dem Papier, aber es nützt dem Anwender eben bis jetzt noch so ziemlich gar nichts. Das muss sich ändern, erst dann werden auch Benchmarks interessant. Denn Benchmarks um des Benchmark Willen... Also da muss einem schon echt langweilig sein. ;)
 
Krautmaster schrieb:
ich geh davon aus, dass der G200 im Gegensatz zum RV870 einfach schon viel mehr auf Computing ausgelegt ist und deswegen die Nase vorn hat.
Ich denke das gerade beim GPGPU AMD Grafiikarten deutlich schlechter als die Nvidia Grafikkarten abschneiden werden, da Seitens NV schon viel länger eine Optimierung dahingehend stattfindet. So fällt der G200 DIE nicht zuletzt aufgrund vieler Transitoren für GPU so rießig aus.

Dann bist du aber ziemlich auf das NV-Marketing reingefallen. NV kann froh sein wenn sie im GPGPU-Bereich mit Fermi auf Cypress aufschließen.
 
zumindest von der rohleistung her. wie es nachher aussieht wird sich zeigen. nvidia hat im gpgpu bereich die weitaus besseren treiber
 
Treiberfehler? So nennt man das jetzt also, wenn nachträgliche Ergebnisoptimierungen vorgenommen werden.
 
w0mbat schrieb:
Dann bist du aber ziemlich auf das NV-Marketing reingefallen. NV kann froh sein wenn sie im GPGPU-Bereich mit Fermi auf Cypress aufschließen.

Quelle?
 
Benchmarks scheinen zur Zeit in zu sein, dann erwähne ich auch noch kurz das Phoronix Test Suit. Das ist eine Sammlung aus über 100 Benchmarks (der Unigine Heaven Benchmark soll da auch noch rein), bisher nur für Linux und andere Unix-Systeme. Das ganze wird bald auch für Windows erscheinen.
 
oder im test wird mit double precision gerechnet. Dabei schneidet ATI schlechter ab weil die 5 SP's "zusammenschalten" müssen um einen double precision wert zu erhalten wärend NV dafür seperate Einheiten hat

In meiner Firma arbeiten wir gerade an CUDA Programmen. Ich Hätte auch eher zu ATI gegriffen aber in der DP Leistung ist Nvidia einfach wesentlich schneller.
 
Killermuecke schrieb:
Benchmarks scheinen zur Zeit in zu sein, dann erwähne ich auch noch kurz das Phoronix Test Suit. Das ist eine Sammlung aus über 100 Benchmarks (der Unigine Heaven Benchmark soll da auch noch rein), bisher nur für Linux und andere Unix-Systeme. Das ganze wird bald auch für Windows erscheinen.

Daran erkennt man aber auch wie "sinnvoll" diese Bencherrei dann doch wieder ist.
 
@Medic

Die Rechenleistung der ATIs ist ja wohl mit den NVidias gleichauf. Das Treiber angepasst werden müssen, ist ja nichts Neues.
Frech wirds doch erst wenn wieder AA und AF heimlich automatisch deaktivert werden... ;)
 
192.168.1.1 schrieb:
FEHLER im ersten Absaz, zweiter Satz: "Nicht nur OpenGL,..." <-- Das sollte wohl "OpenCL" heissen, oder? OpenGL ist ja nun nicht mehr ganz so neu ;)

Ist geändert. Thx. :)
 
Was ist daran wundersames wenn eine GTX260 einen 5870 schlägt?
Die G200 sind dezitierte GPGPU Prozessoren, die halt AUCH Spiele darstellen können, während ATI NUR Spiele darstellen kann und sonst nix reißt und darum im GPGPU so gut wie gar nicht zur Anwendung kommt.

Sieh Profibereich von Nvidia: Quadroplex(Grafik/GPGPU), Tesla (Supercomputer)

Nvidia setzt jetzt alles daran im GPGPU Bereich Oberwasser zu behalten, gegen Intels Larabee, der auch eine dezitierte GPGPU Karte ist.
 
Zurück
Oben