ATi Stream / TFlops

selberbauer

Captain
Registriert
Juni 2009
Beiträge
3.604
Hallo CBler,
schonmal voraus:
ich habe mit google in 20min nichts gefunden, also bitte keine gidf.de oder sonstigen Links bzw. Hinweise, welche letzendlich meine eigentliche Fragestellung behindern.

Also ich wollte gerne mal Wissen wieviel TFlops bzw Gigaflops folgende Grafikkarten haben:
GTX 480
HD 5870 (2.7???)
HD 5970
als Vergleich i7 980 @4GHz


Meine 2. Frage betrifft ATi Stream, da dies ja der pendant zu nVidia Cuda ist, wollte ich wissen, ob sich dieser auch "einfach" programmieren ließe bzw. ob man die GPUs von meinetwegen einer HD 5970 für wissenscahftliche Berechnungen nutzen kann.
Wenn ich zudem nun bsw. 3 HD 5970 verbaut habe, könnte man diese per Treiber zusammen binden, sodass ich diese alle für Berechnungen benutzten könnte?
MfG
selberbauer
 
http://en.wikipedia.org/wiki/Comparison_of_Nvidia_graphics_processing_units#GeForce_400_Series
http://en.wikipedia.org/wiki/Compar...ocessing_units#Evergreen_.28HD_5xxx.29_series
http://de.wikipedia.org/wiki/Floati...er_Second#Rechenleistung_von_Computersystemen

Wenn Google schon nicht dein Freund ist, könntest du dich wenigstens mit Wikipedia anfreunden. ;)

ob man die GPUs von meinetwegen einer HD 5970 für wissenscahftliche Berechnungen nutzen kann.
Da Stream genauso wie CUDA mittels OpenCL / DirectCompute benutzt werden kann, ja.
 
Ok danke,
wieso wird dann bei den Fanboys immer CUDA so stark hochgeredet?
Marketing oder?

HAbs mir mal angesehen, genausowas habe ich gesucht, was Wikipedia alles hat ;)
Hätte nie gedacht, dass die GTX 485 nur 1.8TFlops und eine 5970 Eyfinity ganze 5.4TFlops
 
Zuletzt bearbeitet:
wieso wird dann bei den Fanboys immer CUDA so stark hochgeredet?

na dann nen mir mal ein paar Programme für Stream ... und welche für CUDA ... dann kannst dir das auch selbser beantworten ...

und überleg mal wann OpenCL / DirectCompute hinzugestossen ist ...

qualitativ schlechter ist keines von beiden, aber wenn ichs halt nicht vermarkte ... interessierts halt auch keinen (ATI)
 
Zuletzt bearbeitet:
Hi, ich habe ein Kolegen der hat gerade vier ATi HD 5970 im CrossFireX laufen und mega Probleme. Es laufen alle 4 Karten nur der Treiber deaktiviert immer einen GPU-Kern pro Karte. Also er unterstützt maximal nur 4 GPU´s. Wenn wir 2 der Karten rausnehmen, werden bei den beiden die noch im Computer sind, beide Kerne pro Karte angesprochen. Egal in welcher Zusammensetzung der Karten im CrossFire. Ich würde sagen, die Treiber sind noch nicht so weit. Teste es mit 2 ATi5970. Ich bin mir aber auch nicht 100%ig sicher. Wünsche dir aber viel Glück. (Bei den 5970 steht zwar das sie CrossFireX können. Also mehr als 2 Karten. Aber 2 mal 2 GPU´s, sind ja schon 4 also wirst du wohl kein Glück bei mehr als 2 Karten mit jeweils 2 GPU´s haben.)

greetz Tobsen
 
falls es dich interessiert, wie man es programmiert: https://www.computerbase.de/forum/threads/wie-man-ati-stream-programmiert.556543/

warum immer cuda hochgelobt wird? keine ahnung, damit nv immer einen pluspunkt mehr bei tests bekommt. aber wieso man es dann bei ati verschweigt weiß ich nicht. vllt weil man der meinung ist, dass es kaum programme dafür gibt. is bei cuda zwar auch nicht wirklich der fall, aber immerhin gibts zwei programme mehr. naja.
Ergänzung ()

xyperspirale schrieb:
Ich würde sagen, die Treiber sind noch nicht so weit.
das liegt einfach daran, dass es auf maximal 4 gpus begrenzt is. heißt entweder zwei 5970 oder vier 58x0. mehr geht nicht, sowohl bei nv als auch bei ati. und wenn du 4 5970 in einem rechner siehst, dann werden die nicht zum berechnen von grafiken verwendet, sondern für ganz andere probleme.
 
thx ;-) , hab ich meinem Kolegen auch gesagt, aber er will nicht hören. Er meint liegt am Nt, naja er wirds es wohl auch in ein paar Tagn einsehen :-D
 
Der Vergleich von Leistungsdaten anhand von FLOPs bringt eh wenig bis gar nichts... Weil die Daten nicht aus Benchmarks ermittelt werden (bringt eh auch nicht wirklich viel... je nach Benchmark andere Werte...) sondern aus den Befehlssätzen hochgerechnet werden. (Im Grunde auch der Grund warum RISCs die CISCs bei FLOPs immer so schön abhängen...)
 
ja Treiber ist eine Sache, man müsste vermutlich ATi dazu bringen mal was richtiges rauszubringen oder laufen diese FireGL (die teuren) besser, weil diese einen speziellen treiber haben
Ergänzung ()

serra.avatar
ein bisschen fanboy ;) in dir

@1668mib und wo finde ich da eine Tabelle, welche diese vergleicht bzw. zeigt
 
Bei ATi auch:

at the Chinse National University of Defense Technology have unveiled a petaFLOPS supercomputer that consists out of thousands of Intel Xeon processors along with 5,120 ATI Radeon HD 4870 X2 2GB graphics cards. The system cost 600 million yuan (about $87.88 million) and delivers a theoretical performance of 1.206 PFLOPS.

;-)
 
Nunja - beim spielen kann man maximal 4 GPU Kerne verwenden. Sowohl bei ATI als auch NVidia. Daher Deaktiviert der Treiber 4 von 8 GPU's. Solche 4x GTX295 aufbauten kann man nur für wissenschaftliche Berechnungen verwenden.
 
serra.avatar schrieb:
naja bei nvidia geht mehr ... mit TESLA ...
wenn du weiter zitiert hättest, müsstest du es nicht wiederholen. wie gesagt: falls man mehr sieht, sind es andere probleme und keine grafikberechnungen.
1668mib schrieb:
Der Vergleich von Leistungsdaten anhand von FLOPs bringt eh wenig bis gar nichts...
auf was beziehst du das? die rechenleistung der atis im gpgpu ist deutlich höher (und ja, das kann man schon allein an den tflops ablesen). man muss halt nur optimieren. eine amd cpu kann ich immerhin auch künstlich verlangsamen (siehe intel compiler). natürlich kann man aber nicht die leistung anhand der tflops messen, das ist klar.
selberbauer schrieb:
ja Treiber ist eine Sache, man müsste vermutlich ATi dazu bringen mal was richtiges rauszubringen oder laufen diese FireGL (die teuren) besser, weil diese einen speziellen treiber haben
die treiber sind u.a. speziell auf opengl ausgelegt, da im professionellen bereich directx kaum/nicht benutzt wird.

oder aus dem gtx 465 test bzgl. cuda erwähnung:
DvP schrieb:
"Nvidia has a long checklist of what you should and should not write about. When they send you a new card, they give you a reviewers guide that basically shows what you should test, what benchmarks you should use, and what OSes and drivers are recommended. If you stray too far from those recommendations, or worse yet, don't say that PhysX or CUDA is the greatest thing on earth, you are on dangerous ground."

Quelle: (Wiedermal) Semiaccurate.com

Jeder ist eingeladen, sich seinen Teil selbst zu denken ;-)
 
könnte man nicht mehr gpus verwenden, wenn man nicht versucht diese zusammenzufassen?
oder wenn man die treiberlimitierung aufhebt?

@claW.
wenn die Treiber für den profesionellen Bereich sind und die Bauweise (sie der neuen, passiven 5870) für Server ausgelegt sind, dann müssten diese doch mehrere GPUs unterstützen
 
selberbauer schrieb:
wenn die Treiber für den profesionellen Bereich sind und die Bauweise (sie der neuen, passiven 5870) für Server ausgelegt sind, dann müssten diese doch mehrere GPUs unterstützen
ja klar. die vier chips sind halt nur auf grafikberechnungen auslegegt wie schon gesagt. ich weiß aber nicht, ob das ne limitierung der treiber ist oder sich windows einfach weigert mehr als vier chips bearbeiten zu wollen. wenn du nur gpgpu nutzen willst, dann kannst du so viele karten reinhauen, wie du lustig bist. gibt ja einige supercomputer mit ati/nv, welche mehr als vier chips besitzen.
 
du darfst halt kein crossfire benutzen wollen. crossfire kann nur mit 4 gpus umgehen aber professionelle sachen brauchen kein cf. wie sollten sonst die rechner mit 7 gtx 295 funktionieren die für irgend nen wissenschaftlichen kram benutzt werden
 
wie funktioniert das treiber mäßig dann`?
normales CCC raufmachen aber kein CF aktivieren oder speziellen Treiber.
Hat jemand Erfahrung mit dem EVGA SR2?
 
Zurück
Oben