News FirePro W9000: AMD kündigt Profigrafikkarte mit 4 TFLOPS an

RP01 schrieb:
Eine HD 7970 mit Eyefinity 6 würde -nicht zuletzt wegen der Treiber- bei CAD-Anwendungen mit sechs Bildschirmen von jeweils 2560x1600px gnadenlos gegen eine FirePro der neusten Generation verlieren.

unterstütze diese Behauptung nicht!

Wenn das CAD OpenGL basiert ist, dann ganz klar ja aber wenn du z.B. Autodesk Inventor einsetzt, welches auf Direct X setzt, sieht die Sache gaanz anders aus...

Darum gilt diese generelle Aussage sicherlich nicht
 
Ist aber eigentlich vorherzusehen, da der GK104 von anfang an nur für den consumermarkt und weniger für computing, gpgpu usw. gedacht.
 
@fReAkgoesCB

Lux Render
SmallLuxGPU 1.8b [MSamples/s (höhere Resultate sind besser)] nv580=5,7 - nv680=3,8 (-33,9%)

Lux Render
SmallLuxGPU 1.8b [MSamples/s (höhere Resultate sind besser)] AMD7970=14,9 - nv680=3,8 (-74,7%)

sieht nicht nach nem Schreibfehler aus!
 
proud2b schrieb:
Sorry CB, aber aufgrund dieser Länge war vorhinein klar dass es sich um eine Dual GPU handelt..

Als Papermaster die Karte hochhielt, dachte ich auch erst an Dual-GPU. Aber die Angabe von 4 TFLOPS war für zwei Tahitis einfach zu wenig, daher habe ich auf Single-GPU getippt.

War wohl wieder mal ein klassischer Fall von "Gezeigtes Produkt hat nichts mit Hintergrundpräsentation zu tun". :evillol: Aber wir sind nicht die einzigen, die das so interpretiert haben. Klick
 
http://www.golem.de/news/high-end-grafikkarte-amd-cto-zeigt-radeon-7970-ghz-edition-1206-92555.html schrieb:
Mittlerweile hat AMD jedoch offiziell bestätigt, dass es sich eigentlich um eine Radeon 7970 GHZ-Edition handelte.
?
 
Also jetzt wird es ja richtig abenteuerlich. Denn zwei GPUs sind auf anderen Bildern ja klar zu erkennen:

002.jpg

005.jpg


Erinnert ja langsam fast an Nvidias Präsis mit ich halte was hoch und ihr dürft raten was es ist ^^
 
AntiApple schrieb:
@fReAkgoesCB

Lux Render
SmallLuxGPU 1.8b [MSamples/s (höhere Resultate sind besser)] nv580=5,7 - nv680=3,8 (-33,9%)

Lux Render
SmallLuxGPU 1.8b [MSamples/s (höhere Resultate sind besser)] AMD7970=14,9 - nv680=3,8 (-74,7%)

sieht nicht nach nem Schreibfehler aus!

Darauf hab ich noch gar nicht geachtet... wie ist denn sowas nur möglich? :(
Wie erklärt sich, daß Spiele schneller und GPU-Renderings langsamer laufen?
 
Absichtliche Begrenzung durch Treiber um die teuren Profikarten zu pushen könnte ein Grund sein. Das macht Nvidia ja auch bei der OpenGL Performance soweit ich weiß.
Oder einfach Hardwareseitige optimierung auf Spieleperformance. Alles was für GGPU da ist wird weg gelassen um Strom zu sparen. Irgendwoher muss die gute Performance pro Watt ja auch herkommen.
Kenn mich da eherlich aber auch nich so gut aus.
 
AMD-Karten habe ein deutliche höhere Rohleistung,
die sich in Spielen durch die Auslegung der Hardware, (Shader)
Treiber und teils Spiele (The Way It's Meant to be Played)
nicht nutzen lässt. Was Spiele anbelangt, sind nVidias
Grafikkarten wesentlich effizienter. Was da ist, kann auch
genutzt werden.
Bei manchen, auch nicht allen, GPGPU-Programmen kann
die gesamte Rechenleistung voll nutzen. Da zeigt sich dann
das Potential der GCN-Architekture, wobei der Kontrast
bei der VW5 am höchsten war.

Spiele stellen andere Anforderungen als GPGPU und selbst
untereinander schwankt es stark.
 
Techniker Freak schrieb:
Teste mal eine GTX580 und eine GTX680 z.B. mit Luxmark, du wirst überrascht sein :D

Und im Fluidmark ist die GTX680 fast doppelt so schnell.

Es ist immer wieder erstaunlich, dass Leute bis heute nicht begriffen haben, dass es nicht DIE GPGPU-Anwendung gibt.:evillol:
 
Und bei Golem hat AMD bestätigt, das es sich im Bild um die HD 7970 als GHz Edition handeln soll. :D
Die angeblich um 100 MHz erhöhten Frequenzen der HD 7750 + 7770 Karten sind auch nirgends aufzufinden. Wobei hier ja auch wieder die Aussagen seitens AMD wiedersprüchlich waren.
Im Grunde gibt's bisher nada, äh nix.
 
Hach ja 3DFX da wird einem immer warm ums Herz wenn man diese Bilder sieht und schwelkt in Erinnerungen.
Also das Lüfterkonzept finde ich gelunden wenn es auch hält was es verspricht.
Endlich mal 3 grosse kühler verbaut so gross wie möglich ist.
 
Jiggerman schrieb:
Damit kann man bestimmt gut bei Milkyway@home mitrechnen. :) Sofort 4 Stück davon und Bitcoins berechnen...

... und was bringt Dir das?
Ergänzung ()

Wolfsrabe schrieb:
Darauf hab ich noch gar nicht geachtet... wie ist denn sowas nur möglich? :(
Wie erklärt sich, daß Spiele schneller und GPU-Renderings langsamer laufen?

Hallo Wolfsrabe.

Bei den nVidia Modellen 580 und 570 kann lediglich nur 1/8 der SP-Leistung für DP Operationen erreicht werden. Soweit ich weiß erreicht nVidia diese Kastration, indem bei der doppelt genauen Arithmetik nur jeder 4. Cluster genutzt werden kann und weil zwei SP Recheneinheiten eine DP Recheneinheit bilden, kommt man so auf 1/8.

Bei "KEPLER" hat nVidia die einzelnen Rechenwerke im Vergleich zu "FERMI" nochmals stark vereinfacht, es sind zwar mehr davon vorhanden, aber deren einzelne Effizienz ist geringer - in der Summe aber sind sie dann rechenstärker. Weil aber die Modelle 680, 670 nun nur 1/24 der SP Leistung für DP Operationen zur Verfügung stellt (die 680 agiert also in etwa bei der Kastration wie eine 560Ti oder noch kleinere Karten), bleibt effektiv nicht viel Rechenleistung bei KEPLER für die DP Berechnung übrig. LuxRender rechnet nun aber genau mit "double".

Wir sehen diese Skalierungen zwischen einer GTX570 und einer TESLA S2050 in ähnlicher Weise, wobei aber die GTX570 moderner (FERMI 2) ist als eine TESLA 2050 (die hat einen FERMI I Chip bzw. GF100 mit lediglich 448 Recheneinheiten, die GTX570 hat den GF110).

Es ist mehr als erstaunlich, daß eine nVidia 680 im Grunde in Sachen DP Leistung technisch auf 1/24 gestutzt und damit ähnlich "kastriert" ist wie eine GTX550 oder GTX560Ti.

Wenn Du Dir jetzt eine AMD GCN 7970 anschaust - deren doppelt genaue Fließkommaarithmetikleistung liegt in etwa gleichauf mit einer nVidia TESLA M2090! Die TESLA bietet ECC, das ist bei der AMD deaktiviert. Allerdings hat AMD bei der ersten GCN Generation keine Kastration ala nVidia durchgeführt, was aber laut Aussage nVidia möglich sein soll.
Wir haben mit Rabatten für unsere TESLA Karten zwischen 2900 Euro und 3800 Euro bezahlt. Wenn man von ECC absehen kann - das kann man leider nicht immer - dann stehen EINER TESLA für knappe 4000 Euro in etwa die gleiche DP Rechenleistung für 500 Euro mittels einer AMD GCN 7970 gegenüber. Wenn man eine Plattform hätte, die man mit 4 dieser Karten bestücken könnte (und zwar PEG 16x), dann hätte man die 4fache Rechenleistung zu einem Viertel der Kosten. Leider gibt es keine entsprechenden Plattformen, die vier PCIe 16x Steckplätze mit PCIe 3.0 oder 2.1 anbieten. Unsere 2-Sockel Workstations nehmen nur maximal zwei dieser Karten auf, die Blades jeweils nur eine, die größeren Blades könnten auch zwei aufnehmen. und weil man für Rechnungen auf einer GPU, die einen Kernel länger als einige Minuten kontinuierlich laufen haben, nicht auf ECC verzichten kann (die meisten Kernel laufen im Subsekundenbereich, man merkt das allerdings nicht), bleibt dieses Rechenbeispiel leider ein Märchen. Zudem ist der binäre/proprietäre Linuxtreiber Catalyst eine Katastrophe. Insgesamt ist die gesamte AMD Platform kaum geeignet, um mit ihr wissenschaftlich zu arbeiten, weil es keine vernünftigen Bibliotheken und Clusterwerkzeuge gibt - nVidia ist in diesem Umfeld mindestens zwei Generationen voraus. Leider.
 
Zurück
Oben