News Nvidia Tesla K80 rechnet mit bis zu 8,7 TeraFLOPS

die Theoretischen Werte sind wenig aussagekräftig. Wichtiger ist ob ich diese auch umsetzen kann, und da bietet NV zur Zeit eben die bessere Plattform. Noch.
 
Krautmaster schrieb:
die Theoretischen Werte sind wenig aussagekräftig. Wichtiger ist ob ich diese auch umsetzen kann, und da bietet NV zur Zeit eben die bessere Plattform. Noch.
Bin persönlich ja grundlegend Nvidia gegenüber eher geneigt,
aber kannst du mir das kurz erklären :)

Sehe in den News jetzt erstmal, dass die AMD FirePro S9150 irgendwie besser zu sein scheint bei GFLOPS je Watt. Zudem soll laut dem Thread hier der Wert von Nvidia, der hier genannt wird, "geschönt" sein? Die AMD hängt nicht wirklich viel der Nvidia hinterher bei DP. Davon hau ich mir dann 2 rein, die wohl nicht mehr kosten als eine K80 (vorraussichtlich 7000€ stand hier im Thread).
Strom wäre, wenn ich mir sowas kaufen würde, vollkommen egal, da ich bei 24/7/365 nichtmal 30€ bezahlen würde.

Liegt das an den Treibern bzw dass einige Programme eher auf Nvidia getrimmt ist oder warum wäre hier das grüne Lager zu bevorzugen?

Ist rein für mein Verständnis ;)
 
GK210 hat womöglich doppelt so viel Cache wie GK110.
Nur auf die GFlops zu achten reicht nun wirklich nicht.
 
AMD nutzt 2 Shadereinheiten für DP Berechnungen. Eine CU mit 64 Shadereinheiten entspricht bei DP-Berechnung 32 Einheiten->2:1. Bei Nvidia sind extra FP64-Units verbaut. Auf 192 Cuda-Cores pro SMX-Block kommen 64 FP64-Units bei den großen Chips->3:1. Beim GK104 und kleiner kommen auf 192 Cuda-Cores nur noch 8 FP64-Units->24:1.
Eventuell ist dabei interessant anzumerken, dass ein SMX 7 Issue-Slots für Befehle pro Takt hat. 2 Davon können maximal DP-Befehle sein, 6 davon maximal SP-Befehle. Dadurch hat er, wenn er die maximalen 2 DP-Befehle pro Takt herausgibt, immer noch 5 Issue Slots für 5-SP Befehle übrig. Bei AMD-Architektur ist das wegen den gemeinsamen Rechenwerken für SP und DP Befehle nicht der Fall. Gerade da man meist nicht bei allen Berechnungen in einem Programm DP braucht, kann man so bei NVIDIA-GPUs etwas mehr Rechenleistung ausnutzen als bei AMD-GPUs. Allerdings fordert das etwas numerisches "Finetuning", da man sich nun um die numerische Genauigkeit beim Programmieren Gedanken machen muss.


GK210 hat womöglich doppelt so viel Cache wie GK110.
Nur auf die GFlops zu achten reicht nun wirklich nicht.

Hmm wo steht das? Habe bisher nur vom verdoppeltem Shared-Memory und den Registersatz gelesen, was ich bereits sehr lecker finde :). Wäre schön, wenn sie soetwas auch als Consumer-Karte herausbringen.

Bin persönlich ja grundlegend Nvidia gegenüber eher geneigt,
aber kannst du mir das kurz erklären
Sind m.E. stark unterschiedliche Architekturen, die beide ihre Vorteile und Nachteile besitzen. Guter Beispiel ist der Registersatz, welcher bei der R290X 11 MB groß ist, während er bei der Titan nur 4 MB groß ist (Mehr Register heißt mehr Platz für Zwischenergebnisse und bessere Möglichkeit Latenzen zu überbrücken). Wenn man sich mal Benchmarksammlungen anschaut, so erkennt man die Architekturunterschiede an starken Schwankungen. Siehe zum Beispiel:
http://compubench.com/result.jsp
Allerdings wäre ich bei dieser Sammlung im speziellen etwas vorsichtig, da es oft große Ausreiser gibt, welche darauf hindeuten, dass etwas "im argen" ist.

Der Hauptvorteil von NVIDIA ist m.E. dass sie mit CUDA etwas auf die Beine gestellt haben, womit man ihre GPUs leicht programmieren kann. AMD hat immer noch nichts vergleichbares. Eben deshalb hat sich NVIDIA auch in dem GPGPU-Bereich im Vergleich zu AMD durchgesetzt und lässt sich das nun dort etwas teurer bezahlen. Denn AMDs GPUs sind wirklich nicht schlecht. . . .

Aber auch die Unterstützung von vorhandenen offen Standards (OpenCL) ist/wird zunehmend wichtiger...
OpenCL ist m.E. mehr oder weniger tot. NVIDIA unterstützt es ja nicht mal mehr wirklich.
 
Interessante Karte, reicht aber trotzdem nicht um AMD zu schlagen. Big Maxwell wirds richten müssen.
 
Nur kurze Frage,
im text steht ja wo NV die Karten positionieren will. Nur wäre da mehr DP-Leistung nicht "wichtiger". Oder langen bei diesen Szenarien meist SP-Berechnungen aus?
 
Cardhu schrieb:
Bin persönlich ja grundlegend Nvidia gegenüber eher geneigt,
aber kannst du mir das kurz erklären :)

Sehe in den News jetzt erstmal, dass die AMD FirePro S9150 irgendwie besser zu sein scheint bei GFLOPS je Watt. Zudem soll laut dem Thread hier der Wert von Nvidia, der hier genannt wird, "geschönt" sein? Die AMD hängt nicht wirklich viel der Nvidia hinterher bei DP. Davon hau ich mir dann 2 rein, die wohl nicht mehr kosten als eine K80 (vorraussichtlich 7000€ stand hier im Thread).
Strom wäre, wenn ich mir sowas kaufen würde, vollkommen egal, da ich bei 24/7/365 nichtmal 30€ bezahlen würde.

Liegt das an den Treibern bzw dass einige Programme eher auf Nvidia getrimmt ist oder warum wäre hier das grüne Lager zu bevorzugen?

Ist rein für mein Verständnis ;)

Um deine Frage zu beantworten.

Ja die meisten Programme rechnen mit CUDA und unterstützen AMDs "Profi" Karten nicht oder deutlich schlechter.
AMD hat oft rein theoretisch die bessere Leistung( vor allem pro Watt), schafft dies aber nicht in der Praxis auch zu nutzen. (http://www.tomshardware.com/reviews/best-workstation-graphics-card,3493-6.html - als Beispiel)
Das liegt an den Treibern wie auch an den Programmen. Bzw. deren Optimierungen.
Und da hat NV nun mal die Schnauze weit vorne. Zwar auch nicht mehr so wie auch schon, aber sie liegen immer noch gut in Führung.

Und solange selbst Programme wie Blender, welches Gratis ist, nur auf Nvidia Karten rechnen kann, wird es noch eine weile dauern, bis AMD Karten in den einzelnen Programmen auch besser optimiert werden. Für Blender kann man zwar experimentel mit AMD Karten rechnen, aber die Performance ist weit unter Nvidias Karten, zudem sehr instabil.

Viele Programme fangen nun endlich mit OpenCl an, was auch von AMD Karten berechnet werden kann. Aber wie gesagt, die Optimierung ist noch weit weg von gut.
 
Was ich mich die ganze Zeit Frage im Bezug auf die Kühlung. Die Karte soll ja Passiv gekühlt sein, produzieren die Tesla nicht soviel Abwärme wie eine Geforce? Der Kühler hat auch jetzt keine Kühlkörper von aussen sichtbar, so das durch die Luftzirkulation die Karte gekühlt werden könnte. Oder habe ich irgendwas übersehen?

Aber auch Optisch sieht die Karte sehr ansprechend aus :-)
 
domidragon schrieb:

Ja cherry picking kann man halt immer betreiben. Gibt auch Programme wo AMD gleich auf bzw. besser ist.

domidragon schrieb:
Und solange selbst Programme wie Blender, welches Gratis ist, nur auf Nvidia Karten rechnen kann, wird es noch eine weile dauern, bis AMD Karten in den einzelnen Programmen auch besser optimiert werden.

Du schiebst den schwarzen Peter AMD zu, weil der Softwareentwickler meint nur Cuda zu unterstützen? Selten so ein schwachsinn gelesen.

domidragon schrieb:
Viele Programme fangen nun endlich mit OpenCl an, was auch von AMD Karten berechnet werden kann. Aber wie gesagt, die Optimierung ist noch weit weg von gut.

Und genau da steht AMD deutlich besser da wie Nvidia. Ist ja schön wenn hier eine proprietäre Schnittstelle von Nvidia mit einer offenen verglichen wird. Aber man sollte halt nicht Äpfel mit Birnen vergleichen, sondern Äpfel mit Äpfel.

Wenn man sich ein Vergleich von AMD mit OpenCL und Nvidia mit OpenCL ansieht, dann stinkt Nvidia aber mal sowas von ab. Quelle mit Benchmarks hast ja selber geliefert.
 
Du schiebst den schwarzen Peter AMD zu, weil der Softwareentwickler meint nur Cuda zu unterstützen? Selten so ein schwachsinn gelesen.

Wieso entscheiden sich viele Softwareentwickler für CUDA? Wohl einfach aus dem Grund, da OpenCL und Alternativen doch nicht ssoo toll sind, wenn es um die Programmierbarkeit geht. Alle Leute, die ich an der Uni so kenne und die viel mit GPGPU machen, sind aus diesem Grund auch bei CUDA hängen geblieben. Damit liegt die Schuld bei AMD, da es nicht schafft eine ordentliche API zum Programmieren ihrer Hardware zur Verfügung zu stellen. Alleine aus diesem Grund geht es m.E. ihm im GPGPU-Bereich momentan ssoo schlecht.

Und genau da steht AMD deutlich besser da wie Nvidia. Ist ja schön wenn hier eine proprietäre Schnittstelle von Nvidia mit einer offenen verglichen wird. Aber man sollte halt nicht Äpfel mit Birnen vergleichen, sondern Äpfel mit Äpfel.

Nvidias OpenCL-Implementierung ist komplett veraltet. Man kann einen Großteil von neuen GPU-Features nicht verwenden zum Teil weil ihr Compiler veraltet ist (zum Beispiel den Read-Only-L1/Texture-Cache), zum Teil weil OpenCL an sich so veraltet ist, dass es die Features nicht vorsieht (WarpShuffle, WarpVote etc...). Da ist ein Vergleich von NVIDIA-GPUs, sofern es nur um ihre reine maximal mögliche Leistung geht, m.E. mit OpenCL nicht wirklich fair. . . . .
 
Zuletzt bearbeitet:
Nai schrieb:
Wieso entscheiden sich viele Softwareentwickler für CUDA? Wohl einfach aus dem Grund, da OpenCL und Alternativen doch nicht ssoo toll sind, wenn es um die Programmierbarkeit geht.

Das ist aber nur einer der Gründe von vielen. Cuda gab es nun mal schon vor OpenCL (um genau zu sein 2 Jahre vorher) und somit hat hier Nvidia auch einen deutlichen Entwicklungsvorsprung. Aber nicht nur das, es wird mit Sicherheit auch der ein oder andere Dollar an gewisse Softwareentwickler geflossen sein.
Nvidia ist ja auch einer der Mitentwickler von OpenCL, genauso wie AMD, IBM und Intel. Aber sie werden sich wohl kaum genauso reinhängen, wie in ihre eigene Schnittstelle Cuda.

Nai schrieb:
Da ist ein Vergleich von NVIDIA-GPUs, sofern es nur um ihre reine Leistung geht, m.E. mit OpenCL nicht wirklich fair. . . . .

Ach aber andersrum ist es fair? Nvidia hat jede Möglichkeit auch für OpenCL zu optimieren. Nur warum sollten sie wenn mit Cuda mehr Geld zu holen ist?
 
Das ist aber nur einer der Gründe von vielen. Cuda gab es nun mal schon vor OpenCL (um genau zu sein 2 Jahre vorher) und somit hat hier Nvidia auch einen deutlichen Entwicklungsvorsprung.
An den zwei Jahren Entwicklungsvorsprung täte ich es nicht fest machen. Denn diesen kann man prinzipiell relativ leicht aufholen. Bei OpenCL spielen zwei Faktoren rein: Das grundlegend verkorkste Design der API, welches das Programmieren mit OpenCL zur Hölle macht, und die Tatsache das Khronos schon immer extrem träge war (OpenGL an sich kennt zum Beispiel nun 20 Jahre seit den ersten 3D-Beschleunigern immer noch keine GPUs . . . . ), und somit unfähig ist schnelle Entwicklungen zu machen.

Aber nicht nur das, es wird mit Sicherheit auch der ein oder andere Dollar an gewisse Softwareentwickler geflossen sein.
Immer das beste Totschlagargument. Etwas an AMD kann gar nicht schlecht sein, sondern es verkauft seine Produkte immer nur wegen diesen Bestechungen so schlecht. :)

Ach aber andersrum ist es fair?
Wenn mich interessiert, was bei einem Problem mit einer gegebenen GPU *maximal* möglich ist, wäre es relativ verfälschend eine API zu verwenden, mit der ich gar nicht alles aus der GPU herausholen könnte, oder nicht?
 
Zuletzt bearbeitet:
Nai schrieb:
Immer das beste Totschlagargument. Etwas an AMD kann gar nicht schlecht sein, sondern es verkauft seine Produkte immer nur wegen diesen Bestechungen so schlecht. :)

Dem ist doch aber so. Oder wie war das mit Intel? Gut, Nvidia ist nicht Intel, aber wenn man sich ansieht wie Nvidia ihr Marketing auslegt und das Vorantreiben von proprietären Entwicklungen pusht, könnte man meinen, man hätte es mit einem zweiten Intel zu tun.
 
Zweites Intel? Eher super Intel. Besagte manipulieren gern am Markt herum aber bis auf QuickSync (das nunmal über spezielle Funktionseinheiten gelöst ist), siehst du da keine proprietären Standards. AVX, AES, SSE, VT und so weiter und so fort bietet auch AMD meist sogar unbeschnitten über alle Prozessorklassen.

NVidia hingegen ist der König der proprietären Schnittstellen und im Habitus höchstens noch mit Oracle zu vergleichen. Warum wohl hat sich Linus Thorwald auf einer öffentlichen Presseveranstaltung zu einem Fuck You nVidia hinreißen lassen? Weil nVidia das exakte Gegenteil zum Open Source bzw. Linux Gedanken darstellt und für absolut alles seine eigene proprietäre Hölle bastelt.
 
Nai schrieb:

Ich weiss was semi passiv ist ;-) Also hat die Karte eine Konvektion Kühlung oder besitz die noch ein Lüfter? Mich würde es Interessieren ob sowas nicht auch auf Geforce Karte funktionieren könnte mit so ein Kühler. Daher war die Frage ob die Tesla nicht zuviel abwärme von sich geben im vergleich zu einer Gefroce.

mfg
 
Zurück
Oben