News Nvidia Tesla P100: Pascal-Flaggschiff jetzt als 250-Watt-PCIe-Lösung

Der GP100 wird garantiert nicht als TitanY oder GTX 1080Ti kommen. Dafür ist der chip völlig ungeeignet. Der Chip hat nicht so extrem viele Shadereinheiten mehr, dafür haufenweise DP Einheiten, die massig Chipfläche wegnehmen, das TDP Budget mit ausreizen und so nur geringere Taktraten erlauben und in Spielen nichts bringen.

Dafür hat Nvidia ja den GP102 im Angebot. Da werden sie wahrscheinlich einen etwas kleineren Chip (~500-550mm2) basteln und den dann mit Shadereinheiten vollpacken und nicht mit für den Spieler unnützen Computeeinheiten. Wenn man bedenkt, dass selbst Vega 10 schon 4096 Shader hat und Vega 11 sogar deutlich über 6000 bekommen soll, dann muss Nvidia einen anderen Chip (GP102) in der Klasse bringen.
 
Does it run Crysis ?
Spaß.. Schöne Karte.
Über den Preis braucht man als normalo erst gar nicht anfangen zu reden.
MfG.
Lord-Nirox
 
just_fre@kin schrieb:
Am besten in der News für die Kiddies gleich noch einmal hinschreiben, wie hoch die Leistung im Vergleich zu einer gängigen Gaming-Graka (bspw. GTX 1080) ist

Oh ja, diese Diskussion wird auch hier im Thread gleich losgehen :( Und dann auch gleich noch erwähnen, dass AMDs RX480 nicht (!) die direkte Konkurrenz zur GTX1070/1080 ist :D
 
^Dodo.bW schrieb:
Wie schnell ist sie im Vergleich zu einer 1080!!??!!111?! Wo bleibt der Vergleichstest....

In UHD vermutlich dreimal so schnell.
Mindestens aber doppelt so schnell.

Und solang nVidia sich zu fein ist das Ding an uns zu verkaufen, können sie ihren 700€ Knallfrosch gerne behalten.
 
Shoryuken94 schrieb:
Dafür hat Nvidia ja den GP102 im Angebot. Da werden sie wahrscheinlich einen etwas kleineren Chip (~500-550mm2) basteln und den dann mit Shadereinheiten vollpacken und nicht mit für den Spieler unnützen Computeeinheiten. Wenn man bedenkt, dass selbst Vega 10 schon 4096 Shader hat und Vega 11 sogar deutlich über 6000 bekommen soll, dann muss Nvidia einen anderen Chip (GP102) in der Klasse bringen.

gut ich nehme realistischerweise an, dass Vega mit 4096 Shadern kommt, quasi als Fiji Shrink mit überarbeitetem Frontend wie bei Polaris 10. Bei Nvidia erwarte ich einen DP entschalkten und deutlich kleineren GP102, etwa so groß wie der Vega Chip dann und auch beide auf ähnlichem Performance Niveau. 3584 Shader vs 4096, Nvidia dafür bei höherem Takt. Eventuell 3840 Shader für die TITAN.
 
Shoryuken94 schrieb:
Der GP100 wird garantiert nicht als TitanY oder GTX 1080Ti kommen. Dafür ist der chip völlig ungeeignet. Der Chip hat nicht so extrem viele Shadereinheiten mehr, dafür haufenweise DP Einheiten, die massig Chipfläche wegnehmen, das TDP Budget mit ausreizen und so nur geringere Taktraten erlauben und in Spielen nichts bringen.

Dafür hat Nvidia ja den GP102 im Angebot. Da werden sie wahrscheinlich einen etwas kleineren Chip (~500-550mm2) basteln und den dann mit Shadereinheiten vollpacken und nicht mit für den Spieler unnützen Computeeinheiten. Wenn man bedenkt, dass selbst Vega 10 schon 4096 Shader hat und Vega 11 sogar deutlich über 6000 bekommen soll, dann muss Nvidia einen anderen Chip (GP102) in der Klasse bringen.

Pascal-Architektur versus GCN-Architektur: das ist nicht mal Äpfel mit Birnen vergleichen, im Vergleich dazu sind Äpfel und Birnen evolutionsbiologisch nämlich richtiggehend eng verwandt.

Du kannst solche Angaben NIE NIE NIEMALS architekturübergreifend zur Leistungsbewertung heranziehen!

Nach der Logik wäre so'n Atomchip mit vier Kernen à 2,4 GHz auch doppelt so schnell wie ein Core M3/5/7.
*hust* ist er aber "knapp" nicht...

P.S.: Ja, der GP100 hat einen etwas anderen Aufbau als der GP104. Da sich der GP100 in Kernelementen aber an GCN annähert, und GCN-Chips wie der Tahiti oder Hawaii seit Jahren zuverlässig Spieleleistung liefern, ist die Vermutung dass der GP100 nicht zum Spielen taugt etwas weit hergeholt.
Xeon Phi taugt nicht zum spielen, das ist aber wieder eine ganz andere Baustelle :)

@Krautmaster: erstens, die "vollständigen" Gerüchte sehen die 4000 shader nur beim kleinen Vega. Der Vollausbau soll wohl 6000 shader besitzen. Sind aber definitiv nur Gerüchte. Gesichert ist wohl nur dass Vega mit HBM2 kommen wird.
Zweitens: GCN-shader und Pascal-shader kannst Du nicht vergleichen. Du kannst nichtmal GCN-shader unterschiedlicher Generationen untereinander vergleichen. Hawaii hat 2816/176/64, Fiji 4096/256/64 (Shader-Einheiten/TMUs/ROPs). Bei ca gleichem Takt.
Klar, Fiji leidet am verkrüppelten Frontend, aber dennoch kannst Du die shader so nicht gegeneinander aufwiegen.

Ausserdem kann man den Takt nichtmal annähernd raten da bei so großen Chips in solch einem kleinen Fertigungsprozess immer auch das Risiko auf hotspots etc besteht. Siehe Broadwell-E, dessen Taktung ist dezent enttäuschend.
 
Zuletzt bearbeitet:
Der Takt bei dem großen P100 ist ja bekannt, bei dem GP102 dürfte er höher sein also zwischen P100 und GP104, logisch. Klar, Vega ist vollkommen offen und einen direkten Vergleich Pascal zu GCN Shader war auch nicht mein Bestreben :)

Wo kommt das mit den 6k Shader bei Vega her? Bei einem 500mm2 DIE eventuell, aber ich glaube das heben sich Nvidia und AMD für später auf.

Edit:

theoretisch gehen bei AMD auch recht gut 8k Shader, die Fläche auf 16nm TSMC halbiert sich ja etwa zu 28nm. Wären dann halt >500mm² und die Frage ist ob AMD 8K Shader mit den vollzogenen Anpassungen ausgelastet bekommt. Ich denke aber es wird eher auf etwa GP104 Größe rauslaufen und Richtung 4096 Shader gehen. Eventuell auch 5608 Shader also quasi ein Polaris 10 *2, was aber schon heftig wäre.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Wo kommt das mit den 6k Shader bei Vega her? Bei einem 500mm2 DIE eventuell, aber ich glaube das heben sich Nvidia und AMD für später auf.

Die Anzahl der Shader ist nicht alles. Da mag bei reinem Computing (CUDA, OpenCL, DirectCompute) die Performance herkommen, beim Gaming bzw. grafiklastigen Berechnungen ist die Rechenpipeline viel größer (zum Beispiel die Anzahl der Rasterizer, ...). Das sah man in der Vergangenheit sehr gut bei AMDs Fiji-Chip (Fury X Karten), denn die 4096 Shader konnten ihr volles Potential erst in hohen Auflösungen ausspielen. Darunter (gerade bei FullHD) kann man bei den gängigen Algorithmen (Ambient Occulision, ...) gar nicht so gut in die Breite skalieren. Da limitieren vorher der Speicherzugriff oder der Rasterizer oder eben was anderes, jedoch nicht die Anzahl der Shader.
 
chrisnx schrieb:
Hier müsste AMD mal mehr Paroli bieten.

In diesem OEM Segment wird die richtig dicke Kohle geschippt. Daher verstehe ich auch nicht, warum AMD nicht schon erste Verträge aushandelt und den Kunden einen Vega(?) Vollausbau zusichert. Die Produkte kommen ende des Jahres raus, da kann man doch schon verhandeln für Supercomputer etc.

Zur Karte selbst. Ich bin immer wieder fasziniert was die Dinger so leisten.

AMD hat doch im grunde ein gutes Portfolio in dem Bereich:
W9100 etc...

In double precision sind selbst die "alten" Karten ja fast noch besser als selbst die K80 Teslas....
S9170 2.6TFlops (DP)
W9100 2.5 TFlops (DP)
Tesla K80 1.9-2.9 Tflos (DP)
Und der K80 ist ein dual-Chip aus 2xGK210
Ein GK110 liefert nur ~1.5 TFlops (DP)
https://en.wikipedia.org/wiki/List_...s#FirePro_Server_Series_.28Sxxxx.2FSxx_xxx.29
https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units#Tesla

AMD verhandelt ja evtl. mit Kunden in dem bereich nur weil CB da keine News bringt bzw. die das groß ankündigen...

Also wird AMD bestimmt auch entsprechend starke Vega Chips haben in dem Bereich. Pascall P100 ist ja auch erst ab Ende 2016 am Markt....AMD wird da denk ich ziemlich zeitgleich ihre Produktpalette ebenso updaten.
 
Ganz schön deutlich wie Nvidia an Effizienz ggü. GP104 verliert.
NVlink Vorteil ist auch nicht da, da Steckkarte. ( Nennen das Modul und Steckkarte P100 - bescheuert! ) @CB könntet Ihr den Unterschied da bitte näher hervorheben also (P100 = Modul und P100 for PCIe = Steckkarte, um es es hier ja zunächst geht)
FP16 hingegen ist ganz ordentlich.


Sollte AMD mit Vega in FP16 aufholen, wird es schwer für P100 @Steckkarte. Da man bei AMD für die selbe FP 64/32 Leistung nicht soviel bezahlen muss.
Da AMD bei Fiji bereits dort Verbesserungen erhielt, wird es bei Vega nicht anders sein. Bin gespannt :D
 
Zuletzt bearbeitet:
@BlauX:

Selbst ein alter Fiji x2 hat doch schon 13.9 TFlops...SP ...half-precision also FP16 sollte der ja noch mehr oder zumidnest gleich viel haben. Sehe da keinen Grund warum Vega hier nicht mindestent den Wert von Pascal schafft.
EDIT: siehe S9300
https://en.wikipedia.org/wiki/List_...s#FirePro_Server_Series_.28Sxxxx.2FSxx_xxx.29
http://www.anandtech.com/show/10209/amd-announces-firepro-s9300-x2
https://www.techpowerup.com/gpudb/2833/firepro-s9300-x2
Gerade im GPC Bereich zahlt sich doch eigentlich der AMD-Ansatz (Mehr shader, weniger Takt) aus...allerdings gibts ja da noch andere Aspekte wie der vermeintliche mangelnde software support etc. sowie die Tatsache dass man eben nen existierenden softwarearchitektur in nem Supercomputer nicht alle 1-2 Jahre umschmeisst und dann lieber bei dem Hersteller bleibt den man schon hat (also meist nVidia hier).
 
Faust2011 schrieb:
Da limitieren vorher der Speicherzugriff oder der Rasterizer oder eben was anderes, jedoch nicht die Anzahl der Shader.

das schrieb ich bereits in einem anderen Thread, da passt was bei Fiji nicht wirklich denn die Bandbreite sollte wenig Limitieren und die Latenzen bei HBM ja auch besser sein. Selbst in 4k skaliert aber Fiji schlecht gegenüber den Hawaii, deswegen bin ich absolut bei dir - irgendwas anderes außer CPU Overhead muss noch wirklich in Architektur limitieren.

Genau da hoffe ich auf den Nachfolger. Aus den 2304 Shadern von Polaris 10 scheint man den Leaks nach wirklich viel rauszuholen und das stimmt mich optimistisch dass selbst ein 4k Shader Fiji Shrink mit Anpassungen super Leistung bringen würde wenn AMD die Rohleistung gut umgesetzt bekommt.
 
Wir brauchen neue Quadros!!! :)
Mehr Performance bei niedrigerer Leistungsaufnahme ... kann nicht gut genug werden!
 
Das ist ziemlich interessant, dann ist der P100 für nicht-Supercomputer KI-Experimente ja tatsächlich wenig interessant, da die SP-Leistung kaum nennenswert über der einer GTX 1080 liegt. Die kommenden Quadros werden dann ja auch in dieser Spanne liegen. Damit kann man dann also ganz unbedenklich zu den 1080ern greifen :)
 
@ ascer

außer es folgt wirklich bald eine TITAN / TI mit dem GP102. Aber auch da muss man dann wohl den Vega Pendant abwarten, der hoffentlich auch vor Oktober zumindest in Leaks seine Leistung zeigt.
 
Zuletzt bearbeitet:
Schön dass es mit HBM2 voran geht. Ich bin mal gespannt was die auf die neue Titan packen.

Bisher sah es ja nach 32 GB GDDR5X aus, aber vielleicht ist ja doch HBM2 drin. Selbst diese 16 GB HBM2 werden wohl mehr rocken als 32 GDDR5X.
 
Krautmaster schrieb:
@ ascer

außer es folgt wirklich bald eine TITAN / TI mit dem GP102. Aber auch da muss man dann wohl den Vega Pendant abwarten, der hoffentlich auch vor Oktober zumindest in Leaks seine Leistung zeigt.

Jein. Es sind zum jetzigen Zeitpunkt natürlich nur Spekulationen, aber wenn der GP100 schon kaum nennenswert mehr SP-Leistung hat als eine GTX 1080, dann kann ich mir nicht vorstellen das eine Titan/Ti mit GP102 beispielsweise 15 TFlops bringt. An DP wird sicherlich gespart, damit die Gaming-Leistung steigt aber massiv mehr SP als ein GP100...kann ich mir nicht vorstellen.

Damit wird, gerade bei dem P/L, auch eine Titan/Ti nicht besonders spannend für AI@Workstations.

In der Tat würde ich sogar nicht auf Vega warten, sondern einfach mehrere Polaris-Karten kaufen. Das P/L-Verhältnis von Polaris *scheint* recht gut zu werden und die SP-Leistung hört sich sehr gut an, geradezu brachial. Für AI@Workstations ist es ja kein Problem einfach 2-4 Karten zu kaufen. Bei 2 Karten wird man vermutlich im SP über einer GTX 1080 und eventuell sogar über einer GP100 einliegen...bei wahrscheinlich keinen 500 Eur. Das ist absolut Spitze.

Allerdings kommt AMD für AI@Workstations leider nicht in Frage, ebenso wie häufig bei Supercomputern. Die Rohleistung ist oft ja sogar besser als bei NVIDIA und das P/L-Verhältnis super...aber solange AMD nicht ähnliche libraries wie cuDNN, cuFFT usw. usf. anbietet, bringt dies leider nichts.
Ebenso gibt es kaum libraries die vollen und stabilen Support von OpenCL anbieten. TensorFlow, Theano, OpenCV und zig andere Sachen nutzen alle cuDNN und andere CUDA-spezifische libraries für wissenschaftliche Berechnungen.

Abgesehen davon ist das Zeug hochoptimiert. Ich habe vor einiger Zeit mal ein wenig in CUDA getestet, zusammen mit einem Kommilitonen. Ob es komplexe Differentialgleichungen waren oder große Tensoren aus der linearen Algebra: die CUDA libraries waren teilweise 3-4x so schnell wie selbst von Hand geschriebene CUDA-Software. Diese Libraries hat NVIDIA tatsächlich echt gut hinbekommen.

Seitdem mach ich mir gar nicht mehr die Mühe, großartig low-level zu programmieren und von Hand zu optimieren. Man steckt ewig viel Zeit rein um am Ende dann vielleicht 5% gegenüber CUDA-libraries rauszuholen.
Ich bin fast nur noch mit TensorFlow, Theano, OpenCV und anderen high-level-libraries beschäftigt.
 
Zuletzt bearbeitet:
Zurück
Oben