News Nvidia Pascal: Erste P100-Benchmarks und Spacer für 32 GByte HBM2

Higgs Boson schrieb:
Gut das nVIDIA gleich auf HBM2 geht, und sich nicht erst mit HBM1 aufgehalten hat.
Die Leute die die AMD Karten mit HBM1 gekauft haben, und diese immer so hoch gelobt haben, werden erkennen müssen das sie damit einen teuren Fehlkauf getätigt haben.

Higgs Boson, hast du eine AMD mit HBM1 im Einsatz? Nein.
Kannst du Test´s vorweisen in denen eindeutig HBM1 getestet wird und daraus Nachteile ersichtlich werden? Ich denke nicht.
Die meisten Games belegen in 4K lediglich 2000-2500MB des HBM´s, also erzähl hier nichts was von deiner Seite her nur auf Vermutungen beruht.
 
Benji18 schrieb:
vollkommener Bullshit, warum? ganz einfach AMD hat mit dem Interposer des HBM1 bereits mehr Erfahrung im Design gesammelt, daher können Sie den Interposer nun besser Optimieren im Idealfall ist dieser effizienter als der von NV.

das bezweifle ich. Viel eher hatte AMD die Sache schon deutlich früher in Planung und Fury wäre ohne Reduzierung der HPC Fähigkeiten und HBM SI zu groß geworden, 28nm hatte man dort sicher nicht geplant, eher 20nm. Effizienter wird da auch nichts da der Interposer reine Verdrahtung ist.

Die Interposer Sache wird man kaum nen Vorteil von haben, es ist ja nicht so dass AMD diesen fertigt sondern das macht der entsprechende Partner. Und der muss die Erfahrung haben. Von wem der kommt ka, gut möglich dass es bei beiden derselbe Schuppen ist.

Nvidia hätte keinen Finger krumm gemacht für HBM 1 Lösung da schlicht deutlich zu unwirtschaftlich. AMD musste. Das ist der Unterschied.

Im Tesla Umfeld ist es juck ob der Speicher etwas teurer ist, logisch das Nvidia dort erstmals HBM bringt und mit HBM1 hätte man dort einen zu kleinen Speicherausbau.
 
@ Krautmaster
das sehe ich wieder anders wahrscheinlich habe ich mich etwas "falsch" ausgedrückt. Der Interposer selbst ist eigentlich nicht optimierbar aber Chip/Fertigung etc. konnte man Erfahrung sammeln was (hoffentlich) zu einer Optimierung und weniger "ausschuss" führt dadurch für AMD möglicherweise ein höhere Chipmarge. Da die Herstellung des Interposers auch nicht so einfach ist > wird ja direkt aufs Wafer aufgebracht.
 
Krautmaster schrieb:
Aber warum musste AMD? Das verstehe ich nicht. Wenn sie vorher wussten, dass HBM1 nur 4GB maximal hat, warum haben sie nicht lieber GDDR5 mit 8GB genommen? Eine Fury X mit 8GB wäre doch auch okay gewesen, von der Leistung her glaube ich nicht, dass die HBM-Bandbreite so viel rausgerissen hat. Klar, die Karte wäre länger gewesen, der Stromverbrauch etwas höher und eine Fury Nano nicht möglich. Aber ich würde behaupten, dass sich eine Fury mit 8GB GDDR5 besser verkauft hätte als eine Fury mit 4GB HBM1.
 
Higgs Boson schrieb:
Gut das nVIDIA gleich auf HBM2 geht, und sich nicht erst mit HBM1 aufgehalten hat.
Die Leute die die AMD Karten mit HBM1 gekauft haben, und diese immer so hoch gelobt haben, werden erkennen müssen das sie damit einen teuren Fehlkauf getätigt haben.

Sicherlich besser als jeder Käufer der GTX970 :)

Ne starke Profikarte, auf Consumerkarten zuschließen eig unmöglich.
NV wird am Ende bei allen Consumerkarten wohl auf GDDR5X setzen und HBM kommt erst bei der 2017Gen zum Einsatz...
 
Higgs Boson schrieb:
Gut das nVIDIA gleich auf HBM2 geht, und sich nicht erst mit HBM1 aufgehalten hat.
Die Leute die die AMD Karten mit HBM1 gekauft haben, und diese immer so hoch gelobt haben, werden erkennen müssen das sie damit einen teuren Fehlkauf getätigt haben.

Erstens, AMD macht was, riskiert was und ist "offen", im Gegensatz zu Nvidia. Eventuell mal nachdenken was AMD mit HBM1 bewirkt hat, das was AMD gelernt hat wird Nvidia noch lernen müssen. Wir sehen uns bei DX12 mit deiner 980Ti und reden dann noch mal über Fehlkauf. /ironie
 
pipip schrieb:
Die 64 Alus pro SM haben sicher was mit dem Double, Single, Half P. Verhältnis zu tun. Kann kein Zufall sein, dass auch AMD auf die Shader Anzahl pro CU setzt.
Aber ich erinnere mich noch, wie oft GCN doch in den Kaokao gezogen wurde.

Das hat eher was mit dem Scheduling und dem launch der warps/thread zu tun. So hast du mehr Granularität. Ich hoffe wirklich dass GP102 diese blöden DP64 Units über Board schmeißt und statt dessen mehr Platz für FP32-ALUs genutzt wird. Diese dann als 2*16 konfiguriert und man sollte bei 5000+ ALUs heraus kommen. Das dürfte etwa dual GM200 entsprechen (der ja FP16 nur 1:1 kann).
Die Register kann man gut verwenden, wenn man PPLL, OIT, Atomics und preemption hat. Schadet also keineswegs und kostet nicht so viel Platz. Eine Zelle waren unter 28 HP ~0,003 mm² wenn ich das noch richtig im Kopf habe.
 
Higgs Boson schrieb:
Gut das nVIDIA gleich auf HBM2 geht, und sich nicht erst mit HBM1 aufgehalten hat.
Die Leute die die AMD Karten mit HBM1 gekauft haben, und diese immer so hoch gelobt haben, werden erkennen müssen das sie damit einen teuren Fehlkauf getätigt haben.

Einen teuren Fehlkauf haben damals auch alle 780ti Käufer getätigt... Eine Karte die schon längst nicht immer mit 290/390ern mit hält und nur 3GB hat, achja und deren Treiberoptimierung schon vor etwa einem Jahr eingestellt wurde.

Mit 4GB HBM kommt man dagegen idR wunderbar zurecht, auch in UHD.
 
Necareor schrieb:
Aber warum musste AMD? Das verstehe ich nicht. Wenn sie vorher wussten, dass HBM1 nur 4GB maximal hat, warum haben sie nicht lieber GDDR5 mit 8GB genommen?

man kann ein Chip nicht nach Lust und Laune mit GDDR5 oder HBM bestücken, das SI muss ja passen, und das Design von Fiji ist bereits Jahre fertig (zeigt dir zb der alte Video Controller, HDMI 1.4 usw) -> vermutlich schon vor Tonga fertig. GDDR5 war keine Option, zumal mit nem 512 Bit SI der Chip noch größer geworden wäre als er ohnehin schon ist.

Nvidia hatte GM200, hätte AMD Fiji also nicht mit 4GB HBM gebracht hätte man außer einen recht alten Hawaii nichts dem GM200 und den Nvidia Karten >980 entgegen setzen können.
 
Ist doch logisch das sie nicht in die vollen gehen brauchen ja auch für die 2017er GTC wieder neues.
Sehe es schon vor mir:

I am so proud that we where able to push the performance again massive.Our Technicans And Sientiest where working day an dNight just to get this performance to you our costumers.
We now have an amazing stunning over 1 GB/s Bandwith just think about how amazing that is. did i say that it is AMAZING!!!!!!!!!!!!! .
Also we also where able to double the amount of VRAM on our Chip to get you an Usage of Ram you never expierienced and what is leading in the Industrie.
So we take again huge leaps with our new p110 product this year in several category.

(englisch ist halt scheisse bei mir da ich nicht studiert bin, aber man weis wies gemeint ist hoffe ich).

Ich schau mir die GTC fast eher an, weil es so lustig ist ihn zuzuhören wie gross toll neu schnell und sowiso superultra cool die neuen Entwicklungen sind.
Das hat schon ein wenig von psychologischer Gehirnwäsche, aber der Vortrag dürfte auch von Psychologen und Marketingstrategen dahingehend geschrieben sein.

Aber das Design sieht richtig geil aus und aufgeräumt das gefällt mir perfekt für zum in die Vitrine stellen.
 
Zuletzt bearbeitet:
@Krautmaster:
Meinst du wirklich, dass bereits seit so langer Zeit ein Design für einen Chip mit HBM-Integration verfügbar war? Stehen die theoretischen HBM-Specs schon so lange fest?
Ansonsten klingt deine Erklärung schon plausibel...

@ICHBINDA:
Müsstest du nicht eigentlich in der Schule sein?
 
Sieht gut aus! Wenn ich jetzt Leistung gebraucht habe, dann wurde mit der GTX970 + zwei aktuelle Games nix verkehrt gemacht. Hoffentlich kommt auch eine kleine Ersatzkarte für GTX750ti , denn mit der 950er kann man keinen Wechsel vornehmen.
 
aklaa schrieb:
Wenn ich jetzt Leistung gebraucht habe...
Braucht denn nicht jeder "jetzt" Leistung, der sich eine neue Grafikkarte kauft? Und ja, wenn man jedes Jahr/zu jeder Generation seine Grafikkarte wechselt, hat man mit der GTX 970 tatsächlich nichts falsch gemacht.
 
Higgs Boson schrieb:
Gut das nVIDIA gleich auf HBM2 geht, und sich nicht erst mit HBM1 aufgehalten hat.
Die Leute die die AMD Karten mit HBM1 gekauft haben, und diese immer so hoch gelobt haben, werden erkennen müssen das sie damit einen teuren Fehlkauf getätigt haben.

Fehlereinkauf. Wieso? Weil es schnell ist? Weil es mit der Fury Nano eine echt kleine schnelle Karte gibt?
Weil AMD dadurch gezwungen war ein besseres Speichermanagement zu implementieren, dass 4GB gar kein so großer Nachteil sind? Und mit diesem guten Speichermanagement wird es ja bei 8GB oder mehr nicht schlechter. Theoretisch kann man dann super 8GB Karten bauen, während NV vllt die 16GB Keule schwingen muss... Also wieso Fehlkauf?
 
Von mir aus kann Pascal kommen. Da werd ich mir vlt sogar mal SLI anschauen dann. :-)
 
Kommen zuerst die kleinen Pascal oder die großen? Muss/will demnächst eine kleine GTX750ti in die "Rente" schicken.
 
Mir egal, was AMD bringt, ich bin eh mit G-Sync an Nvidia geknebelt ;-) Aber das wusste ich auch schon vorher. Mal sehen, was dann die Gaming-Karten bringen, über die Karte hier muss man eh nicht wirklich diskutieren.
 
ICHBINDA schrieb:
@aklaa
wenn es keine schwierigkeiten bei den DGX-1 im Partner Test gibt denek ich wird es gleich die großen geben.

Ich weis was das erste ist das getestet wird wenn der DGX-1 ankommt : CAN IT RUN CRYSIS 4 :)


Also selbst fürs Gaming auch wenns dafür nicht gedacht ist stell ich mir die neue Rechenpower nett vor.
Auch wenn KI Computing eher in clouds,facebook und so zeug genutzt wird müsste es doch für Entwickler machbar sein mit so einem System dem Computer ein Set aus sagen wir 20 NPC Modellen einzuspeisen und dieser baut daraus dann eigene NPC.
Noch krasser müsste das ja sein wenn man einen Char Creator wie aus einem MMMO das auch viele Möglichkeiten bietet einspeist und der computer kann dann für ein mmo oder rpg darauf zugreifen und abermillionen verschiedenen NPC kreieren. Das müsste doch richtig geil sein und zwilligs npcs dürften der Vergangenheit angehören.
Auch für Zombie Games beitet es sich ja an da vorallem dort die zombies ja meist alle gleich sind.
 
Zuletzt bearbeitet:
KOKOtm schrieb:
Mir egal, was AMD bringt, ich bin eh mit G-Sync an Nvidia geknebelt ;-)[...]

Mein Beileid. Das gilt allerdings für alle, die sich für eine der Optionen (FreeSync, GSync) entschieden haben und dadurch an den Hersteller geknebelt sind. Das Ganze ist eine bodenlose Unverschämtheit.
 
Zurück
Oben