News Nvidia Pascal: Erste P100-Benchmarks und Spacer für 32 GByte HBM2

evolute schrieb:
Das Ganze ist eine bodenlose Unverschämtheit.
Dann schreibt nvidia an das sie endlich den offenen VESA Standard Adaptive Sync auf dem Desktop endlich unterstützen sollen. Dann kann man auch als nvidia Nutzer einen "FreeSync" (was korrekterweise Adaptive Sync Monitor heißen müsste) nutzen.
 
evolute schrieb:
Mein Beileid. Das gilt allerdings für alle, die sich für eine der Optionen (FreeSync, GSync) entschieden haben und dadurch an den Hersteller geknebelt sind. Das Ganze ist eine bodenlose Unverschämtheit.

MEin Dell Monitor mit 60Hz ist desshalb auch ok :D
 
Necareor schrieb:
Sorry, aber das glaube ich dir nicht mal ansatzweise... weder, dass du bei Crytek arbeitest, noch, dass ihr nächste Woche einen DGX-1 bekommt.

Ernsthaft Leute?
Wollt ihr euch jetzt darüber streiten?
Weder Du noch ICHBINDA kann das beweisen oder falsifizieren. Also bleibt mal bei den Fakten.
Sich hier übersowas zu unterhalten und zu streiten ist der Diskussion nicht zuträglich :D

bleiben wir also bei den karten.
ok?

@Topic
Coole sache diese tesla-Karten. Es war aber klar, dass die zuerst kommen.
Was ich aber interessant finde ist, dass doch HMB2 erst im Sommer in Produktion gehen soll. haben die etwa die Samples die die zugeschickt bekommen ahben auf die Platine gelötet? Und hat AMD denen einfach so den interposer üebrlassen ohne irgendwelche Lizenzabkommen?
 
Zählen Nvidia Karten die quasi von der Leistungsklasse die 970 beerben sollen nun zu den Karten die vorraus. Anfang 2017 oder schon Mitte/Q3 2016 kommen sollen? Da wird ja zwischen zwei Chips separiert? Danke!
 
Man ruhig behaupten daß es klüger war, gleich auf HBM2 zu setzen. Aber wenigstens sollte man dann soviel Grips in der Birne haben, um zu kapieren, daß HBM2 nicht exisitieren würde wenn HBM1 nicht vorher entwickelt, getestet, gebaut worden wäre und auf dem Massenmarkt Tauglichkeit bewiesen hätte.
 
Außderdem heißt es doch gar nicht nur weil nichts von Nvidia mit HBM1 auf den Markt gekommen ist, dass sie nicht trotzdem sich damit beschäftit haben ...
 
Auf den Preis bin ich mal gespannt.

Ansonsten - immer schön nachfragen - das werd ich wohl mal sparen für was "Neues".
 
Wie ja bereits im Vorfeld erwähnt wurde,
HBM2 wird wohl nur auf den neuen High END Karten verbaut werden, sei es bei Nvidia oder auch AMD.
Diese werden dann acuh jenseits von 500€ kosten.

Das ist für mich vollkommen uninteressant. Da warte ich liebe noch 1-2 Jahre,
kaufe mir dann eine gute Mittel-Klasse Karte:
Je nachdem was dann besser ist eine Nvidia oder auch AMD und hab dann die Leistung einer Highendkarte des Vorgängermodelss für maximal 250 € :).

Gruss vom TTjoe
 
Ich bezweifle sowieso, dass im Gaming-Bereich HBM2 in den nächsten 2-3 Jahren überhaupt irgendeinen Vorteil bei der Leistung haben wird, im Vergleich zu GDDR5(X). Gerade GDDR5X mit bis zu 16GB/s muss erstmal ausgeschöpft werden...
 
Im Vergleich zu der Radeon Pro Duo fehlt der Nvidia ~6Teraflops in single precision, hat aber ~4Teraflops mehr Double precision :O
 
Necareor schrieb:
Aber warum musste AMD? Das verstehe ich nicht. Wenn sie vorher wussten, dass HBM1 nur 4GB maximal hat, warum haben sie nicht lieber GDDR5 mit 8GB genommen? Eine Fury X mit 8GB wäre doch auch okay gewesen, von der Leistung her glaube ich nicht, dass die HBM-Bandbreite so viel rausgerissen hat. Klar, die Karte wäre länger gewesen, der Stromverbrauch etwas höher und eine Fury Nano nicht möglich. Aber ich würde behaupten, dass sich eine Fury mit 8GB GDDR5 besser verkauft hätte als eine Fury mit 4GB HBM1.

Ich denke AMD musste weil sie bereits zu weit im Design fortgeschritten waren. Es hat sich vermutlich zu spät abgezeichnet, dass es mit HBM1 Probleme geben wird und vermutlich hat sich auch alles verzögert.
Im Endeffekt ist das immer so. Man setzt auf irgendwas und entwickelt darauf hin. Da sich beide Firmen aber nicht alleine im Universum befinden und abhängig sind von Partnern kann immer mal etwas schief gehen und dann können beide oft einfach nicht mehr reagieren. Nvidia hatte das gleiche Problem beim NV30. Die haben damals voll auf den neuen Fertigungsprozess gesetzt und der ist einfach nicht rechtzeitig fertig geworden und war dann zu Beginn auch suboptimal. Nvidia hatte damals einfach keine Möglichkeit mehr zu reagieren und ich denke so ist es AMD diesmal bei der Fury auch gegangen. Sowas passiert. Das ist in der Industrie einfach nicht zu verhindern.
 
Necareor schrieb:
@Krautmaster:
Meinst du wirklich, dass bereits seit so langer Zeit ein Design für einen Chip mit HBM-Integration verfügbar war? Stehen die theoretischen HBM-Specs schon so lange fest?
Ansonsten klingt deine Erklärung schon plausibel...

@ICHBINDA:
Müsstest du nicht eigentlich in der Schule sein?

Grml, ich finde den Artikel gerade nicht wieder.
AMD hat maßgebend die Entwicklung von HBM vorangetrieben. OHNE AMD KEIN HBM!! SO SIEHTS AUS!
Daher konnte das Chipdesign auch Jahre vor Verfügbarkeit des Speichers fertiggestellt werden.
Nvidia hat sich lediglich zurückgelehnt und wartet auf Verfügbarkeit von HBM2.
AMD entwickelt aber eben nicht wie Nvidia nur closed source und hat sich mit Speicherherstellern zusammengetan um HBM zur Marktreife zu bringen.
Die Speicherhersteller haben natürlich ein Interesse daran viel profit zu machen und werden den Speicher an jeden verkaufen, der ihn will.
Dafür sind offene Standards ja auch da...
Nvidia würde sicherlich gerne etwas ähnliches für sich exklusiv haben. Aber das wäre natürlich absolut nicht wirtschaftlich so etwas alleine zu stemmen.
Also beschränkt man sich auf irgendwelchen proprietären Software Murks für ihre Chips, neue Techniken für Effekte und Hardware, die kein mensch braucht (Shield oder wie heisst die flop konsole?).
Physx ist auch ein ganz tolles Thema...-_-

AMD hat kaum Ressourcen, aber schafft es trotzdem immer wieder für Meilensteine in der Entwicklung zu sorgen, an denen sich natürlich auch andere bedienen. Blickt einfach mal ein wenig in der zeit zurück, was AMD alles zuerst entwickelt oder auf den Weg gebracht hatte und dann von anderen kopiert wurde.
Und jetzt seht das bitte mal im Größenverhältnis wieviel kleiner AMD ist als die Konkurenten.
Wer sich in den nächsten Jahren weiterhin Innovationen wünscht, sollte sich ernsthaft überlegen wen er unterstützt.

edit: http://www.giga.de/grafikkarten/amd...ntwicklung-der-radeon-fury-x-veroeffentlicht/

edit2: Der original Artikel den ich eigentlich im Sinn hatte xD
https://www.computerbase.de/2015-08/amd-fiji-vom-ersten-schritt-zum-fertigen-produkt-in-8.5-jahren/
 
Zuletzt bearbeitet:
ich wundere mich immer wieder über die kabbeleien hier..

sowohl nvidia als auch amd haben in vergangenheit ihre böcke geschossen und falsche produktentscheidungen getroffen oder zulange an alten designs festgehalten..
ob man je nach hersteller jetzt speicherkrücken, relabeling-chips, hitzköpfe, unpassenden speicher oder fehlendes asynccompute anführt ist recht egal. die modele (bewusst nicht chips oder karten!) beider hersteller haben zumindest in letzter zeit einer arg kurze lebensdauer gehabt während gleichzeitig die anforderungen an speicher, api (dx12/vulkan) oder vr-tauglichkeit zugenommen haben...

auch diesmal sollte (noch mehr als sonst) gelten: abwarten bis die produkte da sind und durch die parcours müssen.
da zeigt sich recht schnell was taugt und was nicht..
 
@cypeak:
Ich gebe dir bei so ziemlich allem Recht, bis auf dieses hier:
cypeak schrieb:
die modele (bewusst nicht chips oder karten!) beider hersteller haben zumindest in letzter zeit einer arg kurze lebensdauer gehabt während gleichzeitig die anforderungen an speicher, api (dx12/vulkan) oder vr-tauglichkeit zugenommen haben...

Meiner Meinung nach war die Langlebigkeit von Grafikkarten noch nie so gut wie bei AMD seit der HD 7er Reihe. Die HD 7950/7970 (GHz) bzw. R9 280(X) sind noch heute Grafikkarten mit ordentlicher Leistung, eine R9 380(X) oder eine GTX 960 spielen in der gleichen Leistungsklasse, und werden noch heute neu gekauft, 4 1/2 Jahre nach Release der HD 7970.
Ähnlich gut verhält es sich mit meiner R9 290X, die mittlerweile auch schon 2 1/2 Jahre auf dem Markt ist, und mittlerweile sogar der GTX 980 in neueren Spielen und hohen Auflösungen Konkurrenz macht, gerade durch DX12 male ich mir eine noch viel längere Lebenszeit meiner Grafikkarte aus.
Durch den großen Speicher (und der DX12-Leistung) wird sicher auch die R9 290X mit 8GB Speicher, ebenso wie die R9 390(X), sehr lange in den Rechnern verweilen...
 
Was ist jetzt bitte das Problem, dass die Fury (X) 4GB HBM1 hatte ?

So oder so ,AMD wird zukünftige Chips, so wie APUs (SoC) und GPUs mehr und mehr auf Interposer setzten. Nur weil AMD HBM1 auf der Fury einsetzt und quasi gleich den Schritt in den Consumer Markt gewagt hat, heißt das lange nicht, dass AMD mit der Technologie nicht mehr weiterforscht oder das abgeschlossen ist nur nur mehr "Verbesserungen" bei den Stapel selbst geben wird.
Weiter werden eventuell Speichercontroller weiterentwickelt, spezielle Chip Verbunde ect. Man denke, dass AMD Patente für einen CPU Speichercontroller hat, der einen HBM Speicher als L3 Cache integrieren kann und nebenbei auch mit normalen DDR Speicher umgehen kann.
Man denke an Navi und die AMD Presäentation. Da ging es um Dollar/Chip und dass Mainstream Karten meist die beste Preis/Leistung haben.
Da kann es sehr gut sein, dass AMD zukünftig Performance Chips auf einem Interposer mit einem HBM Speicher in Verbund setzt.
Das heißt, AMD hat sicherlich noch viel vor mit der Interposer-Technologie und da ist es vermutlich klüger früher als zu spät anzufangen und Erfahrungen zu sammeln.
Sie AMD APUs, die sehen heute komplett anders aus und werden mit Interposer noch mal kräftig im Aufbau verändern.
 
Necareor schrieb:
@Krautmaster:
Meinst du wirklich, dass bereits seit so langer Zeit ein Design für einen Chip mit HBM-Integration verfügbar war? Stehen die theoretischen HBM-Specs schon so lange fest?
Ansonsten klingt deine Erklärung schon plausibel...

Necareor schrieb:
Ich bezweifle sowieso, dass im Gaming-Bereich HBM2 in den nächsten 2-3 Jahren überhaupt irgendeinen Vorteil bei der Leistung haben wird, im Vergleich zu GDDR5(X). Gerade GDDR5X mit bis zu 16GB/s muss erstmal ausgeschöpft werden...

ich denke Fiji ist vom Design etwa 3-4 Jahre fertig, wenn nicht länger. Damals waren 20nm in Diskussion, bei beiden, Nvidia wie AMD.

Was HBM2 und Gaming angeht... richtig. Wirklich viel Sinn ergibt das nicht aber gerade Nvidia hat den HBM2 Pascal GP100 sowieso, einfach weil er wegen Tesla da sein muss. Die Bandbreite ist da overkill.

Es gab mal Gerüchte dass Nvidia eher einen zweiten FatDIE als HPC entschlackten Chip bringen will, parallel zum GP100. Ob sich das lohnt weiß ich nicht, denkbar dass man dadurch von den 610mm² durchaus 200mm² oder mehr sparen kann, selbst mit 512Bit GDDR5 (X) SI wäre das noch deutlich kleiner als der Chip mit HPC Fokus. Alternativ eben mehr Shader bei gleicher Größe.

Bei einer neuen teuren Fertigung kann sich ein zweites Design (quasi Maxwell Shrink mit mehr Shadern) lohnen. Genau genommen war Maxwells GM200 ja schon eine entschlackte und optimierte Version des HPC Ablegers GK110.

Edit:

Vllt verfährt man auch wie bei 28nm. Erst eine Gaming Karte auf dem HPC Chip (GP100) als TITAN, dann später eine auf Gaming geschnittene zweite Fassung des FatDIE in selbem Prozess (zB 2018).
 
Zuletzt bearbeitet:
HBM wird erst noch im laufe des nächsten Jahres seinen Nutzen ziehen. Bisher nichts als sonst normaler Speicher.

@ICHBINDA,

dann weißt du ja, was du unterschrieben hast. Wird geprüft.
 
zeedy schrieb:
Einen teuren Fehlkauf haben damals auch alle 780ti Käufer getätigt... Eine Karte die schon längst nicht immer mit 290/390ern mit hält und nur 3GB hat, achja und deren Treiberoptimierung schon vor etwa einem Jahr eingestellt wurde.

Mit 4GB HBM kommt man dagegen idR wunderbar zurecht, auch in UHD.

Kann ich als GTX780ti Matrix Besitzer so unterschreiben ^^ Der GK110 chip ist dank OC auf 1300mhz zwar echt noch sehr schnell, allerdings limitiert der Speicher schon enorm. Rein von der leistung ist es eine super 1440p Karte und auch in UHD packt das Teil mit etwas OC ziemlich viele Spiele sehr gut. aber der Speicher ist ja bei vielen aktuellen Spielen schon bei 1080p am Limit. bei der Auflösung kann die Karte die hohe Shaderanzahl aber nicht sinnvoll nutzen. Die Treiberoptimierung wurde kurz nach maxwell Release fallen gelassen... Die kleinen GX104er Karten und die großen Karten in der TI Version sind ein schlechter Witz.Einzig die Titan Karten sind ihrer Leistung entsprechend mit Speicher bestückt.Beid er ersten Titan haben alle über die 6GB Vram gestaunt, heute braucht die Karte diese auch. Der 980ti wird es in einem jahr genauso gehen, wie der 780ti. Die 6GB reichen auf lange sicht für die Rechenleistung nicht wirklich aus. Die 12GB der Titan X hingegen entsprechen auch der rechenleistung. Ähnlich sieht es ja bei der 2GB GTX770 aus. Und das Schicksal blühen der GTX970 und GTX980 auch.


Ich werde jedenfalls keinen solchen Speicherkrüppel mehr kaufen. AMD plant da doch deutlich weiter in die zukunft, stattet die Karten mit genug Speicher und Bandbreite aus und supportet diese auch Treiberseitig weiter. Na ja. dieses jahr komme ich mit der 780ti noch aus.
 
Gut AMD stattet ihre R9 39X Serie mi 8 Gb aus weil sie sich sonst von der R9 29X Serie defakto genau garnicht unterscheiden würde ;)

Aber ja. 8 GB sind aktuell echt angemessen und meine GTX 980 TI wird auch schneller ein Speicher Tot einholen als mir lieb is, allerdings is deren Kauf auch bald wieder n Jahr hin.
 
Zurück
Oben