News AMD Vega: Eindeutige Hinweise auf GPU mit 4.096 Shadern

Was meckert ihr über die 8GB?
Ihr wisst schon, dass das HBM2 ist, oder?
Und schon mal was von HBCC gehört?
Informiert euch erstmal darüber!

Da kann man viel eher anfangen über die Unwissenheit der Nutzer hier zu meckern...
 
Ich verstehe diese ganzen Aussagen nicht, von wegen 8 GB Ram sind genug für eine HighEnd-GPU. Aktuell mag das stimmen, aber macht ihr euch beim Hardwarekauf nie Gedanken um die Zukunft? Ich benutze normalerweise eine Grafikkarte rund 3-4 Jahre, bevor ich wechsle.

Von meiner GTX580 musste ich mich jedoch früher trennen als angedacht, da ich immer öfter ins Ram-Limit gelaufen bin (hatte nur 1.5 GB), die GPU-Leistung an sich hätte noch etwas gereicht. Damals beim Release der GTX580 meinte ja auch jeder, das die 1.5 GB Ram dicke reichen.

Meine R290 mit 4GB Ram läuft auch immer öfters ins Ram-Limit, so dass ich leider die Texturen runterschalten muss. Was sehr schade ist, da die Texturqualität sich oft stark auf das Aussehen des Spiels auswirkt und ansonsten kaum Leistung verbrauchen.

Computerbase hat das Ganze ja letztes Jahr getestet.

Fazit:
Fazit: Zu viel Speicher gibt es nicht
Schlussfolgerung: Ab der Mittelklasse sollten 3D-Beschleuniger schon heute mindestens 6.144 MB Speicher haben. Und Deus Ex: Mankind Divided zeigt, dass auch die noch zu knapp bemessen sein können, hier kommt nur die Radeon RX 480 mit 8 GB ohne Punktabzug davon.

Also bereits letztes Jahr resümierte CB, dass eine HighEnd-Grafikkarte heute MINDESTENS 8GB Ram haben sollte. Wenn ich jetzt eine Grafikkarte für die nächsten 3 Jahre kaufe, wäre ich mit mehr Ram auf der sichereren Seite. Natürlich kann man jetzt darüber philosophieren ob bei HBM2 dann effektiv weniger Ram gebraucht wird als bei GDDR5(X), aber das ist alles reine Theorie bis es bewiesen ist. Bis dahin habe ich lieber mehr denn weniger Ram.
 
Krautmaster schrieb:
Dennoch finde ich die DIE für 14/16nm extrem groß, gerade im Vergleich zu Fiji. AMD kann da 2 mal so viele Transitoren bei gleicher Shader Anzahl draufpacken.

Ist halt die Frage wie groß ie DIE wirklich ist. CB spekulierte auf 520-530mm². Allerdings sagte Raja Koduris, dass das Ding unter 500mm² groß ist. Damit ist man bei der Größenordung vom GP102. Wenn man jetzt von weniger Takt ausgeht, dazu noch im Gegensatz zur GP102 nen FP16/FP32 Verhältnis von 2:1 hat, wofür auch noch Transistoren und damit Platz drauf geht. Dann kann man von einer Leistung zwischen GP104 und GP102 ausgehen.
 
Die VRAM Problematik muss man auch ein bisschen differenzieren. Braucht ein Spiel wirklich mehr als 8GB oder belegt es diese einfach nur.

Ich mit gefährlichen Halbwissen, würde behaupten, ne Texture, die größer als 8GB ist, kann man nur durch Kompression in einen 8GB Speicher laden mit den bekannten Problemen(Artefakte). Also ich gehe davon aus, die ganzen Riesigen Texturepakete haben ein Problem auf einer Vega. Ob man jetzt ein Spiel mit "8K" Texturen spielen muss, ich weiß ja nicht.

Weiter Annahme unsererseits, dass es sich bei der gezeigten Vega um die TopVega handelt, ist auch nur ins Blaue geraten. Auf der Sneakpreview hat AMD auch "nur" den 1700X gezeigt.
 
Matzegr

Mich wundert das auch, dass eine "Abschätzung" einer Medien Seite (glaube PCGH war das, die ja auch immer 500+ sagen) mehr wert ist, als eine Aussage von jemanden, der von AMD ist.
Aber das mit 500+ hält sich überall hartnäckig.
 
Es bleibt nur zu hoffen, dass es gleich oder zumindest nahe (<1 Monat) zum Start nicht nur die 500+€ High End Karte geben wird, sondern auch die Preissegmente darunter bedient werden.
Bei Ryzen war das ein großer Fehler, dass man nicht gleich die Sechskerner mit eingeführt hat.

SKu schrieb:
I

Erfahrungsgemäß bekommen die Karten ihre Power unter DX11 nicht auf die Straße. Die 1080 Ti hat 12,9 TFLOPS Rechenleistung.

Falsch.
Die GTX 1080 Ti hat, je nach Taktung, 10,5 bis 11,5 TFLOPS.

r4yn3 schrieb:
Schade nur dass man den Launch immer und immer wieder weiter hinauszögert. Jaja, die "AMD hat offiziell nie ein Datum genannt" Keule könnt ihr euch schenken.

Ich finde nicht, dass man dir da widersprechen kann.
Immerhin hat AMD auf den Folien damals Vega klar zu Neujahr 2017 hingestellt.
Dass sie später als wohl zunächst geplant kommen ist klar.

Lars_SHG schrieb:
na ja, 8 GB Speicher und 4096 Shader wird nicht reichen um in die Nähe der GTX1080ti zu kommen.

Mit 11 & 12GB werden 1080 Ti und Titan X ziemlich sicher in 4K abziehen.
Aber in 1440p und 1080p können sie gleichauf liegen.

Und ja, man kann sich auch für diese Monitorauflösungen ganz problemlos eine 500+€ Grafikkarte kaufen.
 
Zuletzt bearbeitet:
Naja man hat ja ein sehr gutes Bild von Vega, man weiß auch wie groß ein HBM2 Stack ist. Sollte man das nicht auf ein paar mm² genau ausrechnen können? Das sollte doch relativ einfach zu bestimmen sein.

Bzgl. HBCC. Witzig wie man den Begriff hier schon als Buzzwordbingo verwendet, ohne auch nur irgendwas davon zu wissen ob der auch wie gewünscht funktioniert. Sollte dieser nicht die gewünschte Kompenastaion bewirken, was dann? Wieder auf Spiele ausreden die die Technik nicht verstehen? Oder Treiberarbeit?

AMD muss erstmal liefern, dann kann man sich die Technik im Detail ansehen, und sie bewerten.
 
Ich würde fast wetten, dass erst mal nur die absolute High-End-Karte kommt, die in 2-3 speziell ausgesuchten Benchmarks 0.1 fps mehr als die 1080 Ti schafft damit sich AMD nicht komplett blamiert.
 
Krautmaster schrieb:
Für den Kunden mag diese Rechnung aufgehen, je nach Preis den AMD nachher verlangen kann, aber wirtschaftlich wäre das für AMD absoluter Fail.

Das war in der Vergangenheit schon AMDs Problem und wird es weiterhin bleiben. AMD baut halt nicht primär nach Preis/Leistung, sondern geht technisch immer einen Schritt weiter, manchmal halt auch zu weit (siehe Bulldozer und jetzt vielleicht auch HBM).
Preis/Leistungs-Verkauf hat halt nichts mit Preis/Leistungs-Entwicklung zu tun.

Während nvidia und intel sich darauf beschränken, ein gutes Produkt möglichst lange und gut auszuschlachten und langsam zu verbessern, verheddert sich AMD zu sehr in der Technik und wohin eine Entwicklung gehen "könnte" und liegt halt auch oft falsch.

Bei der Fury hat man es ja auch schon gesehen, statt auf 8 GB GDDR5 mit hohem takt hat man auf HBM gesetzt, Folge: Verzögerung, höherer Kosten und nvidia konnte in Ruhe seine Karten verkaufen. Fury hätte ein richtiger Knaller werden können, so verpuffte die gute Technik in wenigen Verkäufen, weil vielen High-End-Käufern die 4GB einfach zu wenig waren.
 
HanneloreHorst schrieb:
Als Mac User wartet man ja schon sehnsüchtig darauf, dass AMD mal einen raus haut, besonders etwas was Rückschlüsse auf eine potente Mittelklasse schließen lässt.
Leider wurde man da ja mit Polaris enttäuscht und selbst die teuren Ausstattungen bringen einfach keine Leistung.
Was bei UHD-Displays schon mal nicht so prickelnd ist.

Nun hatte AMD den Zuschlag gekriegt und müsste daher auch mal liefern.
Aber da wird man seit einigen Jahren leider eher enttäuscht.
Aber die Hoffnung stirbt zuletzt.

Warum sollte AMD die Leistung von nVidias Oberklasse in der Mittelklasse zur Verfügung stellen? AMD bietet in der Mittelklasse exakt das was nVidia bietet und häufig sogar das bessere Produkt ist. Es gibt nunmal nur zwei Anbieter, da ist es völlig normal dass man sich am Mitbewerber orientiert und die Produkte dennoch unterschiedliche Stärken und Schwächen haben.

@topic: zum einen sei mal angemerkt, dass AMD mit Vega eine völlig neue Architektur aufbietet. Die Vergleiche mit Fiji sind ziemlich weit hergeholt genau wie Rechenbeispiele zur Leistung solange man die Architektur nicht auf irgend eine Art getestet hätte.

Blöder Autovergleich jetzt: nur weil zwei Motoren jeweils acht Zylinder besitzen, kann man ihre Leistung sowie Leistungsentfaltung und Verbrauch nicht voneinander ableiten.

Hypothetischer Teil: von Anfang an wurde gemunkelt AMD bringt Vega in zwei Ausbaustufen, einmal mit 4096 shadern und einmal mit ~6000 shadern. Zum kleineren Ausbau würden 8GB HBM² perfekt passen da sein Ziel die GTX1080 sein wird/sollte. Insofern: warum muss AMD mehr liefern wenn es nur darum geht gegen ein Konkurrenzprodukt aufgestellt zu sein? HBM² wird immer noch ein massiver Preispunkt sein, die meisten Kunden würden es weder wertschätzen noch gut heissen wenn der kleine Vega teurer als eine 1080 wird nur weil man statt 8GB Speicher sagen wir mal 10GB bringt.

Hinzu kommen strukturelle Bedenken: wenn die 4096 shader eine teildeaktivierte GPU sind ist es nur logisch anzunehmen dass neben den Ausführungseinheiten auch die Speichercontroller vom die geschnitten werden. Bei einer symmetrischen Konzeption wären dann die Speichercontroller für 12GB HBM² auf dem großen Vega denkbar, womit man die 1080Ti überflügelt und exakt im Bereich der Titan X läge.
 
motul300 schrieb:
vergleichen wir mal vega mit der fury x
die fury x hat die alte architektur, nur 4gb vram, nur 8600 GFLOPS den alten 28nm fertigungsprozess und ist in 4k gleich flott unterwegs wie eine 1070
da wird allein schon von den daten her mehr drin sein als bei einer 1080
außerdem hat amd schon livebenchmarks gezeigt wo vega mindestens so schnell wie eine 1080 war und das mit dem alten treiber von polaris obwohl vega ganz anders aufgebaut ist

da hier ja jeder mal zu schätzen versucht
mache auch ich das dass ich sage vega wird 10% langsamer als die 1080ti sein

Wir beziehen uns, denke ich, auf denselben Benchmark, in dem Vega ungefähr so schnell wie eine Geforce GTX 1080 war. Wenn man ein halbes Jahr Optimierung dazurechnet, sollte Vega deutlich schneller als die Geforce GTX 1080 sein, da gebe ich dir Recht. Man sollte aber nicht vergessen, dass es ein AMD-eigener Benchmark war. Herstellereigene Benchmarks sind ausnahmslos geschönt. Darüber hinaus war es nur ein einziges Spiel (Doom). Hier hat AMD gewiss auch "Rose-Picking" betrieben und sich ein Szenario ausgewählt, in dem Vega besonders gut abschneidet. Die unoptimierte Vega-Grafikkarte (Dezember) war im Schnitt sicherlich nicht so schnell wie eine Geforce GTX 1080.

Die GCN-Grafikarchitektur skaliert leider sehr schlecht nach oben, weswegen sie die starke theoretische Rechenleistung nur unter extrem grafiklastigen Szenarien ausnutzen kann. Ich weiß das, du weißt das, aber der Mainstream-User schaut sich Full-HD-Benchmarks an und denkt: "Geil, Geforce ist 30 FPS schneller." Dabei spielt es keine Rolle, ob die Frameraten so hoch sind, dass man sowieso keinen Unterschied bemerkt (z. B. 210 vs. 180 FPS), für den Mainstream-User zählt nur das. Dass die Radeon-Karten mit zunehmender Grafiklast immer stärker werden, interessiert nur die Experten.

Außerdem ist ein Blick auf höhere Auflösungen auch immer ein Blick in die Zukunft. Das erklärt auch, warum die AMD-Grafikkarten der letzten Jahre deutlich langlebiger sind als ihre direkten Nvidia-Kontrahenten. Ein Beispiel (unter einigen anderen) ist der Zweikampf zwischen Geforce GTX 680 und Radeon HD 7970. Zum Launch-Termin war die Radeon nur in sehr hohen Auflösungen schneller, unter Full HD sogar zehn Prozent langsamer. Heute ist die Radeon auch unter Full HD wesentlich flotter.

Um nochmal auf das eigentliche Thema zurückzukommen. Ich kann mir vorstellen, dass Vega unter Full-HD (DX11) sogar etwas langsamer als die Geforce GTX 1080 ist, mit steigender Auflösung aber wesentlich schneller und vielleicht auch in die Regionen der Geforce GTX 1080 Ti kommt. Der Mainstream-Gamer sieht diese Entwicklung aber nicht und zieht daraus auch keine Rückschlüsse auf Leistungsbeständigkeit und Zukunftssicherheit. Deshalb sehe ich Vega leider etwas kritisch entgegen, hoffe aber das beste.
 
Moment mal, die AMD Boys haben doch immer erzählt, dass sie auf Vega warten und dass die TitanXP mit 12GB eine Enttäuschung ist und AMD das mit Vega und 16GB HBM2 viel besser macht und die TitanXP in die Tasche steckt für 700€.

Jetzt erzählt mir nicht, dass das nicht stimmt. Auch ein Herr Kamillentee hat in dieses Horn geblasen, mehrfach.

Klar ist, dass die Karte mit 16GB locker 900-1000€ kosten würde und sich niemand der AMD Boys so eine Karte holen würde, da die AMD Jünger (ähnlich den Opel Fahrern) immer mit Preis/Leistung argumentieren.

Mittlerweile bezweifle ich stark, das Vega warten ein Pascal Killer wird.

Es ist absolut einfach. AMD bringt Ryzen, damit hat man bei weitem nicht die Krone im Performance Bereich. Man hat lediglich wieder ein ordentliches Preis Leistungsverhältnis. Das hilft aber nicht den Markt zu pushen. Denn die IPC ist für so eine lange Entwicklungszeit gerade mal zu 80% an eine alte Technik von Intel herangerückt. Dafür steht bei Intel schon Coffee Lake in den Startlöchern und wird damit Ryzen übertreffen, ziemlich locker sogar und das bei gleichem Preis. Um da wieder mitzuziehen wird AMD Jahre benötigen.

Bei Vega wird es gleich sein. Vielleicht kommt man mit dem Heilsbringer Vega auf 1080Ti Performance, eher leicht darunter bei ungefähr gleichem Preis. Dann gehen wieder alle auf HBM2 und HBCC ab, doch Nvidia bringt einfach Volta mit HBM2 oder 14Mbps GDDR5x und schwupps ist der Drops wieder gelutscht. Dann benötigt AMD auch hier wieder Jahre um dort nachzuziehen.

Währenddessen ergötzen sich die AMD Boys im Schönreden an ihrem tollen Preis Leistungsverhältnis...Immer der gleiche Kram.

Ich vermute aber mal, das Vega in DX12 deutlich stärker werden kann als Pascal. Schon die FuryXYZ hat gezeigt, dass dort massiv mehr Leistung rausgeholt werden kann.

Und nochmal Herr Kamillentee. BF1 benötigt in 4K und Ultra Settings vielleicht um die 4GB Vram, kein Wunder dass das bei dir so läuft.

Es gab aber schon viele Berichte wo die 4GB HBM eben nicht für hohe Details gereicht haben. Gottseidank geht dir noch immer einer bei der 970 ab, die du noch nie besessen hast.

Ich hatte eine FuryX und 2x970er im SLI und war froh wieder bei Nvidia zu sein.
 
D.h. die Vega Gaming Karten werden von der Performance her wahrscheinlich zwischen GTX 1080 und GTX 1080 Ti liegen. Das ist doch mal sehr gut! Man ich bin so gespannt darauf! Dieses und nächstes Jahr dürften sehr gute Jahre für AMD werden, wegen Ryzen und Vega.
 
flappes schrieb:
Das war in der Vergangenheit schon AMDs Problem und wird es weiterhin bleiben. AMD baut halt nicht primär nach Preis/Leistung, sondern geht technisch immer einen Schritt weiter, manchmal halt auch zu weit (siehe Bulldozer und jetzt vielleicht auch HBM).

Bulldozer war zu fortschrittlich? :D


Aber ich denke HBM2 hat mit Vega gute Chancen GDDR5(X) ordentlich unter Druck zu setzen.
 
r4yn3 schrieb:
Bzgl. HBCC. Witzig wie man den Begriff hier schon als Buzzwordbingo verwendet, ohne auch nur irgendwas davon zu wissen ob der auch wie gewünscht funktioniert.

https://www.google.com/patents/US20130346695
US20130346695A1-20131226-D00000.png


Das Patent habe ich schon vor 2 Jahren gepostet. Zugegeben HBCC ist ein Marketingbegriff, da der Controller auch eDRAM oder andere Speichertechnolgien ansprechen "könnte", wenn die Ausführung angepasst ist.

Der einzige unterschied ist, dass RyZen bsp den l3 Cache shared und somit der HBCC Controller einen L4 Cache Speicher steuert.

HBCC ist eine Technologie, die für die künftigen AMD APUs und AMD Produkte wichtig ist. Diesen Cache Controller wird es also nicht nur für GPUs geben sondern wurde mit Sicherheit in erster Linie für APUs entwickelt, die neben dem DRAM Hauptspeicher auch einen HBM, eDRAM oder sonstigen Speicher nebst Die haben soll.
 
Zuletzt bearbeitet:
Matzegr schrieb:
Ist halt die Frage wie groß ie DIE wirklich ist. CB spekulierte auf 520-530mm². Allerdings sagte Raja Koduris, dass das Ding unter 500mm² groß ist. Damit ist man bei der Größenordung vom GP102. Wenn man jetzt von weniger Takt ausgeht, dazu noch im Gegensatz zur GP102 nen FP16/FP32 Verhältnis von 2:1 hat, wofür auch noch Transistoren und damit Platz drauf geht. Dann kann man von einer Leistung zwischen GP104 und GP102 ausgehen.

Die Tests zu Ryzen zeigen doch dass der Samsung-Prozess recht hohe Packdichten zulässt. Ryzen hat eine höhere Transistorendichte als Intels Produkte im 14nm-Prozess. Wenn ich mich richtig erinnere war damals eine Vermutung warum die TSMC-Chips im iPhone sparsamer sind als die Samsung-Chips die dass die höhere Packdichte der Samsungchips die Wärme schlechter ableitet wodurch etwas mehr Strom fliesst. Tests von Ryzen legen ja auch nahe dass das Problem die Energie aus dem die zu bekommen bei Ryzen noch ausgeprägter ist als bei Intel - und die haben schon enorme Probleme bei Octas und mehr.

P.S.: Was die Speicherdiskussion angeht sei mal angemerkt dass die Furys immer noch in deutlich weniger Fällen hart ins Speicherlimit rennen als man denken möchte. Das streaming in den HBM-Speicher scheint etwas besser zu laufen als bei den klassischen Karten mit GDDR5.
 
Das sich hier über 8GB Speicher bei nem !!!! ENGINEERING SAMPLE !!!! das virtuelle maul zerrisen wird, niemand weiß wie die finalen karten aussehen, ist an dummheit kaum mehr zu überbieten :freak:
 
ReVan1199 schrieb:
Nachdem was man bei AMD mit Ryzen gesehen hat, traue ich AMD ziemlich viel zu..

lol?
Ich traue denen keinen Meter mehr! Dünnes Geschwätz und sinnlose NDAs. Oh- 4096 Shader? Ist das jetzt gut oder schlecht? In China ist so eben ein Sack Reis umgefallen. Ob die Karte 100 oder 50.000 Shader hat, interessiert wohl niemanden. Interessant sind pure Fakten und Benchmarks. Klare ehrliche Zahlen. Schwarz auf weiß. Gern auch bunt.

Das Ding wird 499$ kosten. Darauf wette ich.
 
Hutzelbart schrieb:
Bulldozer war zu fortschrittlich? :D

Ja, unter dem Gesichtspunkt, dass AMD eine andere Entwicklung der Software vorausgesetzt hat, die aber halt so nicht eingetroffen ist. Der Markt hat sich anders entwickelt als gedacht.

Nachdem man das bemerkte, konnte man Bulldozer nur noch wenig für den anderen Weg optimieren, was über die Jahre, immerhin oder leider (wie man es sehen mag), ~40% mehr IPC aus einer "falschen" Technik herausholen konnte.

intel hat halt aufs richtige Pferd gesetzt.
 
Zurück
Oben