News AMD Vega: Eindeutige Hinweise auf GPU mit 4.096 Shadern

Alleine die Fury ohne änderungen in 14nm und 8GB HBM wäre schon eine Rakete.

Vega hat viel mehr gändert, und dazu noch HBM2.

8GB HBM2 sind wahrscheinlich effektiver wie 12GB DDR5 Ram.
 
KodeX schrieb:
Generell halte ich die Wichtigkeit der Grafikspeichermenge aber (gerade in den letzten Jahren) für "overhyped".

Als Besitzer einer 3,5GB Krüppelkarte, kann ich dir nur ganz stark widersprechen.
 
Habt ihr alle vergessen, dass die GTX 1080 auch nur 8GB GDDR5X vorweisen kann?
Wenn AMD hingegen zu einem vergleichbaren Preis 8GB HBM2 anbietet, halte ich das aber schon für einen guten Deal! Eine weitere höherpreisige 16GB Version würde ich zum aktuellen Zeitpunkt auch nicht ausschließen.

Popey900 schrieb:
8GB HBM2 sind wahrscheinlich effektiver wie 12GB DDR5 Ram.

GDDR5X :D Aber ja, glaube ich auch.
 
von Schnitzel schrieb:
@edenjung
Nö, noch nicht. So kann ich noch den ein oder anderen in meine Ignore-Liste aufnehmen.^^

Hoffentlich nicht mich.

@topic ich warte lieber mal ab was da kommt.
 
@Ap2000

Als Besitzer einer 2 GB Karte kann ich KodeX zustimmen. Wer hat nun recht?

Fakt ist es kommt immer drauf an was man mit der Karte macht. Dazu kommt in praktisch allen Fällen erkennt man kaum ein Unterschied zwischen High und Ultra wenn man es nicht direkt, Frame für Frame, vergleicht.

Klar wird der RAM benutzt wenn man alles aufdreht aber brauch es das überhaupt bzw. ist es gerechtfertigt? Nur weil man viel RAM nutzt bedeutet das nicht, dass automatisch auch alles besser aussieht.
 
Unabhängig von den zu knapp bemessenen 8 GB VRAM HBM2 wird diese Karte nicht an die 1080 Ti herankommen.
Wieder einmal wird AMD kein high-end präsentieren.
 
Warum reden alle immer gleich von 16GB HBM2?
Einer der Vorteil der HBM2 Stacks ist doch, dass man sich viel einfacher in 4GB Stacks zusammenstellen kann, also auch 12GB HBM2 dürften kein Problem sein, ohne das Speicherinterface kastrieren zu müssen oder Teile davon wegzulasern.
 
r4yn3 schrieb:
Solche Aussagen faszinieren mich immer. Gib doch einer FuryX mal 50% mehr Takt, wie es Vega haben soll. Allein damit überholt man bereits eine 1080. Dann kommen erst noch die restlichen Verbesserungen.

Diese Aussage ist leider falsch. Aus einer 50-prozentigen Takterhöhung ergibt sich zwar eine 50 Prozent höhere (theoretische) Rechenleistung, auch Texturfüllrate und Pixelfüllrate steigen um den Faktor 1,5, aber in der Praxis zeigen sich garantiert keine 50 Prozent Mehrleistung. Schau dir z. B. mal die Unterschiede zwischen Radeon R9 Fury X und Radeon R9 380X an. Die Fury X hat eine 116 Prozent höhere Rechenleistung und ist im Schnitt lediglich 74 Prozent schneller. Mir ist klar, dass hier auch CPU-Limitierung im Spiel ist, aber genau diesen Limitierungen untersteht Vega ja ebenso. Der tatsächliche Leistungsunterschied wäre gewiss noch geringer, wenn die Fury X die gleiche Speicherbandbreite wie die R9 380X aufweisen würde, wie es bei Fury X und Vega wohl der Fall sein wird.

Im selben Test schneidet die Geforce GTX 1080 immerhin 38 Prozent schneller als die Radeon R9 Fury X ab. Ob da bereits 50 Prozent mehr Rechenleistung ausreichen, um die Nvidia-Grafikkarte zu überholen? Ich glaube nein - mit steigender Auflösung allerdings schon. An dieser Stelle bleibt zu hoffen, dass die Verbesserungen an der GCN-Architektur den letzten Rest rauskitzeln. Deshalb vermute ich, dass Vega unter Full-HD ähnlich schnell wie die Geforce GTX 1080 sein wird, vielleicht etwas schneller, vielleicht aber auch etwas langsamer. Unter Ultra-HD wird sie dann wohl ein gutes Stück schneller sein, aber vermutlich noch nicht auf Geforce-GTX-1080-TI-Niveau.

Natürlich kann ich damit falsch liegen, aber die Erfahrung hat mich gelehrt, eher vorsichtig und faktenbezogen zu schätzen. Und Fakt ist, dass 50 Prozent mehr Rechenleistung gerade bei gleichbleibender Speicherbandbreite nicht überbeweret werden sollten und die GCN-Verbesserungen in der Vergangenheit nur im einstelligen Prozentbereich lagen.
 
trane87 schrieb:
Heutzutage ist VRAM wichtiger den je, sobald man in einer höheren Auflösung als Full HD spielt. Versuch mal was in 4K zu spielen mit nur 4-6GB VRAM. 8 GB reichen manchmal so eben aus und für die Zukunft betrachtet sollten es schon eigentlich 16GB sein, damit man halbwegs Zukunftssicher ist.

VRAM hat nichts mit der Auflösung zu tun, wäre dies der Fall, würde man heute wohl die wenigsten Titel in 4k spielen können.
Der VRAM wird durch große Texturen gefüllt, die es auch schon bei <=FHD geben kann. Z.B. Mordor auf Ultra belegt dir über 6,1GB, damit ist man mit einer poppeligen 1060 schon am Ende und ärgert sich, nicht doch zur RX480 gegriffen zu haben ;)
 
Hutzelbart schrieb:
Was meckert ihr über die 8GB?
Ihr wisst schon, dass das HBM2 ist, oder?
Und schon mal was von HBCC gehört?
Informiert euch erstmal darüber!

Da kann man viel eher anfangen über die Unwissenheit der Nutzer hier zu meckern...

damit kann man bisher gar nichts anfangen da es nicht einen Test dazu gibt ;)
Ergänzung ()

Matzegr schrieb:
Ist halt die Frage wie groß ie DIE wirklich ist. CB spekulierte auf 520-530mm². Allerdings sagte Raja Koduris, dass das Ding unter 500mm² groß ist. Damit ist man bei der Größenordung vom GP102. Wenn man jetzt von weniger Takt ausgeht, dazu noch im Gegensatz zur GP102 nen FP16/FP32 Verhältnis von 2:1 hat, wofür auch noch Transistoren und damit Platz drauf geht. Dann kann man von einer Leistung zwischen GP104 und GP102 ausgehen.

Ja wobei die GTX 1080 Ti ja auch im Standard bei etwa ~1600 Mhz taktet und im Gegensatz zur Vega kein platzsparendes HBM2 SI hat. Bei AMD wird allerdings eher die Auslastung der 4096 Shader im Vordergrund gelegen haben. Wenn diese stimmt sind die Karten schon recht nahe über die Shaderzahl vergleichbar.
Ergänzung ()

pipip schrieb:
Aber das mit 500+ hält sich überall hartnäckig.

es wird pi mal Daumen um 500mm² sein. Ob nun 480 oder 505 is doch Wurst. Fat DIE ist es dennoch.

Bei AMD musst du dennoch den auch nicht günstigen Interposer und HBM 2 rechnen. Preise wird einem leider kaum jemand nennen aber ich denke der Aufbau kostet min 30% mehr als der von Nvidia, wenn nicht schnell das doppelte.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Qarrr³ schrieb:
Wenn wir AMD Preise bekommen und 500€ für Vega zahlen müssen, find ich das ok. TFlops und Speicherbandbreite auf 1080ti Niveau (vielleicht sogar fps) und Preis von einer 1080. Mit HBM kann vermutlich sogar der höhere Stromverbrauch des Chips halbwegs ausgeglichen werden.

Logisch, Nvidia darf für die Ti 900€ verlangen, während AMD die Karten zum Ramschpreis verkaufen muss, um laut manchen hier Konkurrenzfähig zu bleiben.

Jedesmal der selbe Stuss..:rolleyes:
 
KodeX schrieb:
Die GCN-Grafikarchitektur skaliert leider sehr schlecht nach oben, weswegen sie die starke theoretische Rechenleistung nur unter extrem grafiklastigen Szenarien ausnutzen kann.

Da erwarte ich dank Architekturänderung und Tiled Rendering eine starke Verbesserung. Man muss sich vor Augen führen dass AMD das erste mal seit GCN die Shader wirklich anfasst und abändert. Man redet ja auch von NCU (mein ich) - nicht mehr von GCN.

Auch die Größe des Chips und nach wie vor 4096 Shader zeigen dass diese wenig mit den bisherigen zu tun haben können, bzw weniger als bei den letzten 4 GCN Generationen. Sonst wären es locker 5000-8000 Shader bei der Chipgröße.

Das kann total rocken oder auch nach hinten los gehen. Hoffen wir ersteres.
 
Zuletzt bearbeitet:
joel schrieb:
Auch AMD kocht nur mit Wasser!
Das ist wie mit Ryzen, die EierlegendeWollMilchSau ist es wieder nicht geworden. Und preislich indiskutabel!
Wo ist die Midrange Graka / Prozessor von AMD die sich Massenhaft verkauft ?
90% der AMD Jünger werden sich sicherlich keinen Ryzen 7 /1700/1800 (X) leisten.
Und bei der Preisgestalltung die sich AMD z.Zt. genehmigt ist ist zu vermuten das AMD Vega wieder nur die "Geld spielt keine Rolle" fraktion bedient.

Mach weiter so AMD dann sehen wir mal wo AMD stehen wird Ende 2018.

Meinst du bei Intel/Nvidia siehts besser aus oder was?? Quadcores für 350€, Hexacore Plattformen sündhaft teuer, bei Nvidia >400€ für stark beschnittene mittelgroße GPUs. High end für über 800€. Und die Leute freuen sich sogar, dass Nvidia so großzügig ist, keine 1000€ für die Quasi-Titan X zu verlangen :lol:
 
proud2b schrieb:
Jedesmal der selbe Stuss..:rolleyes:

wenn man Marktanteil will und braucht muss man meist über den Preis gehen außer man bildet mit Abstand die Speerspitze wie es Nvidia zur Zeit tut.

Weil AMD Marktanteile braucht ist auch Ryzen recht günstig.

@zeedy

das ist alles richtig aber so funktioniert unsere Marktwirtschaft nun eben - und das ist so gesehen weniger Nvidias / Intels als AMDs Schuld. Klar, ein Markt mit nur 2-3 Playern ist immer schwer und quasi unregulierbar. Es kann schnell laufen wie bei OS - stellt sich einer etwas dreister an (MS) dann hat man schnell 95% Marktanteil und das Verhältnis ist fast unmöglich zu kippen. Aus MS Sicht hat man dann alles richtig gemacht.
 
Zuletzt bearbeitet:
Cool Master schrieb:
@Chillaholic

Ja gut ich meinte natürlich das aktuelle Lineup... Selbst 6 Kerner sind meiner Meinung nach völliger overkill im Mainstream. Es gibt noch Leute die nutzen ein Core2Duo und Windows inkl. Programme laufen wunderbar.

Bevor ich mir ein Upgrade von z.B. C2D auf Ryzen 6 Kerner kaufen würde würde ich eher in eine SSD investieren das bringt deutlich mehr.

Ich bin einer dieser User die noch einen C2D E6600 benutzen. Und ich kann dir sagen ich warte verzweifelt auf den Ryzen 6Kerner.

Videos wandle ich generell über Nacht um, da das selbst bei 720p-Material Ewigkeiten dauert. Da hilft die schnellste SSD nicht. Zumal bei einem Sockel 775 Mainboard auch die Geschwindigkeit der SATA-Anschlüsse limitiert.

Ich habe GTA V geschenkt bekommen und konnte das gerade so mit 30 FPS auf Ultra-Low-Settings (kein Verkehr, keine Passanten, keine Schatten usw) spielen weil der Prozessor mit dem Streaming und den ganzen NPC`s heillos überfordert war. Wäre das Spiel nicht so wahnsinnig gut hätte ich mir das sicher nicht angetan. Auch da hätte eine SSD nix gebracht.

Selbst Firefox, eines der grundlegensten Programme (meiner Meinung nach) wenn man im Internet unterwegs ist läuft auf einem C2D alles andere als geschmeidig. Der Takt ist einfach zu niedrig. (Von der Multi-Prozess-Unterstützung in FF hab ich noch nix gemerkt)

Also ich als Leidgeprüfter C2D-Nutzer kann jedem nur raten erst in einen aktuelleren Prozessor+Plattform zu investieren und vllt danach über eine SSD nachzudenken.
 
digitalangel18 schrieb:
In anbetracht der Tatsache, dass das eine KArte ist die man sich auch gut für 3,4 oder 5 Jahre kaufen kann, halte ich 8GB für deutlich zu wenig. Insofern relativ egal wieviel Rohleistung der Chip hat, wenn das Spielgefühl durch zu knappen Ram bald eklig wird bringt das nix.

die speicherverwaltung bei der fury war schon wesentlich effektiver als alles Andere davor, bei HBM 2 wird sich das sicherlich noch verbesseren, da kann man locker mit einem Faktor 1.5 rechnen (wenn nicht mehr)
 
digitalangel18 schrieb:
In anbetracht der Tatsache, dass das eine KArte ist die man sich auch gut für 3,4 oder 5 Jahre kaufen kann, halte ich 8GB für deutlich zu wenig. Insofern relativ egal wieviel Rohleistung der Chip hat, wenn das Spielgefühl durch zu knappen Ram bald eklig wird bringt das nix.


Richtig, ganz deiner Meinung...dann wären alle GPUs >= Titan X scheiße und jeder muss min 900€ für eine neue GPU ausgeben! :rolleyes:

Nicht dein ernst, oder?
 
AMD braucht auch kein high-end präsentieren! Eine GPU mit 8GB und besserer Leistung als die GTX 1070 aber etwas billiger oder selber Preis und schon verkauft AMD. Das ist das Preissegment wo man Umsatz macht und worauf viele Leute warten.

Wenn AMD auf hängen und würgen versucht die 1080Ti einzuholen, dann muß man sich an den Kopf fassen. Jemand der 1080Ti oder Titan X Leistung haben will hat schon lange gekauft. Wer wie AMD spät dran ist, muß eine 1080Ti entweder ganz klar schlagen oder es sein lassen. Wird aber wie immer sein. Am Ende wird über den Preis verkauft.
 
trane87 schrieb:
Heutzutage ist VRAM wichtiger den je, sobald man in einer höheren Auflösung als Full HD spielt. Versuch mal was in 4K zu spielen mit nur 4-6GB VRAM. 8 GB reichen manchmal so eben aus und für die Zukunft betrachtet sollten es schon eigentlich 16GB sein, damit man halbwegs Zukunftssicher ist.

Mit solchen unwissenden Kiddies macht Nvidia schon seit mehr als nem Jahrzehnt ihr Geld.

Damals hat man schon von jeder Seite gehört "nein, 64mb reicht nicht, du brauchst 256mb, dass das Spiel flüssig läuft". Dass die GPUs nicht schnell genug waren, um ein Spiel in der Auflösung in den Details zu berechnen, in der es soviel VRAM belegt hätte, hat man nicht geschnallt.
Man hat sich dann auch mords viel gefreut, als die ersten iGPUs kamen, die sich vom Main RAM was abzweigen konnten. "Wow, ich kann einstellen dass die Grafikkarte sich 512MB RAM nimmt - meine Spiele gehn jetzt doppelt so schnell!" - dass es sch... geruckelt hat, weil es kleine schwache GPUs mit langsamer Speicheranbindung waren, hat diese Leute dann ziemlich perplext :)

Tja.. hat sich anscheinend nicht viel gebessert. Es gibt derzeit kein Spiel, das mehr als 8GB benötigen würde - zmd nicht bei Settings, bei denen die besten aktuellen GPUs mehr als 60 FPS schaffen würden. Und trotzdem gibt's anscheinend noch genug User, die 32GB auch kaufen würden.
 
Zuletzt bearbeitet:
Zurück
Oben