News AMD: Auch Radeon Vega II für Consumer angeblich zur CES

RYZ3N schrieb:
Es ist einfach ein Fakt, dass man die PS der RX VEGA bis heute nicht 1:1 auf die Straße bekommen hat.

Die Primitive Shader werden für Vega nicht mehr kommen. Wurde im Januar noch gesagt, dass sie nicht mehr Teil des Treibers sind (und damit AMD in der Verantwortung steht, sie in Spielen transparent mit einzubeziehen), sondern nur noch per API explizit angesprochen werden müssen und können, kam im August dann das finale Aus für die PS: Es wird laut AMD keine Primitive Shader bzgl. Vega mehr geben. Vielleicht in Vega II? Oder in Navi? Ich bin gespannt.
 
  • Gefällt mir
Reaktionen: Rock Lee und SVΞN
Eine hochgezüchtete Instinc MI 60 in Form einer Frontier Edition für den Comsumer Bereich halte ich für ein schlechtes Signal.
Für mich würde das bedeuten, die MI60 verkauft sich im Datacenterbreich schlechter als erwartet und AMD schiebt die "übrigen" GPU-Dies in den, eh schon mit Lagerware überfüllten, Consumer-Markt.
Für mich muss AMD zu Navi aus den Puschen kommen.

Ansonsten sollte AMD für 2019 mit Epyc II alias Rome und einem Ryzen 3xxx ebenfalls mit CPU Chiplets punkten.
Die Verfügbarkeit von Rome darf dabei nicht wesentlich später als Ende Q1 sein und Ryzen 3xxx zum Ende Q3/2019.
 
Warum sollte irgendein Konsument FP64 brauchen, oder die dadurch fallende Gaming-Effizienz und den gestiegenen Preis wollen.

Navi bekommt auch 4096 Cores im Vollausbau ... und GCN kann bekanntlich nicht mehr Cores tragen.
Der Chip ist dann in 7nm etwa auf den cm² von Polaris. Und preislich vermutlich etwas über 350,-
 
Rock Lee schrieb:
Bei max. Boost beträgt der Taktunterschied 20% (1500 zu 1800)
In der Folie wirbt AMD mit >25% Mehrperformance bei gleichem Energieverbrauch.
TDP beträgt jedoch bei beiden Karten 300 Watt
Ich denke mal, dass die MI60 öfter den max. Boosttakt schafft, um auf 25% zu kommen.[...]

Okay, dann sind's 20 statt 15%. Danke für die Klärung, hatte das nur gerade aus dem Gedächtnis geschrieben.

Der Verbrauch ist (oder könnte werden) mMn ein zweischneidiges Schwert.

Man hat zwar mit 7nm den effizienteren Prozess, aber durch den höheren Takt, die gesteigerte DP Leistung und das aufgebohrte Speicherinterface inkl. 4 HBM Stacks egalisiert sich das wieder.

Kommt die propagierte neue Prosumer Karte aber als 'Resterampe' der Profi Lösungen mit 'nur' 8GB HBM und moderateren Betriebsspannungen, könnte ich mir auch irgendwas wie 10% mehr Leistung bei 5% weniger Verbrauch vorstellen.

Egal, wie immer bei Gerüchten reichlich Kaffeesatzleserei...

Am interessantesten wäre in meinen Augen eh der Vergleich von Vega 10 zu Vega 20 bei gleichem Takt. Nur um schon mal mehr oder weniger direkt zu sehen, wie gut TSMCs 7nm denn in der Praxis so sind.

Vega schön und gut, aber ich warte weiter gespannt auf Navi.

PS.: @Salutos Aus einer etwaigen Ankündigung würde ich keine Rückschlüsse auf die Verkäufe der Instinct Karten ziehen.
Das wäre einfach die erste 7nm Karte für den (betuchten) 0815 Kunden. Das Ding kann nur gelauncht werden um etwas medialen Hype zu erzeigen; dafür braucht es auch kein großes Volumen.
Jede Webseite wird das Teil testen wollen und Tech-YouTube wird auch gratis Werbung für AMD machen.
Wenn's gut läuft, steigert man damit dann direkt die Nachfrage nach 7nm Navi.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rock Lee
Wie gut Rx vega 2 werden kann, hängt maßgeblich von 4 Faktoren ab:

1. Konkurrenz: neue vega zum alten Preis hätte definitiv einen Platz in der aktuellen Marktsituation.

2. Architektur: was hat sich getan? Fehler von vega ausgebügelt? Gaming Optimierung oder reine verwurstung von compute gpus?

3. Fertigung: Wieviel besser ist tsmc 7nm im Vergleich zu glofo 14nm? Wieviel schneller ist der neue hbm2?

4. Spieleauswahl: Was ist die "echte" Performance von vega? Langsamer als gtx 1080 (destiny 2, ghost recon Wildlands, assassins creed, hellblade) oder grob auf einem Level mit einer 1080 ti (wolfenstein, battlefront 2, forza horizon, battlefield 5)?
Was kann vega 2 hier überhaupt besser machen? Wieviel Leistung wird in nicht optimierten spielen verheizt?
 
  • Gefällt mir
Reaktionen: Strikerking
Da VEGA64 schon in einigen Spielen mit der GTX1080Ti mithalten konnte, so würde eine VEGA II hier dann auch mit einer RTX 2080 mithalten können und gleichzeitig bei den Spielen, wo sich eine VEGA64 mit der GTX1080 messen musste nun doch mit einer GTX1080Ti mithalten können. Plus FreeSync und einem Preisvorteil und schon ist das Teil top aufgestellt. ;)

Und sind wir einmal realistisch. Im Preisvorteil, hat AMD dann wirklich ein leichtes Spiel.
 
Frontier 2 schön und gut, die muss für mich aber mindestens noch im Januar, allerhöchstens in Q1 erscheinen. Wenn man hier wieder mit H1 Release vertröstet wird hat meine Geduld ein Ende.

Persönlich glaube ich nicht dass man hier irgendwelche Architekturfehler von Vega10 ausbügeln hat können.
Für mich ist es eine reine Brechstange, da man sich intern wohl ohnehin mehr auf Navi fixiert.

20-25% wären schon ordentlich, zumal die Bandbreite mit 1TB/s endlich kein Flaschenhals mehr sein sollte.

Ich bin gespannt.
 
anexX schrieb:
Wow, Vega II für Zocker ? Und das auch noch bis Q3/19 ? Das wär ja en Ding. ^^

Da bitte dran bleiben bezüglich weiteren "Gerüchten", die sich ja hier eh meist als wahr heraus kristallisieren. ;)

Das wäre in der Tat ein Ding, aber ein ziemlich negatives. Es würde schlicht bedeuten, dass Navi NICHT die Leistung bringt, die man braucht, damit ein kleiner Navi bei einer 2070 landet (grob doppelter 480)
Und wie angesichts der 7nm Kosten und des HBM2 eine Vega 2 Preislich in die Lücke zwischen 2070 und 2080 passen soll, ohne das AMD was drauflegt. Tja, das bleibt mir ein Rätsel

Wobei ich schon länger vermute, dass der Navi Chip als solches nicht die doppelte Leistung der Polaris haben wird, und damit auch ein Big Navi eben nicht die Leistung der RTX 2080ti erreichen wird. Ich sehe Navi als das an, was schon die HD4850 war.. Gute Leistung zu wenig Geld. Jim von Adored meinte ja, dass Navi überraschen wird. Das mag ich gerne glauben, aber es wäre keine freudige Überraschung, wenn Navi erst 2020 käme.
 
v_ossi schrieb:
Vega schön und gut, aber ich warte weiter gespannt auf Navi.
[...] Das Ding kann nur gelauncht werden um etwas medialen Hype zu erzeigen; dafür braucht es auch kein großes Volumen.
Jede Webseite wird das Teil testen wollen und Tech-YouTube wird auch gratis Werbung für AMD machen.
Wenn's gut läuft, steigert man damit dann direkt die Nachfrage nach 7nm Navi.

Same here. Das Ding wäre, wenn es zum Release kommt, aus meiner Sicht ein Alibi-Produkt nach dem Motto: "Seht her! Die erste 7nm-Karte für Spieler!"
Dafür aber dann für das gebotene zu teuer und/oder schlecht verfügbar.

Wie von mir bereits geschrieben, würde man das Ding noch etwas oberhalb von den kleinen Navi-Chips positionieren, bis es nach einem Jahr ohne viel TamTam durch einen besseren Navi-Chip ersetzt wird und wieder in der Versenkung verschwindet.

Den Hype bei der CES und die Tests der News-Seiten würde man seitens AMD natürlich gerne mitnehmen, auch wenn der uniformierte User wohl wieder enttäuscht sein wird, weil es keine 2080ti-Leistung für 500 EUR gibt ;)
 
  • Gefällt mir
Reaktionen: derSafran und v_ossi
Für mich stellen sich immer folgende Fragen..
Jeder der annähernd maximale Leistung möchte hat wahrscheinlich bereits einen G-Sync Monitor... wer wechselt denn da? Dann würde es ja Sinn machen den Monitor gleich mit zu wechseln.

Ich hätte mir tatsächlich lieber einen Freesync Monitor gekauft aber die Grafikleistung war einfach nicht ausreichend und ich wollte auch nicht auf das Feature verzichten.
 
Weil G-Sync mittlerweile das Ende der kommerziellen Fahnenstange erreicht hat. Um bei der benötigen Bandbreite G-Sync nutzbar halten zu können benötigt man ein aktiv gekühltes Modul welches ca. 500-1000 Euro extra kostet.
Das wirst du immer weniger in Monitoren vorfinden. Wohingegend FreeSync 2 einfach direkt mit einem Frequenzteiler auf das Panel zugreifen kann und ein offener Standard ist und man sogar im reinen TV-Markt etablieren wird und schon ist.
 
  • Gefällt mir
Reaktionen: Shadow86
Baal Netbeck schrieb:
Eine Vega II für Spieler macht so gut wie keinen Sinn.
Die 15% sind ja schon optimistisch....selbst wenn der takt um 20-30% ansteigt, kommt im Spiel davon ja längst nicht alles an.
Bei der vega64 bringt ja jetzt schon HBM2 OC deutlich mehr als GPU Takt.

Und wenn Vega 7nm noch mehr auf compute optimiert ist, wird es wohl kaum in spielen effizienter laufen.

Da ist der fail doch schon vorprogrammiert.

Ich denke Navi ist eine weitere Stufe in der Evolution von CGN.
Durch den neuen Prozess wird es ein schönes Taktplus geben.
Vielleicht sogar mit maximal 16GB und hoher Speicherbandbreite?
Das werden Karten mit gutem P/L die bis in die obere Mittelklasse reichen.
(etwas unter der RTX 2080)

Selbst beim kleinen Sprung (von 14nm auf 12nm), ohne weitere Optimierungen, hat CGN (RX 590) noch schön Performance gewonnen.
(ca. 10%)
Bei einem größeren Sprung mit zusätzlichen Chipoptimierungen, ausreichend Speicher und Speicherbandbreite, würde die CGN Sache weitaus weniger alt aussehen als Sie ist.


Ich denke Vega II hat für den betuchten Gamer trotzdem mehr Potential.
Es war mehr als genug Zeit hier zu optimieren.

Die Rohdaten der MI60 Karte lesen sich auch nicht schlecht:
Memory 32GB HBM2
Memory Bandwidth 1024 GB/s
Peak Engine Clock 1800 MHz
peak Single Precision (FP32) Performance 14.7 TFLOPs
Peak Double Precision (FP64) Performance 7.4 TFLOPs
Peak INT8 Performance 58.9 TFLOPs

Die Frage ist jetzt, wie man sich zur Top Consumer Karte abgrenzt.

Sicher wird auf der Consumer Karte weniger Speicher sein.
Ich tippe mal auf 16GB beim Topmodell.

Speicherbandbreite?
1024GB/s wären schon gigantisch.
Man sieht am "Instinct MI50 Modell" das es mit 16GB so möglich ist.
Die vier HBM Speicherchips haben einfach weniger Stacks.
Es würde AMD fast nichts kosten, die 1024GB/s mit in den Consumer Bereich zu nehmen.
Zusätzlich muss AMD aufholen.
Ich gehe nicht davon aus das AMD die Speicherbandbreite beschneiden wird.

Was noch bleibt ist der Infinity Fabric Link.
Vielleicht wird man diesen ganz weglassen oder auf nur 2 Karten beschränken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
Also ich würde mich freuen und hoffe dass der Chip dann in seinen Fähigkeiten nicht künstlich beschnitten wird.
So ganz unwarscheinlich dürfte es zumindest nichts ein denn zum einen könnte man so die Ausbeute optimieren und zum anderen wurde der Threadripper damals auch nicht von Anfang an angekündigt sondern nachgeschoben. Letztendlich ist der sammt Plattform auch eher ein Abfallprodukt der Entwicklung für den professionellen Markt.
 
Rock Lee schrieb:
Same here. Das Ding wäre, wenn es zum Release kommt, aus meiner Sicht ein Alibi-Produkt nach dem Motto: "Seht her! Die erste 7nm-Karte für Spieler!"
Dafür aber dann für das gebotene zu teuer und/oder schlecht verfügbar.

Wie von mir bereits geschrieben, würde man das Ding noch etwas oberhalb von den kleinen Navi-Chips positionieren, bis es nach einem Jahr ohne viel TamTam durch einen besseren Navi-Chip ersetzt wird und wieder in der Versenkung verschwindet.[...]

Alibi-Produkt ist vlt. etwas hart formuliert, es gibt ja schon einige Bereiche, in denen die Karte (sowohl in der aktuellen 14nm, als auch in der 7nm Variante) durchaus ihre Daseinsberechtigung hat. Nur ist das in der Regel eben nicht Gaming in dem Umfang, den der durchschnittliche CB User betreibt. Und das viel zitierte Undervolting kann mMn nicht als Grundlage angesehen werden, da zählt die Leistung, wie sie direkt nach dem Auspacken ist.

Wo die Karte von der Leistung her landet und wie das dann in Relation zu Navi aussieht, wird interessant zu sehen.
Allerdings will ich mir da momentan keine Spekulationen mehr erlauben, dafür sind fast schon zu viele und vor allem widersprüchliche Gerüchte im Umlauf.
Auch wenn deine Vermutungen aus dem anderen Thread ganz realistisch erscheinen, warte ich erst mal ab, wo "meine Karte"* dann so landet und gucke dann, ob das aus meiner Sicht Top oder Flop ist.

*6 Pin Anschluss und daraus resultierend 150 Watt Verbrauch
 
Inxession schrieb:
Vega war und ist kein Flop.
Wird nur durch die Presse dazu gemacht.

Die eine Frage ist welche Ziele gestellt werden, die andere wie ein Flop von Vega sowie Polaris noch deutlicher durch das Steam Survey belegt werden kann.
 
@Botcruscher ... die viel interessantere Frage ist, wie das Steam Survey aussehen würde, wenn die PR pro Vega besser als gegen Vega ausgefallen wäre?

Steam kann man sicher als Richtlinie für die Marktverteilung nehmen, aber nicht als Zufriedenheitsstudie.

90 % der unvoreingenommenen 1080 Besitzer würden nicht mal einen Unterschied merken, wenn eine Vega in Ihrem System stecken würde.

Das ist das kranke, an dem System.

Die eigentlich ach so tollen Enthusiasten, lassen sich durch voreingenommene Tests der Online Redaktionen leiten. (nVidia NDA ...)

Selbst testen macht Freude! Und da ist VEGA definitiv nicht so schlecht, wie so oft behauptet.
 
  • Gefällt mir
Reaktionen: duskstalker und Strikerking
Ich hab eine 56 und ich bin damit zufrieden. Aber das Ding ist eine Mimose und "out of the Box" sieht bei der Konkurrenz ganz anders aus.
Das bei dieser unerhörten Aneinanderreihung von Fails die Pesse schuld sein soll und nicht das Management eine Pensionierung in Nordkorea verdient hätte ist absoluter Unfug.
Seit Hawaii köchelt der Quatsch bei der AMD-GPU Abteilung so fröhlich vor sich hin. Alleine das Thema Herstellerkarten...

480/580 haben im Moment jeweils ungefähr 0,65% bei Steam. Vega ist inexistent unter sonstige. Wie wollt ihr bitte Flop anders definieren. Unter dem Strich gibt es mehr 1080 Ti als überhaupt aktuelle AMD Karten gelistet werden!
PS: Und Zen zeigt hier ganz deutlich, dass nicht die böse Presse schuld ist wenn die Produkte gut sind.
 
  • Gefällt mir
Reaktionen: sifusanders, Oneplusfan, Strahltriebwerk und eine weitere Person
Ich habe mir eine vega64 LC gekauft und bin nicht unzufrieden.....aber mein Ziel war auch eher Spaß am optimieren und herumtesten mit einer interessanten Karte.

Die schlechte Presse war aber gut begründet....ab Werk absurde Verbräuche, ohne mit Leistung zu punkten.
Versprochene Features sind nicht gekommen oder bringen nicht was sie versprachen.
Es gab auch keine Verbesserung über die Zeit, die nennenswert wäre.
Die Preise waren zu Beginn nicht konkurrenzfähig.

Das war mir alles egal, aber was mich immer noch stört ist die schlechte Leistung in openGL, und dx9-11.
Man hängt super schnell im CPU Limit, hat dann schlechte frametimes und gerade in Verbindung mit einer Ryzen CPU ist das besonders problematisch.

Das Ryzen+Vega in (gut gemachten)DX12 und vulkan dann super läuft ist ein schwacher Trost, wenn man gerne Mal ältere Spiele spielt und auch die neuen spiele haben selten DX12 oder vulkan....und wenn DX12, dann in 80% der Fälle schlecht gemachtes.

Für mich war es schön, wie viel man da optimieren kann. ;)
Undervolting, HBM2 OC, viele Möglichkeiten im Treiber....mehr Performance bei 70W weniger. :)

Für normale Nutzer aber ein fail....mein hochwertiges 550W Netzteil hatte nicht ausgereicht... undervolting braucht viel Verständnis für die Vorgänge, sonst ergeben Dinge wie:"Power Limit hoch um Strom zu sparen." keinen Sinn.

Jetzt sind die Preise ja okay....da kann man versierten Nutzern durchaus Mal eine vega56 zur Auswahl stellen...aber solange es kaum vulkan oder gutes DX12 gibt, stehe ich da nicht so richtig hinter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, neofelis und Colindo
Du kapierst den Hintergrund nicht ...

Das AMD nicht die Manpower hat, sämtliche PR perfekt zu steuern.
A la Salami Taktik, oder Foren Trolle, etc ... sollte klar sein, oder?

Man erwartet Wunder von einem Hersteller der an beiden großen Fronten kämpft und dabei noch wirtschaftlich miserabel da steht.

Ihr lasst euch vom System leiten ....

Sogar als Besitzer einer Vega. Du bist doch zufrieden, dann teile deine Meinung über Vega mit anderen, anstatt ins gleiche Horn zu stoßen wie der allgemeine Tenor.

Nochmal ..

Eine
580 ist nicht schlechter als eine 1060 (2 GB mehr Speicher, etwas mehr Verbrauch -> Undervolting)
eine Vega 56 nicht schlechter als eine 1070 (Undervolting ...)
eine Vega 64 nicht schlechter als eine 1080 ... (Undervolting ...)

Ja, Out of the Box sind die nVidia Karten sparsamer. Weil nVidia einfach die Manpower hat um die Karten bis an die Perfektion zu trimmen. Was Perfektion kostet ohne Konkurrenz, zeigt Turing.

Trotzdem ist der allgemeine Glaube, das die Radeons schlechter sind. Warum? Sie sind nicht schlechter. Sie werden nur schlechter dargestellt. Und jetzt kannst du raten warum ... PR, NDA, Trolle, Bestechung? ....

Augen auf!
 
  • Gefällt mir
Reaktionen: xXDariusXx, Hatch, Rockstar85 und 4 andere
Speziell, weil in der Endphase der Vega-Entwicklung 2/3 des Teams für die entwicklung des Navi für die PS5 abgezogen wurden und Koduri es dann vorgezogen hat lieber zu Intel zu gehen.

Die ganze Bude hat 9.000 Leute für beide Sparten. Alleine Nvidia hat 11.000.
 
Zurück
Oben