Notiz GPU-Gerüchte: AMDs Navi 12 bekommt anscheinend nativ 36 CUs

Ich bin jetzt mal dreist und behaupte, dass das Meiste aus der News nicht stimmt, sondern Navi 12 ein Chip mit HBM2 ist, vorzugsweise für Mobile und wahrscheinlich für Apple und rein gar nichts mit der 5600 XT zu tun hat, die ein abgespeckter Navi 10 ist.

Beziehe mich hier auf die Twitter-Historie von Komachi. Schon alleine die Leaks zum Speicherinterface passen nicht mit der News überein. Navi 12 hat entweder ein 256-Bit GDDR6 (unwahrscheinlich) oder ein 2048-bit HMB2 (sehr wahrscheinlich) Speicherinterface. Die 5600XT 192-Bit. Das schließt sich schon mal gegenseitig aus.
 
Heiteres Rätselraten mit rx5600 geht weiter. :D

RDNA1 oder 2? Eigener Chip oder geschnittener navi10 oder beides? DDR4 oder HMB2? Notebook Variante, oder nicht? Ineffizient oder besonders effizient? Niedriger Basistakt weil Ausschuss oder Super stromsparend? Preisvorstellung? Produktvorstellungstermin?

Eine vorsichtige Schlussfolgerung meinerseits:
Kein Retail Kunde wird seine Kaufentscheidung aufschieben, um auf die Veröffentlichung von rx 5600 zu warten und AMD scheints egal. Auch gut, es gibt ja zum Glück einen Konkurrenten, dem Retail Kunden nicht egal sind, wo man sogar die Chips in der höchsten Ausbaustufe kaufen kann.

Wenn das so weiter geht. . . . kann sich jeder selber denken.
 
@Rock Lee

Wäre eine Möglichkeit, aber ich sehen nicht so ganz, für welches Produkt die GPU mit HBM interessant wäre und warum genau man dann auf eine 36 CU Variante setzt und nicht auf den bestehenden 40 CU Chip, da mehr niedrig gestaltete Shader eigentlich effizienter sind. Mit 40 CUs könne man sicher noch etwas Spannung sparen.

Könnte theoretisch für iMac oder ein großes MacBook nutzbar sein, aber so richtig passt das auch irgendwie nicht zusammen.
Denke so eine Lösung wäre für Apple nur als RDNA 2 spannend. Warum sollten sie jetzt solch ein teures RDNA1 Produkt in Auftrag geben? Das große MacBook wurde ja erst erneuert.

Auf der anderen Seite war ja auch mal ein Mac mit Gamingfokus in der Gerüchteküche. Da wäre aber ein 36 CU RDNA Chip schon recht schwach auf der Brust, besonders wenn das ganze noch einige Zeit bis zum erscheinen dauert.

Mal sehen. Es bleibt spannend.
 
  • Gefällt mir
Reaktionen: Rock Lee
Mcr-King schrieb:
Naja dann passt die RX 5900 XT auch mit ca. 5000 Shader und 384Bit und 12 GB 14GOPS gut ins Bild.
Da bin ich wirklich gespannt ob auch etwas Neues oberhalb der 5700XT angekündigt wird. Vor allem aber zu welchem Zeitpunkt der Release sein soll. Denn wenn der Launch einer, nennen wir sie 5900XT um dabei zu bleiben, genauso schleppend abläuft wie bei der 5700XT... erst mal Referenzdesign... später Customdesigns... viel später lieferbare Customdesigns... noch viel später realistisch bepreiste Customdesigns, dann ist der Sommer vermutlich schon wieder rum bevor jemand ein gescheites Model in Händen halten kann. :heul:
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Cpt.Willard
Die Gerüchteküche munkelt, dass bei Navi 12 die "High Density" anstatt der "High Performance" Library verwendet wird. Also wahrscheinlich wird das OC Potential deutlich darunter leiden. Zusammen mit nem kleineren Speicherinterface (HBM halte ich für unnötig bei dem niedrigen Coretakt) und anderen Optimierungen wird das wohl ein ~125-165mm² Chip.
 
  • Gefällt mir
Reaktionen: Mcr-King
Volker schrieb:
Ich glaub das wird ein Problem ... 299 werden vermutet, das wird hart mit dem Preis.
Welche Währung? Das kann ja irgendwie nicht Euro oder Dollar sein.
Die 5700er bekomme ich laut Geizhals für 309 Euro incl. Steuer und Porto, ne 1660 Super für 230 Euro.
Ne 5700 liegt ca. 30% vor ner 1660 Super/Ti, von den Specs her dürfte die 5600XT also ähnlich schnell sein wie ne die 1660 Super.

Imho wären also 249 Dollar Liste und 220 Euro Straßenpreis geboten um die Dinger auch unters Volk zu bekommen.
 
  • Gefällt mir
Reaktionen: fox40phil und Mcr-King
Mcr-King schrieb:
nur UV ist sinnvoll leider bei NV viel zu aufwendig und nervig 🙄
Also ich finde das geht sowohl bei AMD als auch bei NV ganz gut. Bei NV einfach über den Afterburner die Spannungstaktfrequenzkurve einstellen und fertig.
Hat bei mir nicht länger als ne Stunde gedauert.
BTT:
Bin mal gespannt, in wie weit die überhaupt vom Markt angenommen wird. Die UVP ist eigentlich zu hoch für das Gebotene. Und ob der Chip die 2Ghz erreicht durch OC ist fraglich. AMD wird schon seine Gründe haben, dem gleichen Chip nur so niedrig zu takten.
 
  • Gefällt mir
Reaktionen: Mcr-King
Hoffentlich kommen zur CES auch Infos zu GPUs für Erwachsene.
Seit Jahren mit der VEGA 64 am Anschlag, da es für Freesync nichts performanteres gab (die 7 war ein Witz).
 
PAX-12 schrieb:
Also ich finde das geht sowohl bei AMD als auch bei NV ganz gut. Bei NV einfach über den Afterburner die Spannungstaktfrequenzkurve einstellen und fertig.
Hat bei mir nicht länger als ne Stunde gedauert.

Ja Afterburner ist nicht schlecht aber nicht jede Grafikkarte geht bei NV, dass ist was mich am meisten stört heutzutage GPUs alle so ähnlich nix besonderes mehr.


Genauso die ganzen Leute due wegen Strom jammern, aber i9 9900K habe ist klar. 😉

Ich bin auf jeden fall gespannt und mal sehen vielleicht ist es wirklich eine Navi 2.0.
 
  • Gefällt mir
Reaktionen: PAX-12
@Mcr-King Sehe ich auch so. Deswegen schrieb ich ja, mal sehen ob sie überhaupt so viel gekauft wird. Denn insgesamt sind die 5500xt und die 5700 das rundere Paket.
 
  • Gefällt mir
Reaktionen: Mcr-King
Blutschlumpf schrieb:
Welche Währung? Das kann ja irgendwie nicht Euro oder Dollar sein.
Die 5700er bekomme ich laut Geizhals für 309 Euro incl. Steuer und Porto, ne 1660 Super für 230 Euro.
Straßenpreise.... Die 5700 war bei $349/369€ Referenz
 
und die neusten Gerüchte von NV dazu: 50% mehr Leistung und 50% weniger Stromverbrauch bei Ampere. Gibt es einen Pelz der dick genug ist damit AMD sich damit warm anziehen kann? Wobei sich dann auch wohl die Kunden warm anziehen dürfen bei den Preisen die NV aufrufen wird...
 
@Iotis

50% mehr leistung mit 50% weniger verbrauch sind unrealistisch. wenn das echte infos sind, fehlen dazu wichtige angaben. denn einfach so macht das keinen sinn.

50% raytracing leistung? ja, möglich und recht wahrscheinlich. 50% mehr rasterization performance? eher weniger. 50% mehr tflops? auf keinen fall. 50% mehr performance als eine 2080 ti würde außerdem bedeuten, dass die karte zwingend hbm2 oder hbm3 braucht, da man mit gddr6 vermutlich nicht mehr genug bandbreite zusammen bekommt. außerdem wäre hier pcie 3.0 langsam ein ernsthafter flaschenhals. nvidia pcie 4.0 karten, die ryzen exklusiv sind? nicht unmöglich, aber irgendwie auch ziemlich strange.

auf 7nm werden solche absolut abartig großen chips wie turing sehr sehr teuer, da schlechter yield und sehr teure wafer. nvidia wird die chipgröße wieder etwas zurücknehmen müssen. oder die dinger werden verdammt teuer.

zudem ist nicht klar, inwiefern der informant (wirtschafts-heini, so wie ich weiß) hier die 7nm dazu gerechnet hat oder nicht. 30% mehr performance und 20% bessere effizienz + "50% besser durch 7nm statt 12nm" funktioniert halt auch nicht. effizienz und verbrauch sind außerdem auch zwei paar stiefel.

die zwei 50% angaben bezüglich der nächsten nvidia gen sind derzeit ohne weitere infos eigentlich ziemlich nichtssagend - und die zahlen könnten auch absoluter käse sein, den man sich höchstens aufs brot schmieren kann.
 
  • Gefällt mir
Reaktionen: Mcr-King
duskstalker schrieb:
die zwei 50% angaben bezüglich der nächsten nvidia gen sind derzeit ohne weitere infos eigentlich ziemlich nichtssagend - und die zahlen könnten auch absoluter käse sein, den man sich höchstens aufs brot schmieren kann.
Gab ja auch schon in den letzten Monaten immer mal wieder ''Leaks'', die sich im Nachhinein als Fake heraus gestellt haben.
Ich denke so ähnlich wird das auch bei der aktuellen News sein, denn 50% + klingen schon hart unrealistisch.
Wobei das von der GTX 9xx Serie auf die 10xx Serie doch auch so ein großer Performancesprung war, wenn ich mich recht erinnere.
Fazit : Abwarten und Tee trinken. ;)
 
  • Gefällt mir
Reaktionen: Mcr-King
Der Sprung von Maxwell auf Pascal war über 50%, teilweise bis 70%, allerdings haben Maxwell und Pascal fast die selbe "ipc" und ein sehr sehr großer Teil der Performance von Pascal kam über den Takt. Maxwell hat man mit viel oc headroom ausgeliefert, den man bei Pascal selbst ausgeschöpft hat, und zusätzlich hat man noch am Takt geschraubt. Wäre vergleichbar mit sandy Bridge vs kaby Lake. Clock for clock sind die recht ähnlich, aber sandy läuft mit 3,8ghz Stock, kaby mit 4,5 oder 4,7 oder so.

Das wirklich gute an Pascal war der niedrige Verbrauch trotz hoher Taktrate, nicht unbedingt die Performance an sich, denn wenn man Maxwell richtig geprügelt hat, kam man recht nah an die Pascal Karten ran.

Maxwell auf Pascal und fiji auf vega sind im Prinzip das selbe. Optimierung auf Takt.

Der Knackpunkt an der Geschichte ist jetzt, dass man das nicht unendlich oft wiederholen kann. Das macht man pro Architektur einmal oder keinmal und dann hat man dieses register schon gezogen.

Nochmal so einen Sprung halte ich für beinahe unmöglich, es sei denn nvidia zieht jetzt eine Architektur aus dem Hut, die mit halbem Takt gleich schnell ist und der Nachfolger holt dann die Taktraten wieder auf.
 
Zurück
Oben