News RDNA 2: Next-Gen-Radeon erscheint vor den Next-Gen-Konsolen

Status
Für weitere Antworten geschlossen.
SirSilent schrieb:
Man darf aber nicht vergessen, dass sich die Käuferschaft über die Jahre verändert hat. Die armen Kids von gestern die sich eine Grafikkarte zum zocken gekauft haben gibt es fast nicht mehr. Die zocken heute auf Konsole oder schauen andern beim Spielen zu.
Die PC-Gamer sind älter und damit auch kaufkräftiger geworden und können sich die neuen Preise leisten. Das wissen auch die Hardwarehersteller.

Leisten können und leisten wollen, sind zwei paar Schuhe.
Ich habe damals 600€ für die 980Ti ausgegeben und mehr gebe ich sicher nicht aus, auch wenn ich könnte.
Das Geld fließt eher in ein Komplettsystem (Xbox)
 
  • Gefällt mir
Reaktionen: v3locite
Tommy Hewitt schrieb:
Das einzige, was die Leute hier verstehen müssen ist, dass jegliche Preise reinste Spekulation sind.

Was unveröffentliche Hardware angeht, ist es meistens Spekulation ;)
Ergänzung ()

KlaraElfer schrieb:
Klar, so habe ich als Student auch noch gedacht.^^

Ich war da kein Student. Mein Sohn kam dann auf die Welt, und er ist mir deutlich wichtiger als mehr FPS und/oder ein schärferes Bild. Da reicht mir auch die Xbox Series X für mehr Performance

Ich hoffe für AMD dass sie aufholen können
 
  • Gefällt mir
Reaktionen: Chismon und v3locite
ZeroStrat schrieb:
Ich habe im CPU-Limit gebencht, also 720p. Das ist der Vorteil von korrekten CPU Tests. Dann gewinnt man nämlich solche Erkenntnisse.

ergibt natürlich sinn, die Frage ist halt für mich, wie vernachlässigbar ist das solange die SW mit der Effizienten Ausnutzung von 8 + Kernern hinterher hinkt. Ich meine seien wir ehrlich die meisten Spiele nutzten die Kerne sowieso nicht effizient aus ob das dann so ins gewicht fällt?
 
Benji18 schrieb:
prinzipiell würde ich dir da vollen und ganz zustimmen, jedoch hat gerade AMD die letzten Jahre mit Zen gezeigt das man hier in bereich der Kernanzahl stark in die Breite geht somit hat man definitiv heutzutage einen Kernüberschuss (wie man ja hinlänglich sieht schaffen es die meisten SW Entwickler nicht mal ordentlich mehr als die 4 Kern auszulasten).
Das ist dafür aber ziemlich egal denn es geht hier um ein Problem für das es mit DirectX 12 seit nunmehr fast 5 Jahren eine grundlegene Lösung gibt.
Damit gibt es also gleich 2 Möglichkeiten es ohne diesen Zirkus anzugehen der die Kosten einfach nur auf einen anderen abwälzt.
1. man legt das Spiel so aus das es mit den API Beschränkungen klar kommt
2. man wechselt auf die API die den Anforderungen gewachsen ist.

Was hier stattfindet ist am Ende genau das Gleiche was wir im Anwendungsbereich im bezug auf Intel sehen.
Erforderliche Investitionen in performante Lösungen werden verschleppt weil es mit dem Marktführer schnell genug läuft.

Wenn den Kunden nicht interessiert was dahinter steckt dann interessiert ihn offensichtlich auch nicht welche Performance er mit der Lösung dieser Performancebremse hätte und erst recht nicht was das für seinen Geldbeutel bedeuten würde wenn er auf einmal mit deutlich günstigerer Hardware die gleiche oder gar bessere Leistung bekommt.

Die Kundschaft ist ignorant und träge geworden und das wird nur allso bereitwillig ausgenutzt.
 
Benji18 schrieb:
ergibt natürlich sinn, die Frage ist halt für mich, wie vernachlässigbar ist das solange die SW mit der Effizienten Ausnutzung von 8 + Kernern hinterher hinkt. Ich meine seien wir ehrlich die meisten Spiele nutzten die Kerne sowieso nicht effizient aus ob das dann so ins gewicht fällt?

Den Test habe ich mit einem 3950X gemacht. Der Effekt macht sich also mit allen Core Counts bemerkbar. Wie relevant das ist, kommt auf die GPU und die Settings an. Will man SotTR mit >120 FPS spielen, dann wirkt sich das negativ aus. Man sollte solchen Erkenntnissen aber nicht immer gleich mit der Praxiskeule kommen. Auch wenn es heute noch nicht praxisrelevant ist, kann es das morgen bereits sein.
 
  • Gefällt mir
Reaktionen: Benji18
Wadenbeisser schrieb:
Das lustige ist doch das die Sache erst aufflog weil es beim Kunden zu Auffälligkeiten bei hoher VRAM Auslastung kam und deshalb nachgeforscht wurde.
Es war also im Grunde genommen bereits damals ernst geworden bevor es öffentlich wurde, der Unterschied ist lediglich das die Masse die Kröte damals schluckte oder gar nvidia dafür belohnte und zur teureren 980er wechselte. Im übrigen war nvidia in den technischen Daten nie auf die kastrationsbedingte Spaltung des Speicher Interfaces eingegangen.
Nachdem die Sache aufflog hat Nvidia ja soweit ich das damals verstanden habe per Treiber ausgeschlossen, dass auf die langsam angebundenen 0,5GB zugegriffen wurde.
Ich finde es zwar nach wie vor verwerflich, dass die Karte mit 4GB VRAM beworben wurde aber als “Gesamtpaket“ hat die Karte eben gut funktioniert: Ordentliche Leistung bei niedriger Leistungsaufnahme und der Preis war auch noch in Ordnung.
Wadenbeisser schrieb:
Wie gesagt, in meinen Augen war bereits damals mehr als offensichtlich das der Wettbewerb tot ist und seither klettern mit jeder neuen Modell Generation auch kräftig die Preise.
Meiner Meinung nach gingen die Preise primär deshalb so weit hoch, weil AMD seit der R9 390X keine konkurrenzfähige Karte mehr in der Oberklasse mehr anbieten konnte.

Ob nun Fury, Vega oder die RX 5700: Nichts konnte mehr zur Highend-Klasse aufrücken.
Die Leistungsklasse oberhalb der RTX 2070 steht seit 2018 exklusiv bei Nvidia zur Verfügung. (Ab der 5700XT aben die 2070 Super aufwärts, die Vega VII lasse ich aus den vermutlich bekannten Gründen außenvor.)

Nvidia hat das verstanden und die Situation auch genutzt:
Viele haben ein festes Limit was sie bereit sind für eine Grafikkarte auszugeben:
Die werden in der Mittelklasse ausreichend bedient.
In der Oberklasse/Highend ist es aber vielen schlicht egal was die Teile kosten. Die wollen einfach das Beste (oder eine der besten). Ob die Karte nun 500€ oder 1500€ kostet ist dabei fast egal.
Das sieht man ja auch an anderen Branchen. (z.B. Smartphones.)
 
  • Gefällt mir
Reaktionen: v3locite und KlaraElfer
Xes schrieb:
Ich finde es zwar nach wie vor verwerflich, dass die Karte mit 4GB VRAM beworben wurde aber als “Gesamtpaket“ hat die Karte eben gut funktioniert: Ordentliche Leistung bei niedriger Leistungsaufnahme und der Preis war auch noch in Ordnung.

Das hat so toll funktioniert, dass wir im Großhandel riesige Retouren gekriegt haben, wo Leute die Karte mit Mangel zurückgeschickt haben. Man konnte es ihnen ja nicht mal vorwerfen, dass war schon irgendwie Betrug von nVidia.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Strikerking
ZeroStrat schrieb:
Den Test habe ich mit einem 3950X gemacht. Der Effekt macht sich also mit allen Core Counts bemerkbar. Wie relevant das ist, kommt auf die GPU und die Settings an. Will man SotTR mit >120 FPS spielen, dann wirkt sich das negativ aus. Man sollte solchen Erkenntnissen aber nicht immer gleich mit der Praxiskeule kommen. Auch wenn es heute noch nicht praxisrelevant ist, kann es das morgen bereits sein.
ok danke für die Info, das ist dann eine sehr interessante Erkenntnis

Wadenbeisser schrieb:
Die Kundschaft ist ignorant und träge geworden und das wird nur allso bereitwillig ausgenutzt.

du hast es kurz auf den Punkt gebracht :)
 
KlaraElfer schrieb:
Wenn ich die Leistung mit Pascal vergleiche, dann ist die "IPC" unter DXR teilweise 5 bis 6 mal höher, wie schneidet da RDNA1 ab, oder wie siehts unter Directx12 Ultimate aus?
Hmm, tut mir Leid wenn ich das so direkt sage, aber da fällt es mir ein wenig schwer, dich ernst zu nehmen. Ich werde es dennoch versuchen:
Die 1080 Ti hat eine Raytracing-Leistung von 1,1 GRays/s und die 2080 Ti eine von 10 GRays/s. Dazu passende Vergleiche der Spieleleistung kenne ich nicht, aber verwende mal die von dir genannten "5 bis 6 mal höher" als Spieleleistung. Dann wäre die IPC von Turing bei Raytracing 50% schlechter als bei Pascal, weil die zehnfache Leistung nicht voll ankommt. Aber für korrekte Zahlen bräuchte ich einen Benchmark.

Versteh mich nicht falsch. Ich stimme dir zu, wenn du implizierst, dass die IPC von der Anwendung abhängt, aber da hier klar sein sollte, woher die +1% kommen und worauf die sich beziehen, wirkt deine Aussage sehr wie Whataboutismus.
 
Element22 schrieb:
Ich hoffe sie wird gut und Nvidia muss mit ihren Preisen runter. Damit ich mir seit vielen vielen Jahren mal eine Nvidia Karte kaufen kann. So einen scheiß wie mit der 5700XT tue ich mir kein zweites mal an und wie die damit umgegangen sind war und ist eine frechheit. Auch wenn ich die letzte Nvidia Karte vor 2002 hatte, Ende gelände.
Ich weiß ja nicht was bei dir vorgefallen oder gewesen ist.
Oft lassen sich die Probleme aber recht einfach eingrenzen.
Auch wenn die Karte oft scheinbar Überempfindlich ist, muss es nicht immer an der Karte liegen.
Es ist halt so, das wegen dem allgemeinen Geschrei die allermeisten keine vernünftige Fehlersuche mehr machen, weil ist ja eh der "Scheiß AMD Treiber". Vielleicht mal auch das eigene System nach Unregelmäßigkeiten untersuchen fällt den wenigsten ein.
ZB. das bei einer höheren Bildfrequenz das Kabel höher belastet wird, wird gern ausgeblendet.
Ich zitiere mich mal selbst aus einem anderen Forum:
Da das Thema aber so hoch gekocht wurde, ist es für die meisten Leut einfach "die scheiß AMD Karte".
Ich habe jetzt ein paar Leuten bei der Fehlersuche geholfen und in etwa der hälfte lag es am oben genanten. Das Kabel war in der überzahl.
Treiber hat auch gebockt. Windows Fehler waren auch noch am Start und was dann noch übrig bleibt, ist meiner Meinung nach nicht diesen Aufriss wert, welcher oft veranstaltet wird.
Wenn Fehler da sind, (testweise) Freesync aus, Speicher runter takten, Riegel einzeln testen/benutzen, anderen / älteren Treiber installieren, anderes (hochwertigeres) Kabel testen.
Damit ist oft schon geholfen.
Aber vielleicht hast Du dein System ja schon gründlich untersucht, dann könnte es auch schlicht ein Garantiefall sein?
"Ende Gelände" finde ich dann doch ein wenig zu einfach.
 
  • Gefällt mir
Reaktionen: PS828
Xes schrieb:
In der Oberklasse/Highend ist es aber vielen schlicht egal was die Teile kosten. Die wollen einfach das Beste (oder eine der besten). Ob die Karte nun 500€ oder 1500€ kostet ist dabei fast egal.
Das sieht man ja auch an anderen Branchen. (z.B. Smartphones.)

Dann müssen diese vielen aber finanziell gut ausgestattet sein oder keine anderen Hobbys haben um sich jedes Jahr eine neue High End Karte zu leisten, die restlichen PC Komponenten kommen ja noch on Top.
Bei den Smartphones ist ja eher so, das diese über Pump gekauft werden und dazu noch als Statussymbol dienen.
Ich für mich könnte mir nicht vorstellen eine Grafikkarte auf Pump zu kaufen und als Statussymbol sehe ich sowas auch nicht, es ist ja nur eine PC Komponente die man noch nichtmal mitnehmen kann um damit anzugeben.
 
Overkee schrieb:
Ich glaube nicht, dass es AMD gelingt NVIDIA im High-End Bereich allzu stark unter Druck zu setzen. Aber vielleicht gibt es ja doch noch Wunder :D

Aber selbst wenn es gelingt kann, halte ich es nicht für besonders sinnvoll. Ich glaube AMD sollte sich auf Mainstream Karten für 1080p und 1440p konzentrieren mit gutem P/L-Verhältniss. So lassen sich am schnellsten Marktanteile zurückgewinnen

Wunder gibt es immer wieder - zuletzt 2012 mit der Radeon HD 7970 :)
 
Colindo schrieb:
Hmm, tut mir Leid wenn ich das so direkt sage, aber da fällt es mir ein wenig schwer, dich ernst zu nehmen.

Die Grundaussage war ursprünglich AMD sei Nvidia Architektonisch überlegen.
Dann hieß es auf einmal es gehe nur noch um die IPC, welche allerdings je nach workload massiv höher auf Turing als auf RDNA1 oder Pascal ist, gerade dann wenn Directx12 Ultimate Funktionen genutzt werden, wie Mesh Shader, Content Adaptive Shading, DXR und so weiter.

Colindo schrieb:
Dann wäre die IPC von Turing bei Raytracing 50% schlechter als bei Pascal, weil die zehnfache Leistung nicht voll ankommt.

80% schlechter.

Colindo schrieb:
Ich stimme dir zu, wenn du implizierst, dass die IPC von der Anwendung abhängt, aber da hier klar sein sollte, woher die +1% kommen und worauf die sich beziehen, wirkt deine Aussage sehr wie Whataboutismus.

Also wenn ich in Rasterbasierten Anwendungen 1% zurück bin, aber in Pathtracing, Raytracing meilenweit vorne liege, erschließt sich mir die Behauptung einer höheren IPC bei AMD wegen 1% nicht.


aldaric schrieb:
Das hat so toll funktioniert, dass wir im Großhandel riesige Retouren gekriegt haben, wo Leute die Karte mit Mangel zurückgeschickt haben.

Ja, klar, jeder hat seine GTX 970 umgetauscht. :D War ne richtig schlechte Karte und die Käufer waren alle Fanboys.
 
  • Gefällt mir
Reaktionen: ZeroStrat
Ladys and Gentlemen ich ich fasse mich mal kurz und versuche so kompakt wie möglich die momentane Gerüchtelage, sowie etwas gesunden Menschenverstand hier einfließen zu lassen.

Es wird wohl mindestens 3 Verschiedene RDNA2 Varianten geben, wobei ich mich hier bewusst auf NAVI 22 konzentriere, da er meiner Meinung nach der Gegenspieler zur RTX2080ti / RTX3080 sein wird.
Richtig gehört AMD's Mittelklasse wird allem Anschein nach mit NVIDIA's gehobener Oberklasse der letzten und der Oberklasse der kommenden Gen. konkurrieren.
NAVI 23, 240mm2, 40CU (2560)
NAVI 22, 340mm2, 56-64CU (3584-4096)
NAVI 21 (2X), 505mm2 (aka Sienna chichlid) 80CU (5120)

Die XBOX Series X hat einen SoC = 56CU (52 aktiv), 360mm2 (davon CPU / I/O = min. 60mm2) ergibt <=300mm2
Wenn jemand der Meinung ist das die verbaute GPU deutlich grösser als 300mm2 ist, dann bin ich auf die Argumentation bereits gespannt.

Wenn nun 56CU's nur 300mm2 benötigen wie viele CU's werden dann wohl in 340mm2 platz finden?
Ja richtig gerechnet es sind 64CU's

64/56=1.14 bzw. 300x1.14=342nmm2 (Da zum Beispiel der I/O nicht linear mit skalieren muss eher weniger)

OK dann wären wir bei den zu erwartenden Taktraten:
XBox (52CU) = 1825 MHz (Konsole limitirtes Power budget und muss dieses auch noch mit der CPU teilen>)
PS5 (36CU) = 2230 MHz (Dito)

Von einem Desktop NAVI 22 sind daher min. 2000 MHz zu erwarten.
Ich persönlich würde sogar eher annehmen das es bis zu 2200 MHz in der Spitze werden.

Aber ich gehe bei meiner Einschätzung lieber etwas konservativ an die Sache heran.
Daher hätten wir nun einen NAVI 22 mit 64CU (4096) und 2GHz Takt. (16.4 TFLOPS)

Jetzt wissen wir alle, das der Umstieg von GCN auf RDNA1 einen IPC Sprung von ca. 25% brachte.

Weshalb bei RDNA2 ein Sprung von 0-20% sicherlich als realistisch zu betrachten ist.

Aber auch hier gehe ich konservativ an die Sache ran und rechne mit 0%

Eine RTX2080ti FE hat 1635MHz / 4352 = 14.2 TFLOPS ---------> RTX 3080 (+10%)
RTX2080ti, 2GHz / 4352 = 17.4 TFLOPS ----------> RTX 3080 (+10%)

Wie man sieht konkurriert eine konservativ getaktete (2GHz) mit (IPC+0%) NAVI 22 mit einer relativ hoch getakteten (2Ghz) RTX2080ti.

Falls eines oder mehrere der positiven, von mir nicht berücksichtigten Szenarios eintreten würde: IPC z.B +10%
Takt 2.1-2.2GHz würde eine NAVI 22 sogar eine max. OC RTX2080ti (2.2GHz) ohne mit der Wimper zu zucken zersägen können.
(Stromverbrauch ca. 2/3?)
OC Varianten mit 2.2GHz wird es denke ich auf jeden Fall später noch geben.

Dies ist auch der Grund wieso NVIDIA der Arsch gerade auf Grundeis geht
NVIDIA's Oberklasse kann es nur mit AMD's gehobener Mittelklasse aufnehmen.

Noch Fragen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ReVan1199, PS828 und jemandanders
KlaraElfer schrieb:
Ja, klar, jeder hat seine GTX 970 umgetauscht. :D War ne richtig schlechte Karte und die Käufer waren alle Fanboys.

Wie immer kannst du nicht lesen. Wo sprach ich von jedem? Hör doch auf mir Dinge anzudichten, die ich nicht geschrieben haben. Ich sagte das wir viele Retouren hatten, nicht das JEDE verkaufte 970 zurück kam.

Ich muss dich mal fragen:

Wenn du so einen Kommentar absetzt, hast du da eigentlich körperliche Schmerzen, oder bist du wirklich von dem Schmarn überzeugt, der da hinten raus kommt ? :confused_alt:
 
  • Gefällt mir
Reaktionen: GINAC, Denniss, Blekota und eine weitere Person
Colindo schrieb:
[...]
@Locuza haben wir doch hier im Forum. Kannst du die Veränderungen, die du aus dem Treiber gelesen hast, noch weiter erläutern? Ist irgendwo schon erkennbar, was die Veränderungen bewirken?
Ich antworte mal allgemein von Kopf bis Fuß der Folie.

- Der Graphics Command Processor unterstützt den Patches nach zwei 3D Pipes.
Das ist an der Stelle auch ein wenig verwirrend, wenn man sich andere Patches anguckt bzw. Kommentare liest.
Z.B. hat der GCP seit GCN2 schon zwei 3D Pipes bzw. zwei Pipes.
Eine Pipe kann 3D(Draw) und Compute (Dispatch)-Befehle an das Shader-Array versenden, während die andere nur 3D(Draw)-Befehle ausführen kann.
Bei Navi10 finden sich auch patches zu zwei Pipes mit jeweils einer Queue, die eine Queue stellt die primäre Warteschlange dar, die andere eine Asynchrone.
Aber bei den Patches zu Sienna Cichlid wird bei der Featureauflistung der ME (Micro Engine = Graphics Command Processor) bei Navi10,12 und 14 von einer ME mit nur einer Pipe gesprochen und bei SC von zwei Pipes.

Ich interpretiere das an der Stelle mal so, dass die Hardware zwei gleichwertige Pipes besitzen wird und potentiell unter DX12/Vulkan zwei 3D-Queues zur Verfügung stehen könnten.
Wie bei Async Compute könnten Softwareentwickler zwei unabhängige 3D-Befehlsschlangen an die GPU senden und potentiell die durchschnittliche Auslastung erhöhen.

- Die Asynchronous Engines sind fast die gleichen, aber anstatt das jede Pipe 8 Queues unterstützt, sind es nur noch 4.
Wieso AMD das jetzt reduziert und vor allem bei einer großen GPU, erschließt sich mir nicht, ist aber auch praktisch egal.

- Die Kern-IP des Graphics Core ist auf 10.3 aktualisiert worden, gegenüber aktuellen Navis mit 10.1.
An der Stelle ist es auch interessant das es auch wirklich Hardware mit 10.0 und 10.2 gibt, die wurden extra im Code erwähnt.
Zumindest ab 10.3 sollte das Marketing von RDNA2 reden.
Die GFXID scheint mit dem IP-Level übereinzustimmen.
So lautet die bei Navi10 = GFX 1010, bei Navi 12 = GFX1011, Navi 14 = GFX1012, während Sienna Cichlid GFX1030 sein sollte.

- Bei xGMI/Infinity Fabric Link bin ich mir nicht ganz sicher, ob Navi21 das haben wird.
Im Gegensatz zu bisherigen Navi-Ablegern finden sich xGMI-Einträge beim Powerplay-Table und Referenzen zur Link-Geschwindigkeit.
Aber es gibt kein "setXGMI"-Eintrag, welcher eindeutig sagen würde, wenn Sienna Cichlid, dann gibts xGMI.
Ich habe es dennoch mal auf die Folie gepackt.
Nachfolgende Patches bringen vielleicht mehr Klarheit an der Stelle.

- Es gibt eindeutig nur GDDR6-Einträge bei Sienna Cichlid/Navi21, gut zu wissen und vielleicht teils überraschend, da es Gerüchte gab, dass AMD wieder HBM2 für den Topdog einsetzen würde, dass ist nicht der Fall.
Navi12 (RDNA1 mit 2560 ALUs wie Navi10) verwendet aber zwei HBM2-Stacks (=2048-Bit Interface).

- Es gibt zwei asymmetrische VCN-Instanzen, wo nicht genau ausgeführt wurde, welche Formate bei wem unterstützt werden.
VCN Instance 0 hat dabei scheinbar alles in Bezug auf De/Encode, während Instance 1 weniger Formate unterstützt und kein JPEG decoding beherrscht.
Aktuell (kann sich ändern) werden alle Decode-Befehle an Instanz 0 geschickt, während Encoding immer auf Instance 1 geschoben wird.

- Es gibt ganze 67 AVFS-Module gegenüber Navi10 mit 36.
Das werte ich primär als Fingerzeig Richtung breite GPU.
Ein Excavator-Core hatte z.B. 10 AVFS-Module, welche die Spannung und Frequenz beobachtet und gesteuert haben.
Sagen wir mal vereinfacht das pro WGP ein AVFS-Modul verwendet wird, dann sind das bei einer doppelt so breiten GPU, alleine deswegen schon deutlich mehr auf dem die.
In Bezug auf Power gibt es ein neues GPO-Bit (Graphics Power Optimizer), ich habe das bei kurzen Crosschecks nicht bei Navi10 gefunden, dass scheint neu zu sein.

- MxGPU bzw. SR-IOV für mehrere virtuelle Instanzen auf einer GPU wird unterstützt und es gab ein paar IP-Updates zum ATHUB, GFXHUB und in Bezug auf die SDMA-Engines, von denen es jetzt ganze vier gibt.
ATHUB scheint dabei ein Hub für I/O zu sein, welcher sich um die Adressen und Kommunikation bei PCIe und SDMA kümmert.
GFXHUB wird wohl irgendwelche 3D-IP angebunden haben und da ein bisschen verwalten.
Was genau da jetzt anders oder besser läuft weiß ich allerdings nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, Colindo und ZeroStrat
cookie_dent schrieb:
Ich für mich könnte mir nicht vorstellen eine Grafikkarte auf Pump zu kaufen und als Statussymbol sehe ich sowas auch nicht, es ist ja nur eine PC Komponente die man noch nichtmal mitnehmen kann um damit anzugeben.
Ich sehe ein Handy (für mich) auch nicht als Status Symbol an, kann mir aber gut vorstellen, dass eine RTX 2080Ti im Blingbling RGB Rechner für manche durchaus auch diesen Effekt erfüllt.
Nur weil man eine Grafikkarte nicht mitnehmen kann heist das ja nicht, dass man diese nicht wie z.B. hier im Forum in den Signaturen, auf Reddit in den PCMR Subs oder beim pralen vor den Clan-Kollegen zur schau stellen kann.
Als Hardcoregamer wäre die dickste aktuelle Grafikkarte für mich eher ein Statusobjekt als das neuste iPhone.
 
Locuza schrieb:
- Es gibt eindeutig nur GDDR6-Einträge bei Sienna Cichlid/Navi21, gut zu wissen und vielleicht teils überraschen, da es Gerüchte gab, dass AMD wieder HBM2 für den Topdog einsetzen würde, dass ist nicht der Fall.
Navi12 (RDNA1 mit 2560 ALUs wie Navi10) verwendet aber zwei HBM2-Stacks (=2048-Bit Interface).

Bist du da nicht vielleicht zu voreilig mit deiner Einschätzung das es sich bei Sienna Cichlid um Navi 21 (Big Navi) handelt.
https://www.guru3d.com/news-story/amd-sienna-cichlid-spotted-in-linux-kernel-patchesbig-navi.html
Sienna Chichlid.png
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben