News Radeon RX 6000: AMD-Benchmarks zeigen mehr als 60 FPS in 4K

pookpook schrieb:
Aber AMD macht immer später Optimierung mit die Treiber, bei Nvidia laufen die Karten meistens mit volle Leistung.

Das kann man auch anders beschreiben:
  • Nvidia hat beim Start optimale Treiber
  • AMD geht mit Treibern an den Start, die das Potential nicht ausschöpfen

Damit hat AMD Potential die Performance nach dem Release zu verbessern. Vom nachträglichen Einbauen einer zuerst nicht umgesetzten Optimierung kann auch die vorherige Generation profitieren. Denn man hätte sie schon damals umsetzen sollen.

Ein wichtiger Grund dafür ist die tiefe Krise die AMD durchgemacht hat. Sie mussten Leute entlassen und konnten nicht wie Nvidia neue Leute einstellen. Wenn ich mit zu wenigen Leuten an einer Aufgabe arbeiten muss, kann nicht das optimale rauskommen. Das hat auch andere Folgen: AMD musste tatenlos zusehen wie Nvidia Cuda etablierte. Auf der anderen Site hatten sie das riesige Glück, dass die Linuxtreiberentwicklung massgeblich von außen stehenden getragen wird.

Die späte Reifung ist schlecht für AMD. Das Fazit beim Release lautet "Nvidia xxx ist schneller". Dieses Fazit wird wahrgenommen und beeinflusst die Kaufentscheidung. Die Reifung wird erst in den Tests der Nachfolgegeneration sichtbar.

Seit 2017 erhöht AMD Schritt für Schritt die Entwicklungskapazitäten.
Deshalb darf man nicht von der Vergangenheit auf die Zukunft schließen.
Außerdem ist auch Vega ist nicht gereift.

Besonderheiten von Archtekturen führen unter Umständen dazu, dass neue entwickelte Spiele erheblich besser funktionieren als die bisherigen Spiele. Hier stimme ich Sentinel zu, dies kann bei Ampere passieren.

Deshalb zählt ausschließlich was bei den unabhängigen Test herauskommt.

Prognosen sind schwierig. Vor allem wenn sie die Zukunft betreffen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bikkje und pookpook
Vendetta schrieb:
In Sonys Fall wurde die APU ja sogar im Joint Venture designed und ich denke auch bei der Series X und S sieht es nicht viel anders aus.

Hm, ok, das ist auch eine Moeglichkeit. In dem Fall geht es nur um IP und Erfahrung.

Vendetta schrieb:
MS wird ja die APU sogar für ihre Cloud Server nutzen.

Das hoert sich etwas komisch an. In der Regel virtualisiert man seine Hardware, auch um Platz zu sparen. 1:1 die APU zu nutzen macht nur Sinn wenn es anders nicht geht.

Vendetta schrieb:
angeblich verdient AMD aber auch keine extremen Geldmengen bei den Konsolen.

Gross Marge wird da nicht dabei sein, aber es liefert einen konstanten, bzw. planbaren Cashflow. Das duerfte AMD den Arsch gerettet haben.

Vendetta schrieb:
Ich finde es schade, dass AMD dieses Wissen nicht mitnimmt und am PC Sektor Grafik-starke APUs produziert

So einfach ist das alles nicht. Mal abgesehen davon, dass der Markt dafuer nicht all zu gross ist, spielen natuerlich noch die Kosten rein. Damit kommt man dann be den Preisen an die sich nicht unbedingt lohnen. Sony und Microsoft koennen die Konsolenhardware erstmal querfinanzieren, AMD koennte das mit APUs nicht. Das groesste Problem ist im Desktop/Notebook aber die Speicheranbindung. Die Konsolen kommen mit GDDR an und haben mehr Bandbreite und niedrigere Latenzen als DDR das in abehbarer Zeit liefern koennte. Damit verhungert dir jede APU ab einer gewissen Groesse. Dann muesste man gleich noch HBM oder dergleichen auf die APU packen. Dann ist es aber nicht mehr wirtschaftlich.

Teralios schrieb:
Das Problem bei GCN ist gewesen, dass jeder dieser Befehle immer nur über eine »ALU« lief. Eine GCN bei CU braucht also immer 4 Threads um wirklich ausgelastet zu werden.

Das Problem war also bei GCN immer, dass man »genug« Werte hatte, aber statt den Wave64-Befehl auf alle 4 ALUs der CU aufzuteilen, wurde nur eine genutzt und deswegen brauchte ein Wave64-Befehl auch immer eben 4 Cycles.

Das klingt gar nicht mal so intelligent.

Teralios schrieb:
Der Treiber bei GCN war auf Wave64 ausgelegt, also theoretisch 1 Befehl pro CU, aber das hat halt nicht hingehauen, ich denke, dass da in GCN durchaus ein Hardware-Fehler vorlag. Mit RDNA hat man nun die ALUs von 16 auf 32 verbreitert und damit die benötigten Threads pro CU halbiert - von 4 auf 2 - und gleichzeitig die »IPC« verdoppelt pro Wave64-Befehl.

Das hoert sich so an als waere da was in Hardware schief gelaufen. Ansonsten macht das bei GCN wenig Sinn. Die Aufteilung haette wohl automatisch folgen sollen, aber es klappt nicht, oder es ist zu langsam.

Teralios schrieb:
Man arbeitete beim RDNA-Treiber auch wohl daran die Wave64-Befehle durch Wave32-Befehle um zu arbeiten, was dann auch erklärt, warum der Treiber am Anfang so »instabil« war.

Das wuerde einiges erklaeren. Sowas geht nicht von heute auf morgen und vor allem nicht ohne Probleme. Das erinnert mich so etwas an die Umstellung von 32 Bit auf 64 Bit. Nvidia hat da 1.5 Jahre gebraucht bis der Treiber nicht dauernd abgeschmiert ist.

Teralios schrieb:
Wenn sie nun die Transformation zu Wave32 beendet haben, macht die »WGP« als primäre Gruppe bei RDNA2 richtig Sinn, weil man dann auf gemischte Workloads sehr fein reagieren kann.

Denke wir werden bei RDNA 2 da auch noch weitere Optimierungen sehen. Ist bekannt wie weit die mit dem Treiber sind?

Teralios schrieb:
Genau. Der einfache Aufbau der SM hat bisher bei Kepler, Maxwell und auch Pascal sowie bedingt bei Turing dafür gesorgt hat, dass die Karten sehr Effizient sein konnte, während ein »Fehler« bei AMD dafür gesorgt hat, dass die Karte nicht wirklich auf Touren kam.

Der einfache Aufbau hatte durchaus seine Vorteile, aber man hat schon bei DX12 gesehen, dass er genauso seine Nachteile hat. Und er ist mittlerweile wohl am Ende angekommen. Bin mal gespannt was Nvidia jetzt in der naechsten Generation macht.

Teralios schrieb:
Und FP/INT als Workload ist nur ein »Teil« des Problems. 2 Befehle mit 64-Werten zu füllen ist schwerer, als einen Befehl. Und INT+FP Mixen, das wird pro Befehl wird verdammt schwer und da spreche ich nicht von der Hardware-Ebene, da brauchste einfach nur genug Bits für die Vorzeichen, die dann den »Schaltpfad« beim Ausführen bestimmen. Problem ist dann eher die Treiber-Seite. Man müsste genau schauen, wann bei welchem Shader »gleichzeitig« ein MUL, ADD, SUB, MAD usw. kommt und dann aus den Threads die Werte mischen. Na danke, das wird sich NVIDIA nicht aufbinden.

Ich glaube ich hatte das Thema schon mal mit wem anders. Nvidia hat sich hier selbst ein enormes Problem geschaffen, da solche Optimierungen ueberhaupt nicht skalieren. Falls sie wirklich in die Richtung gehen, und fuer die Generation bleibt nicht viel anderes uebrig, dann koennte es ploetzlich Nvidia sein, die im CPU Overhead vorne liegen.

Teralios schrieb:
Mehr Sinn würde es machen, wenn NVIDIA vermutlich ähnlich wie AMD von ihren »Wave64« und 64er Blöcken auf »Wave32« und 32-Blöcken geht und dann zwei SM zusammen schaltet, sodass man dann die Threads entsprechend feiner granuliert ihrer Workloads verteilen kann.

Das wuerde durchaus Sinn machen, aber man wird es fruehestens in der naechsten Generation sehen. Und dann kommt es immer darauf an wie es umgesetzt ist.

Teralios schrieb:
Das Problem ist eher, dass das viele dieser Journalisten nicht bei ihren Leisten bleiben (Schuster bleib bei deinen Leisten), sondern wegen Klicks anfangen die Informationen, ohne nötiges Hintergrundwissen, zu verarbeiten und darauf dann Mutmaßungen äußern, die dann eben sehr schnell falsch sein können.

Gut, das ist nicht nur bei Techseiten ein Problem. Da gibt es auch genug Newsseiten und dergleichen die absolut unterirdische Artikel absondern. Sobald man sich im Thema auskennt kann man meist nur den Kopf schuetteln. Journalisten scheinen dazu zu neigen eine gewisse Hubris zu entwickeln.

Teralios schrieb:
Wenn ich mir die Artikel der Seiten ansehe, wo die Redakteure keine »Quereinsteiger« sind im Bereich Informatik, sondern ein Informatik-Studium, Elektrotechnik-Studium und Co dahinter sind, waren dort die Einschätzungen zu Ampere wesentlich »vorsichtiger« und man sang nicht sofort den Abgesang auf AMD.

Wenig verwunderlich, da den Leuten klar ist, dass man nicht magisch die Shader verdoppelt und doppelte Leistung hat.

Teralios schrieb:
Aber CB muss ich hier in Schutz nehmen, CB hat anfangs »spekuliert«, aber sie haben hier nicht vorzeitig den Abgesang auf AMD gesunden wie ein bekanntes Spielemagazin in Deutschland, sondern einfach nur die Fakten vorgestellt, nicht mehr und nicht weniger.

Naja, sie haben keinen Abgesang auf AMD angestimmt, richtig, sie uebernehmen aber Nvidias Marketing und geben schoen dessen Werte an. Das reicht schon, dass sich Leute bestaetigt fuehlen. Aber gut, sollen sie machen.

Teralios schrieb:
Aber es verwundert nicht. Wenn einem das technische Verständnis fehlt, lässt man sich schnell von Zahlen blenden und wenn man die Zahlen nimmt, dann war Ampere halt echt ein Mörderbrett. ;)

Joah, das geht schnell... Ich frage mich nur wie man nicht automatisch skeptisch wird wenn jemand was von doppelten Shadern und doppelten TFLops erzaehlt. Da geht es eher um Plausibilitaet als sonst was.
 
.Sentinel. schrieb:
NVIDIA bürdet sich mit ihren Treibern immer schon deutlich mehr auf, als AMD, auch was das Queuing und die Steuerung in Richtung Hardware anbelangt.
Jaein, wenn ich mir die Hardware ansehe und auch die Probleme von DX11 und wie NVIDIA die Hardware anspricht, genau so wenn ich mir die Probleme von GCN ansehe und was sich mit RDNA1 geändert hat, woran AMD mit RDNA beim Treiber gearbeitet hat, aber auch welche Techniken in der letzten Zeit in den Fokus gerückt sind.

NVIDIA hat vor knapp 7 Jahren in ihren Treibern eine Schwachstelle der DX11 API »korrigiert« in dem sie den Treiber, besser, wie der Treiber die Drawcalls und damit verbunden auch die Shader an die Grafikkarte weiterleitet und verarbeitet. Der primäre Vorteil von NVIDIA war damals aber immer, dass eine SM ein »Thread« bearbeiten konnte. Man brauchte damals zwischen 15 - 16 Threads um die Karte perfekt auszulasten. Auch wenn sich NVIDIA hier mehr Arbeit im Treiber gemacht hat, eigentlich ist es jedoch immer noch recht einfach gewesen, weil die Hardware sich einfach ansprechen lässt.

AMD hätte damals auch die »DX11« Probleme per Treiber lösen können. Wir hören immer nur, dass da das »Hardware-Shedulig« Probleme machte, aber sieht man sich die Informationen der Tech-Sheets an, dann war das Hauptproblem: Die Wave64-Befehle, die im Treiber genutzt wurden, wurden nur auf einer Alu ausgeführt und benötigten dafür eben 4 Takte. Um alle 4 ALUs der CU zu nutzen, braucht es eben 4 Befehle, unabhängig ob Wave64, Wave32 oder Wave16.

Kurz jetzt als Einschub, ich denke ich weiß auch langsam warum man bei RDNA1 nicht ins Volle ging und warum man doch RDNA veröffentlichte. In manchen Tech-Papers wird eben angedeutet, dass der »Treiber« bisher mit Wave64 arbeitet und daher die Umstellung auf Vec32 eben bereits »44 % Impact« brachte bei der Leistung (2 Takte pro Vec32 ALU) und ebenso wurde - wie hier ja auch angebracht von einem anderen Mitglied - das man an der Umstellung auf Wave32. Solche Umstellungen sind schwerwiegbend und AMD kann sowas auch nur bis zu einem gewissen Punkt testen und man muss dann springen. Ich denke, AMD hat RDNA1 heraus gebraucht um zu sehen, wie weit sie sind und um dann Probleme zu beseitigen. Ich denke, die massiven Blackscreen-Probleme am Anfang von Navi haben genau auch damit zu tun. Man wollte möglichst viele Probleme und Fehler noch vor »RDNA2« finden und beseitigen.

Und genau diese Umstellung von Wave64 auf Wave32 beim Treiber könnten sich für AMD als Stärke erweisen. Vergiss bitte nicht: RDNA hält in Form der 5700XT mit der 2070 als auch der 2070S bei modernen Titeln durchaus mit. Bei Turing reden wir von 64 + 64 INT, der »INT«-Impact hat also bei Turing keine wirkliche Auswirkung, während eine 5700 XT diese »Einheiten« nicht hat, sondern eben nur die 2 * Vec32 (64). Selbst Turing kann also bei auf »Turing« optimierte Workloads sich trotz nominell 100% mehr ALUs nicht wirklich absetzen.

Warum? Und genau das habe ich dir nun versucht mehrfach zu erklären: Vektoren mit 64 Werte zu füllen ist komplizierter und schwerer als Vektoren mit 32 Werten zu füllen. Ich habe dir einen nächsten Hinweis schon geliefert: Wie viele Werte zusammen kommen hängen von der Szene ab, als Entwickler einer Engine kannst du sicher daran arbeiten, dass man möglichst nur noch FP-Workload hat. Gleichzeitig werden aber heutige Szenen von Spielen immer detaillierter. Früher hattest du in vielen Spielen wesentlich größere Fläche, auf die ein Shader angewendet wurde, entsprechend viele Daten kamen auch an, heute werden die Flächen jedoch immer kleiner, feiner und damit kommen auch pro Shader weniger Werte.

Man kann bei modernen Engine - unabhängig von FP und INT - heute eines sagen: Es werden immer mehr »Shader« (Programme) weil die Details zunehmen, dadurch werden es aber auch weniger werte die pro Shader berechnet werden. Und das ist ein Problem, dem kann NVIDIA nicht wirklich im Treiber begenen und das sind auch Probleme, die man nur bedingt in den »Engines« lösen kann, damit man immer genug Werte zusammen bekommt, um die beiden Threads einer SM perfekt auszulasten.

Also ja, man wird sicher in den Engine als auch im Treiber noch einiges machen können, es wird aber auch Eigenheiten geben, die man weder in der Engine noch im Treiber wird lösen können, sondern es kann einfach sein, dass die Pfade bei Ampere immer etwas »zu breit« bleiben.

Kacha schrieb:
Das hoert sich so an als waere da was in Hardware schief gelaufen.
Das ist meine Vermutung und wird mit den Aussagen in den Tech-Sheets zumindest angedeutet.
 
  • Gefällt mir
Reaktionen: ComputerJunge
Kacha schrieb:
Das hoert sich etwas komisch an. In der Regel virtualisiert man seine Hardware, auch um Platz zu sparen. 1:1 die APU zu nutzen macht nur Sinn wenn es anders nicht geht.

Es hat den Vorteil, dass Microsoft mit xCloud jederzeit 100% Kompatibilität zu den Konsolen gewährleisten kann und jede neue Konsole direkt als neue Hardware zum Streaming bereitsteht.

Wenn du xCloud nutzt, spielst du du auf einer Xbox Konsole, der einzige Unterschied dabei ist nur, dass sie woanders steht.
 
HAL8999 SP3 schrieb:
Nur stell Dir mal vor Du wärst AMD. Welches Performance Ziel würdest Du Dir selbst setzen?
a) 2080ti +10%
b) 2080ti +30%
c) 2080ti +40%
Ich würde überhaupt net nach ollem Kram schauen. Dito ist Ampere genauso oller Kram in 8nm.

AMD hat hoffentlich ein sehr gutes 7nm+ Verfahren und sollte sich auf Fps/W konzentrieren.
Dieser ganze Boost-Irrsinn hat ja beim Ampere-Launch zu instabilen Grakas mit sinnlosen Schuldzuweisungen geführt.
Da könnte AMD gerne mal bei ca. 850mV ne Grenze ziehen und einen Chip nahe am Sweetspot laufen lassen.
Das wäre ne ähnliche Verfahrensweise wie bei den CPU`s. Man muss net immer gleich in einer Generation vorbeiziehen, oft reicht auch die bessere Effizienz um intelligente Käufer anzulocken.

btw.
Zu den ganzen Tabellen und "ungefähr-hätte ich gern-Resultaten" gibts ne nette Anekdote bei TPU.
Der "sinnige" Vgl. von TPU selbst wurde von nem Leser im Forum gut beantwortet.
https://www.techpowerup.com/273150/...tpus-own-benchmark-numbers-of-comparable-gpus
https://www.techpowerup.com/forums/threads/disgraceful-article-about-rdna2.273218/unread

Man sollte am Besten die Deutungsversuche beenden, da 3% +/- für den intelligenten Käufer net
entscheidend sein werden. (eher die Frage, ob das NT gewechselt werden muss)
 
HAL8999 SP3 schrieb:
Nur stell Dir mal vor Du wärst AMD. Welches Performance Ziel würdest Du Dir selbst setzen?

a) 2080ti +10%
b) 2080ti +30%
c) 2080ti +40%

Also ich halte c) für plausibel, wenn man im High End Bereich mitspielen will

Wenn AMD davon redet (In Quartalspressekonferenzen und Investortagungen) auch im Gaming wieder an die Spitze wollen, müssen sie liefern. Und wenn sie dann nur unwesentlich schneller sind als die 2080 Ti, haben sie ein Problem. Denn es war jedem klar
  • dass Nvidia mit der neuen Generation erscheint und mehr als 15 % zulegt. Vor allem nach dem Nvidia die Ansagen von AMD gehört hat.
  • dass AMD sich mit dieser neuen Generation von Nvidia messen muss.

Wenn AMD knapp an Nvidia scheitert, kann Ihnen keiner einen Strick daraus drehen. Aber wenn es offensichtlich ist, dass AMD bewusst falsche Erwartungen geweckt hat, wirds teuer.

Also reden wir nicht von 10 % zur 2080 TI. Aber die sind auch vom Tisch.

Ab 20 % sage ich, könnte passen. Aber wieso bei 40 % aufhören, 50 % sind besser, ... . Irgend wann ist es reines Wunschdenken. Wenn es nun tatsächlich die 85 ... 90 % des 3080 sind, ist es auch gut. Man darf nicht vergessen, Nvidia hat bei der neuen Generation an den Namen gedreht.

Mein Bauchgefühl sagt mir, dass Mark Papermaster und Lisa Su eine andere Engineering-Kultur zu AMD gebracht haben. Es ist doch interessant wie gut AMD bei den CPUs die Ankündigungen einhält. Das klappt nur, wenn man weiß, dass die geplanten Änderungen an Architektur und Chipdesign das erwartete Plus an Leistung bringen. In der 4. Iteration der Zen-Architektur hat AMD noch einmal ordentlich die IPC erhöht.

Hat AMD dieses Know How nun auch bei den GPUs?
Es fällt auf, dass AMD gar nicht versucht hat, mit Navi das High End anzugreifen. Meine Meinung dazu ist, sie wußten aus Simulationen, dass sie mit Navi nicht an die 2080 rankommen oder dass sie eine zu große Chipfläche dafür brauchen. Also haben sie es gelassen. Auf der anderen Seite war Navi dringend notwendig um einen Fuß im Gaming zu behalten.

Ich denke, dass die RTG das Go für den großen Chip nur bekommen hat, weil sie ihn vernünfig auslasten können. Was mich jedoch bei allen Rechenspielen verunsichert: BigNavi soll im Vergleich zu Navi bei derselben Speicheranbindung die dopplte Anzahl der CUs haben. Und das bei der Vorgeschichte die CUs ab einer gewissen Grenze nur schlecht auslasten zu können. D. h. wenn RDNA2 trotz schmaler Speicheranbindung ähnlich wie Nvidia skaliert, wird es sehr interessant.
 
@ETI1120 Deine Posts werden besser der gefällt mir schon ganz gut....


ETI1120 schrieb:
Es fällt auf, dass AMD gar nicht versucht hat, mit Navi das High End anzugreifen. Meine Meinung dazu ist, sie wußten aus Simulationen, dass sie mit Navi nicht an die 2080 rankommen oder dass sie eine zu große Chipfläche dafür brauchen. Also haben sie es gelassen. Auf der anderen Seite war Navi dringend notwendig um einen Fuß im Gaming zu behalten.

Sehe ich ähnlich, dazu kam der damalige Waferpreis und die Tatsache das ein High End Angriff ohne RayTracing wohl nicht möglich ist.... das hätten alle Tester sofort bemängelt ... und die Fraktion Grün hier im Forum auch.. und sogar zurecht muss man sagen..
 
  • Gefällt mir
Reaktionen: Ebu85
MrNejo schrieb:
Doppelte Navi 10 Performance (daher auch der Name Navi 2X -> Meine Theorie)

Das hab ich nun auch bei einigen Youtubern schon gehört und frage mich, woher das kommt.

Für mich war und ist Navi 2X ein ganz normaler Platzhalter als Sammelbezeichnung für Navi21, 22, 23 ect.
Bei RDNA3 wird es dann Navi 3X heißen, wird man dann Gerüchte lesen, dass das Ding dreimal so schnell wie eine 5700XT sein soll?
 
  • Gefällt mir
Reaktionen: hongkongfui, Colindo und Sk3ptizist
Taxxor schrieb:
Für mich war und ist Navi 2X ein ganz normaler Platzhalter als Sammelbezeichnung für Navi21, 22, 23 ect.
Möglich ja
Teralios schrieb:
Wer sagt, dass RDNA3 dann als Navi 3X kommt. ;) Können ja den Codenamen wechseln. ;)
Taxxor schrieb:
das Ding dreimal so schnell wie eine 5700XT sein soll?
Zumal das ja dann „nur“ 50% über 2X und wären, aber ist doch am Ende auch egal. Namen sind Schall und Rauch, am Ende zählt was rauskommen.
 
  • Gefällt mir
Reaktionen: Ebu85
RIP NVIDIA
Ergänzung ()

ETI1120 schrieb:
Das kann man auch anders beschreiben:
  • Nvidia hat beim Start optimale Treiber
  • AMD geht mit Treibern an den Start, die das Potential nicht ausschöpfen

Die NVidia Treiber sind auch nicht mehr das gelbe vom Ei. Allein schon die unübersichtliche Oberfläche.
 
Zuletzt bearbeitet:
Teralios schrieb:
Das ist meine Vermutung und wird mit den Aussagen in den Tech-Sheets zumindest angedeutet.

Mich wundert es nur, dass das ueber mehrere Generationen nicht behoben werden konnte. Theoretisch sollte das innerhalb einer Generation moeglich sein, wenn es eben nur ein Hardwaredefekt war.

Bzw., zu deinen Mutmassungen. Ich habe auch das Gefuehl, dass RDNA ein riesen Testballon war und deshalb auch nur maximal Mittelklasse rauskam, da das Risiko sonst eben zu gross waere. Zum einen konnte man seine Treiberveraenderungen testen, zum anderen die Hardwareaendungen und gleichzeitig Erfahrung fuer die Konsolen sammeln.

xexex schrieb:
Es hat den Vorteil, dass Microsoft mit xCloud jederzeit 100% Kompatibilität zu den Konsolen gewährleisten kann und jede neue Konsole direkt als neue Hardware zum Streaming bereitsteht.

Wenn du xCloud nutzt, spielst du du auf einer Xbox Konsole, der einzige Unterschied dabei ist nur, dass sie woanders steht.

Prinzipiell ja, aber dann muss man genug vorhalten, auch wenn es nicht genutzt wird. Gleichzeitig kann man es nicht wirklich fuer was anderes nutzen wenn welche idle sind. Falls die Kompatibilitaet mehr kostet als das vorhande, ok. Aber da Microsoft eh den Weg geht alles auf den PC zu portieren wuerde es sich auch anbieten einfach Standard PC Hardware zu nehmen.

Taxxor schrieb:
Das hab ich nun auch bei einigen Youtubern schon gehört und frage mich, woher das kommt.

Für mich war und ist Navi 2X ein ganz normaler Platzhalter als Sammelbezeichnung für Navi21, 22, 23 ect.
Bei RDNA3 wird es dann Navi 3X heißen, wird man dann Gerüchte lesen, dass das Ding dreimal so schnell wie eine 5700XT sein soll?

Da wissen einige Wohl nicht wie Generationen funktionieren oder wollten irgendeinen Bullshit von sich geben fuer ein paar Klicks. Anders kann ich mir sowas nicht vorstellen.
 
ETI1120 schrieb:
Nvidia hat beim Start optimale Treiber
NVIDIA hatte lange Jahre »optimale« Treiber vom Start weg, weil NVIDIA nun quasi seit über 10 Jahren die gleiche Architektur-Familie benutzt, die oft nur gezielt an bestimmten Stellen überarbeitet wurde, doch sie sind alle Nachfahren der G80-Architektur von 2007 aka Tesla. Die erste große Änderung der Architektur war Kepler 2012, man stellte von einem asynchron getakteten Shader-Design auf ein mit der restlichen GPU synchron getakteten Shader. Der nächste große Umbruch war dann nun Turing und nun eben »Ampere«, wobei der Umbruch auf Turing aufbaut.

AMD hat nun wirklich 3 große Umbrüche mit gemacht, auch wenn GCN zu RDNA durch dieselbe ISA zumindest etwas »milder« war. TeraScale mit VLIW5, Anpassung an VLIW4, GCN als großer Umbruch mit vollständig neuer ISA und nun RDNA, der nun mit RDNA2 vollständig vollzogen wird.

NVIDIA hat mit G80 wirklich eine tolle Grafikkarte abgeliefert und eine sehr gute Grundlage für die folgenden Jahre und eine sehr gute ISA. Das hat NVIDIA auch bei den Treibern sehr geholfen, weil sie immer nur auf die Detailänderungen der neuen Architektur hin anpassen mussten.
 
  • Gefällt mir
Reaktionen: Colindo
ETI1120 schrieb:
Wenn AMD davon redet (In Quartalspressekonferenzen und Investortagungen) auch im Gaming wieder an die Spitze wollen, müssen sie liefern. ....
Mein Bauchgefühl sagt mir, dass Mark Papermaster und Lisa Su eine andere Engineering-Kultur zu AMD gebracht haben. Es ist doch interessant wie gut AMD bei den CPUs die Ankündigungen einhält. Das klappt nur, wenn man weiß, dass die geplanten Änderungen an Architektur und Chipdesign das erwartete Plus an Leistung bringen. In der 4. Iteration der Zen-Architektur hat AMD noch einmal ordentlich die IPC erhöht.

Hat AMD dieses Know How nun auch bei den GPUs?

Ich denke, dass die RTG das Go für den großen Chip nur bekommen hat, weil sie ihn vernünfig auslasten können. Was mich jedoch bei allen Rechenspielen verunsichert: BigNavi soll im Vergleich zu Navi bei derselben Speicheranbindung die dopplte Anzahl der CUs haben. Und das bei der Vorgeschichte die CUs ab einer gewissen Grenze nur schlecht auslasten zu können.
AMD reicht eine iterative Annäherung an die Spitze= genau wie wie den CPU`s.
RDNA2 hats relativ leicht die Effizienzkrone zu erringen, analog Ryzen 3000.
Die RTX3080GA102-20GB wird wohl noch ca. 15W mehr brauchen als die 10GB-Variante.
Vermutlich ist die RX6800-16GB GDDR6 incl. I/O also wesentlich sparsamer, vom besseren Prozess für den Chip mal ganz abgesehen.
(Perf.krone u.U. dann halt erst später mit RDNA3@5nm-MCM, falls net gerade jetzt ne zusätzliche XTX-LC kommt, was dann nur fürs Image wäre)

zwecks Shaderauslastung der großen Chips:
Die Speicheranbindung reicht durch den neuen Cache anscheinend. Deswegen war ja der COD MW- Bench dabei,
um mal etwas Streaming zu zeigen.

edit: alternativ
Wer dieses Jahr keine RTX 3080 oder RX 6800 geliefert bekommt, Der sollte evtl. noch auf Super warten.
(traditionell wird zw. Weihnachten und Sylvester am Meisten gespielt, danach ist das Problem net mehr so dringend)
NVIDIA Reportedly Moving Ampere to 7 nm TSMC in 2021 | TechPowerUp

edit2: Wer net unbedingt MAXED braucht, kommt mit jeder o.g. Graka ins Ziel 4k60fps.
Soo schlecht wird RDNA2 vermutlich net laufen, wenn man die Konsolen hernimmt:
Dirt 5 mit bis zu 120 Fps auf der Xbox Series X: Test zeigt Unterschiede der Grafikmodi
 
Zuletzt bearbeitet:
Einige Quellen sprechen ja davon, dass AMD bei seiner Preview eine RX6000 GPU mit 72 aktiven CUs gezeigt hat.
Bin mal gespannt ob AMD sein Portfolio ähnlich wie Nvidia abgrenzt, indem eben eine potenzielle RX6800 als "Flagship" deklariert wird und eine 6900 als HALO-Produkt firmiert.
 
  • Gefällt mir
Reaktionen: Zertruemmerdog
SKu schrieb:
Einige Quellen sprechen ja davon, dass AMD bei seiner Preview eine RX6000 GPU mit 72 aktiven CUs gezeigt hat.
Bin mal gespannt ob AMD sein Portfolio ähnlich wie Nvidia abgrenzt, indem eben eine potenzielle RX6800 als "Flagship" deklariert wird und eine 6900 als HALO-Produkt firmiert.
zu wünschen wäre es.
 
SKu schrieb:
Einige Quellen sprechen ja davon, dass AMD bei seiner Preview eine RX6000 GPU mit 72 aktiven CUs gezeigt hat.
Bin mal gespannt ob AMD sein Portfolio ähnlich wie Nvidia abgrenzt, indem eben eine potenzielle RX6800 als "Flagship" deklariert wird und eine 6900 als HALO-Produkt firmiert.
So wie ich gehört habe, wurde von 60-72CUs gesprochen

Ich hoffe ja eher, dass das ein 250W Modell für 600€ war(6800?), dort noch ein normales Produkt mit 300W für 700€ 5-10% drüber liegt(6800XT?) und darüber dann noch das HALO-Produkt mit AIO und >300W für 1200€, das noch mal 5% rausholt(6900XT?).
 
Taxxor schrieb:
So wie ich gehört habe, wurde von 60-72CUs gesprochen

Ich hoffe ja eher, dass das ein 250W Modell für 600€ war(6800?), dort noch ein normales Produkt mit 300W für 700€ 5-10% drüber liegt(6800XT?) und darüber dann noch das HALO-Produkt mit AIO und >300W für 1200€, das noch mal 5% rausholt(6900XT?).

Denke nicht, dass AMD die Preise so konservativ gestalten wird. Bei Navi wollten sie die Preise schon höher ansetzen, nur kam ihnen Nvidia zuvor. Die Preise werden sich irgendwo leicht unterhalb von Nvidia ansiedeln.
Ob sich die Gerüchte bewahrheiten sollten, wird man erst am 28.10 sehen. Dr. Su sprach ja bewusst von "expected performance with the 5900X and our RX6000 Series GPU." Denke auch nicht, dass die GPUs unterhalb der 6900 mit mehr als 12GB VRAM kommen werden. Dass sich eine potenzielle 6900XT(X) zwischen 3080 und 3090 setzen könnte, wird zumindest mit der 3080 20GB Version bestärkt.
 
Taxxor schrieb:
So wie ich gehört habe, wurde von 60-72CUs gesprochen

Ich bin sehr skeptisch was die Zuverlässigkeit der Leaks zu RDNA2 angeht.

Und selbst, wenn die Demo auf der 72-CU-Karte lief, muss es nicht bedeuten, dass AMD initial mit der 80-CU-Karte kommt. Außerdem ist unklar, ob RDNA2 im Bereich 64 ... 80 CUs skaliert.

Taxxor schrieb:
Ich hoffe ja eher, dass das ein 250W Modell für 600€ war(6800?), dort noch ein normales Produkt mit 300W für 700€ 5-10% drüber liegt(6800XT?) und darüber dann noch das HALO-Produkt mit AIO und >300W für 1200€, das noch mal 5% rausholt(6900XT?).

Das Staffeln in Verbrauch bringt nur etwas, wenn Karte bei größerem Verbrauch entsprechend mehr Leistung liefert. Wie gut skaliert die RDNA2 mit mehr als 40 CUs? Wieviel Spielraum hat AMD bei den Frequenzen? Erreicht RDNA2 die Performance der 3080? Muss AMD über den Sweetspot gehen, um die 3080 einzuholen?

Es wäre wünschenswert für alle, wenn AMD zumindest die 3080 übertreffen könnte. Dann gäbe auch in diesem Segment wieder ernsthaft Wettbewerb. Aber das Leben ist kein Wunschkonzert

SKu schrieb:
Denke nicht, dass AMD die Preise so konservativ gestalten wird. Bei Navi wollten sie die Preise schon höher ansetzen, nur kam ihnen Nvidia zuvor. Die Preise werden sich irgendwo leicht unterhalb von Nvidia ansiedeln.
Letztes Jahr war bei der Vorstellung von Navi klar, dass der Konter von Nvidia kommt. Deshalb hat es mich schon gewundert, dass AMD zur Vorstellung auch gleich die Preise genannt hat. Ich halte es für möglich dass AMD diese Preise genannt hat, damit Nvidia den Preis für die 2070S nicht zu tief ansetzt. Letztes Jahr hätte es keinen Sinn ergeben, Nvidia preislich stark zu unterbieten. Ich bezweifle, dass AMD die Kapazitäten hatte, um einen größeren Marktanteil zu erreichen.

Man kann meines Erachtens aus den Preisen von Navi nicht auf die Preise von Navi 2 schließen. Wenn AMD die Kapazitäten hat, um den Marktanteil zu vergrößern, wird AMD die Preise niedriger ansetzten. Wenn AMD für RDNA2 nur begrenzte Kapazitäten hat, wird sich AMD bei den Preisen von Nvidia ansiedeln.

Bei dem Thema Kapazität ist klar, das AMD dieses Jahr mehr Waferstarts je Woche als letztes Jahr hat. Aber AMD liefert dieses Jahr mehr CPUs und APUs aus. Hinzu kommen die SOCs für die Spielkonsolen. Es gibt keine klaren Zahlen, um wieviel die Kapazität wächst. Außerdem gab es Hinweise, dass die Versorgung mit den Notebook-APUs in diesem Sommer nicht optimal war.
 
  • Gefällt mir
Reaktionen: Colindo
Zurück
Oben