News Radeon RX 6000: AMD-Benchmarks zeigen mehr als 60 FPS in 4K

KlaraElfer schrieb:
Dass ihr euch immer solche Hoffnungen macht, ist mittlerweile schon lächerlich.
Die einzige Person, die sich hier gerade lächerlich macht, das bist alleine du. Ich weiß, warum ich dich blockiere und ehrlich gesagt bereue ich gerade den Klick bei einem Zitat einer anderen Person, weil es mich interessierte, was da steht. Mangelnde Lesekompetenz und miserables Textverständnis sind keine exklusiven Probleme der Jugend und den besten Beweis hast du mal wieder geliefert.

Mein Geschwafel von »Min-FPS« steht schon im Konjunktiv und im nächsten Absatz schreibe ich sogar schon, dass das eine Spinnerei ist. Eine Fantasterei. Ich gebe sogar an, dass alles nur Mutmaßungen sind. Ich habe dir nun extra für alle Begriffe die Definitionen verlinkt, damit du an deinem Textverständnis arbeiten kannst.

Sogar im weiteren Verlauf gebe ich an, dass ich die »Hoffnung« mancher hier nicht teile, dass es sich nur um eine 6800XT oder nur 6900 handelt, sondern dass ich hier selbst eher die 6900 XT vermute bei den Benchmarks. Eben weil ich 0,9 * 3080 = 6900XT erwarte.

Seit der Vorstellung der ersten Ampere-Karten (A100) schreibe ich, dass AMDs Chance davon abhängen, was NVIDIA als Gaming Ampere vorstellt und sollte ein GA100 um DP beschnitten, dafür um RT-Cores erweitert werden, AMD nicht wirklich herankommen wird. Dann kamen Gerüchte auf, dass ein GA102 ca. 5376 Shaders hat und da habe ich geschrieben, dass man an eine »Titan« herankommen kann, aber diese nicht überholen wird.

Als dann die Gaming-Ampere mit dem doppelten »Shader«-Count und man Hinweise gab, dass die 3070 die 2080 Ti erreicht, habe ich von Anfang an geschrieben: 3070 wird geschlagen, die 3080 ist durchaus ein realistisches Ziel. Was hast alleine du hier dann teilweise für unfundierte Aussagen abgelassen. Keine Ahnung von Softwareentwicklung, keine mathematischen Grundlagen, noch nicht mal die simplen Regeln der Logik beachtend. Aber wegen den dem großen Shader Impact haben hier so viele schon davon gesprochen, dass man ja nicht mal die 3070 schlagen wird.

Was hab ich mir hier die Finger wundgeschrieben, versucht die simplen Grundlagen der SM-Auslastung Turing als auch dem A100 zu erläutern. Welche Probleme existieren. Aber nein, du und ein paar andere meinten weiterhin, dass ja die 3080 uneinholbar ist und man mit Glück nur die 3070 schafft und was haben hier manche davon schwadroniert, dass ja die 3080 die 2080 Ti um Welten abhängt.

Und dann? Dann kam die Ernüchterung. Die 3080 war plötzlich im Schnitt nur noch 30 % schneller und die 3090 nur 10 % sich von der 3080 absetzt im Mittel. Nichts mit den Fantastereien einiger die davon sprachen, dass die 3090 100 % vor der 2080 Ti liegt, nicht davon, dass die 3080 ja bis zu 100 % von der 2080 Ti liegt (ja ich weiß, NVIDIA behauptete selbst nur 2080 + 100%).

Meine Einschätzung blieb weiterhin: Die 3070 wird geschlagen, die 3080 ist ein realistisches Ziel.

Jetzt kamen immer mehr Gerüchte auf wegen dem Infinity Cache, wie gut die Karte sein könnten. Statt dass ich mich aber »Hypen« lasse, betrachte ich lieber die Eckdaten, schau mir die Hardware an, die Struktur, frage Freunde und Bekannte, dass ich mir mal kurz die Karten ausleihen kann oder bei denen, die in Unis arbeite, mal ein kleines Fenster bekomme um simple »Skripte« auszuführen. Sammel es, lese mir mal das eine oder andere Paper in der Freizeit durch, weil es mich interessiert.

Auch hier in dem Thema - wo nun wirklich einige die Hoffnung auf einen 3090 Killer haben - bleibe ich realistisch, schriebe nur: Meine Einschätzung verdichtet sich: 3070 wird geschlagen, deutlich. Die 3080 ist das Ziel. Jetzt gehe ich einmal auf die »Hoffnung« mancher ein, schreibe sogar extra dazu, dass das was ich Schreibe »Spinnereien« sind und dann kommt so jemand wie du, der selbst sogar zugibt, dass er sich nicht wirklich damit beschäftigt, der mir erklären will, dass die Hoffnung, die man sich macht »lächerlich« ist?

Sorry, aber tu mir bitte einen gefallen, besser mach das, was du mal angekündigt hast und blockiere mich. Das ist sowohl für dich als auch mich besser. Ich gehe sehr differenziert an die Sachen hier ran, da machen solche »Trolleinwürfe« wie von dir einfach überhaupt keinen Spaß.

Vendetta schrieb:
Da ergibt sich für NV aber ein anderes Problem. Die Konsolen werden in der Regel Lead Plattform werden bzw. werden die Entwickler auf diese besonders optimieren, würde mich nicht wundern wenn RDNA 2 mit der Zeit immer mehr Fahrt aufnimmt und auch sehr gut altert.
Wenn alles stimmt, was ich an Informationen so finde, gerade was die XBox angeht, könntest du sogar recht haben. Die XBox soll nun nicht nur mehr einen »DX«-Dialekt verwenden, sondern wirklich DX12. Dazu kommt nun Windows 10 als vollständiger Unterbau und darauf aufbauend auch Treiber und Co.

Gleichzeitig darf man aber nicht vergessen, dass man bei den Konsolen eben eine feste Struktur hat und auch weiß, welche Hardware vorhanden ist. Für Engine-Entwickler ist klar, dass die XBox 52 CU in 26 WGP hat. Entsprechend kann man den Render optimieren, dass er passend die Threads öffneten. Ebenso weiß man, dass man - wenn ich falsch liege, bitte korrigieren - 6 Kerne hat, die man verwenden kann.

Man darf nie vergessen, dass man bei einer Konsole, auch wenn die gleiche »Hardware« verbaut wurde, die gleiche Software verwendet wird, man an wesentlich mehr Stellschrauben optimieren kann und die Architektur der Engine sowohl auf die Software-Architektur als auch die Hardware-Architektur der Konsole optimieren kann.

MS kann und wird mit der Zeit den »Compilier« für die XBox Series X verbessern. MS wird mit der Zeit den »Treiber« zusammen mit AMD für den GPU-Part optimieren.

Bei einem PC geht Leistung durch die flexible Softwarestruktur verloren. Am PC muss man immer beachten, dass verschiedene Karten im Rechner sein kann und Optimierungen, die bei der Konsole funktionieren, selbst bei gleicher API könnten sich am PC negativ auswirken und andersherum.

Vendetta schrieb:
Man sah ja an den betagten RX290/380/480/580 die ja effektiv ähnlich und fast gleich in den currentgen Konsolen zu finden sind, wie gut die gealtert sind.
GCN ist relativ gut gealtert, weil GCN1.0 bereits viele Entwicklungen der folgenden Jahre vorweggenommen hat.

Die »Schwächen« von GCN kommen dabei auf der Konsole nicht so zum Tragen, eben weil man hier Treiber, Engine usw. besser aufeinander optimieren kann. Auf dem PC war es aber eben was anderes.

Ich find in den Dokumentationen zu den späteren GCN und auch frühen z.B. Befehle, damit man alle 4 Vec16-Alus nutzen können sollte (Wave32, Wave64), aber es gibt da wohl ein Hardware-Problem, weswegen das nie wirklich funktionierte, sondern doch nur eine Vec16-ALU genutzt wurde. Genau so konnte es schnell passieren, dass bei bestimmten Funktionsaufrufen die eine SALU für bestimmte Befehle blockiert war und dann die anderen Shader (Programm) warten mussten, bis diese wieder frei war usw.

Das ist ein unglaublich komplexes Thema und ich kann dir die Probleme aufzeigen, aber am Ende bin ich da auch nur ein belesener Laie, der eben gerne mal experimentiert. ;)
 
  • Gefällt mir
Reaktionen: Markenbutter, Sephiroth51 und ETI1120
Man kann so herrlich spekulieren.

Klar ist, dass Nvidia mit der 3080 anders agiert als mit der 2080 oder der 2080S. Die 2080S musste nur rausgebracht werden damit der Abstand zur 2070S gewahrt bleibt. Die 2080 TI war so schnell,dass auch die 2080S ausreichend weit weg war.

Wieso hat Nvidia bei der 3080 diesen Leistungspunkt gewählt? Sie liegt relativ nahe an der 3090. 100% Preisausfschlag für ca 15 % mehr Performance. Die 3090 ist im Vergleich zur 3080 somit nur für Leute interessant, die unbedingt das schnellste wollen oder die die Karte fürs Geld verdienen einsetzen. Darüber hinaus läuft die 3080 für Nvidia untypisch nicht im sweetspot.

Wenn man sich sicher ist, dass Nvidia exakt weiß was AMD liefert, dann ist klar dass die AMD-Karte im Bereich der 3080 liegt. Gleichauf oder maximal 5 % dahinter. Schneller eher nicht, da sonst die 3090 anders plaziert worden wäre.

Nvidia hat Navi auf Herz und Nieren geprüft. Sie kennen die Aussagen von AMD zu RDNA2. Sie kennen die Einträge zu den "Fischen" in den Opensource-Treibern. Nvidia weiss wie die eigenen Karten skalieren. Nvidia versteht die GPU-Technologie und das hat Potential von alternativen Konzepten untersucht.
Also kann Nvidia relativ gut einschätzen was AMD in petto hat.

Aber wie exakt die Karten von AMD performen weiß Nvidia nicht. Sie haben eine Bandbreite in der sie AMD erwarten. Es kann also gut sein, dass es so kommt wie bei Vega. Damals kam AMD an der unteren Grenze ihrer Erwartungen raus. Hier bietet die schmale Speicheranbindung Potential für negative Überraschungen.

Aber am 8. Oktober hat AMD den Hinweis gegeben, dass das Gesamtpaket funktioniert.

Es ist aber schon interessant. Binnen eines Monats wurde aus einem "WAHNSINN!" eine Diskusion wie die nächsten Karten von Nvidia aussehen. Ohne dass AMD geliefert hat.
 
SKu schrieb:
danke, tatsächlich, aber komisch, dass da sonst keine Daten hinterlegt sind
und der Link zu der PDF bei "further reading" führt nur zu einer PDF-Datei zu RDNA(1) bzw. Navi ohne Big

naja, mal abwarten, die Einträge dort sind mit vorsicht zu genießen, aber dennoch manchmal interessant
letztens hatten sie schon einen Eintrag zu einer 3080Ti, der einen Tag später wieder gelöscht/nicht mehr verfügbar war...
 
Wird echt Zeit das Big Navi kommt.Für FullHD hat meine 5700XT gut gereicht,aber jetzt für WQHD brauche ich einfach mehr Leistung.

Kann es kaum abwarten!
 
Teralios schrieb:
Gleichzeitig darf man aber nicht vergessen, dass man bei den Konsolen eben eine feste Struktur hat und auch weiß, welche Hardware vorhanden ist. Für Engine-Entwickler ist klar, dass die XBox 52 CU in 26 WGP hat. Entsprechend kann man den Render optimieren, dass er passend die Threads öffneten. Ebenso weiß man, dass man - wenn ich falsch liege, bitte korrigieren - 6 Kerne hat, die man verwenden kann.
Selbst das kann sich als Vorteil für RDNA2 auf dem Desktop auswirken, da die Engines durch die Konsolen dann ja schon die grundlegenden Anpassungen haben, um die CUs/WGPs optimal auszunutzen. Es dürfte sicherlich einfacher sein, den Code so zu erweitern, dass er variabel mit der unterschiedlichen Anzahl auf den Desktop-GPUs skaliert. Eine entsprechende Optimierung für Ampere bräuchte dagegen potentiell einen komplett anderen Ansatz.
Je nachdem wie viel zusätzlicher Aufwand das wäre, wird es bei vielen Entwickler vermutlich eine Kosten/Nutzen Abwägung geben, ob man die ohnehin vorhandene RDNA2-Optimierung der Konsolen auf dem Desktop beibehält und evtl. etwas anpasst oder auch zusätzlich noch eine Ampere-Optimierung programmiert.
 
mibbio schrieb:
Selbst das kann sich als Vorteil für RDNA2 auf dem Desktop auswirken, da die Engines durch die Konsolen dann ja schon die grundlegenden Anpassungen haben, um die CUs/WGPs optimal auszunutzen.
Widerspreche ich auch nicht.

mibbio schrieb:
Es dürfte sicherlich einfacher sein, den Code so zu erweitern, dass er variabel mit der unterschiedlichen Anzahl auf den Desktop-GPUs skaliert.
Das ist der Knackpunkt. So einfach ist das nämlich leider nicht und hier kommt dann halt auch der Treiber mit ins Spiel.

RDNA2 und AMD wird mit Sicherheit nun davon profitieren, dass bei der neuen XBox DX12 als API genutzt wird und man wird viele Optimierungen aus den XBox-Spielen auch zum PC bei AMD mitnehmen können, aber auch AMD wird hier noch weiter ihre Hausaufgaben bei ihrem Treiber machen müssen.
 
Teralios schrieb:
Widerspreche ich auch nicht.
War auch nicht als Widerlegen deiner Aussage gemeint, sondern eher als Ergänzung. Die grundlegende Optimierung ist durch die fest definierte Hardware auf den Konsolen "einfacher" und kann als Basis für Desktop-RDNA2 genutzt werden gegenüber einer Optimierung für Ampere.
 
  • Gefällt mir
Reaktionen: Sephiroth51
Die Strategie ist da ganz klar ersichtlich:

Man kommt nicht an nVidia ran, zumindest nicht so sehr, als das man als Kunde sagen kann jawoll ich warte definitiv weil ich die gleiche Leistung bekomme und evtl günstiger oder stromsparender unterwegs bin.

Würde man jetzt schon ganz klar rauslassen das man (auch wenn nur etwas) hinter nVidia liegt, dann würden die Leute die das Geld schon Bereit liegen haben, sich vom Kopf her schon für die nVidia Karte entscheiden und sich AMD aus dem Kopf schlagen. AMD käme Garnicht mehr in Frage für den Kauf, auch wenn man dennoch verfolgen würde, wie die Karten abschneiden.

Um diese Kunden eben zum Maximalen warten mit einer Entscheidung zu zwingen, werden nur ungenaue Anhaltspunkte gegeben, es könnte aber es könnte auch nicht so und so sein.

Wenn die Kaufentscheidung im Kopf schon gefallen ist, dann kann die AMD Karte noch so vernünftig sein und bei -10% Leistung auch -%30 Kaufpreis haben, die meisten Menschen werden es nicht kaufen.

Wenn man aber erst am Release erfährt, dass die Karte 10% langsamer ist, man sich aber 50-150€ sparen könnte und die Karte genau so schnell oder schneller als eine Nvidia haben kann, dann liegen die Chancen gut das zu AMD gegriffen wird.


Bei der Strategie geht es also lediglich darum, die Leute dazu zu bringen im Kopf bzw. Unterbewusst noch keine Kaufentscheidung Richtung Nvidia zu fällen und sie bis zum Release ausharren zu lassen.

-Ich gehe von 10-20% Weininger Leistung aus (unterhalb von UHD)

- 20% niedriger Kaufpreis

- bessere Effizienz/Stromverbrauch

Also für alle die kein UHD zocken möchten eigentlich optimal
 
  • Gefällt mir
Reaktionen: crypto.andy
.Sentinel. schrieb:
Es gibt Leute die seit Jahren drauf warten, dass AMD DEN Killer bringt und wieder voll ins High- End- Geschäft einsteigt.
Nee, die gibt es eher nicht. Eben, weil es AMD in den letzten Jahren nicht vermochte, im High End mitzuspielen. AMD hat zu keinem Zeitpunkt behauptet, dass sie einen Nvidia-Killer bringen.

.Sentinel. schrieb:
AMD teasert nun ihre stärkste Karte an, die die 3090 schlägt.
Dann ist es kein Teaser mehr. Dann hat man die Katze aus dem Sack gelassen und nimmt so nicht nur den Fokus von den CPUs, die man gerade vorgestellt hat, sondern die Luft aus der Präsentation am 28. So wie es AMD gemacht hat, spricht man sowohl über die CPUs als auch über die GPUs. Und man hat genau das Interesse geweckt, was Leute eventuell dazu bewegt, sich die GPU Präsentation noch anzuschauen. Ich denke, AMD schaut sich genau an, was es so an Gerüchten auf YT usw. gibt und hat entsprechend reagiert.

.Sentinel. schrieb:
Dann hätten sie bei dem Teaser keine Zahlen nennen dürfen und auch nicht sagen dürfen, dass das die Erwartungen sind, die die User bezüglich der 6xxx er Serie haben sollten.
Aussage ist, wir machen noch viel Optimierung bis Big Navi am 28.10 vorgestellt wird. Aber soviel können wir sagen, Stand jetzt kann Big Navi durchaus hohen Ansprüchen gerecht werden. Wie willst Du so einen Aussage untermauern, ohne Zahlen zu zeigen? Offenbar definiert AMD "hohen Anspruch" mit "mindestens 60 FPS in 4K bei sehr hohen bzw. höchsten Details". Und genau das haben sie gezeigt. Mehr wollten sie damit gar nicht verraten.
Zweite Aussage: Es ist die schnellste Chipgeneration, die wir je gebaut haben. Die einzige Erwartung, die man daraus ziehen kann, ist, dass alles, was AMD bisher gebracht hat, auch vom kleinsten Big Navi deutlich geschlagen wird. Von Nvidia war bewußt und explizit nicht die Rede.

.Sentinel. schrieb:
Sowas kannst Du machen, wenn Du vom Markt sowieso nicht mehr ernstgenommen wirst, weil Du dann damit nochmal explizit ein Ausrufezeichen setzt!
Ach, sieh an. In welcher Position befindet sich AMD denn seit Jahren gegenüber Nvidia und deren Community? Tenor hier auf CB zum Beispiel ist: "Jau CPUs sind mittlerweile sehr ok, aber in Sachen Grafikkarten können sie es einfach nicht." AMD wird nicht ernst genommen, weder von Kunden noch von Nvidia. Da wäre so ein Ausrufezeichen doch goldrichtig.

Ich betone nochmal, dass ich natürlich nicht weiß, welche Strategie AMD hier fährt und welche Leistung Big Navi bringen wird. Aber grundsätzlich zu behaupten, dass alles andere, als die stärkste Karte anzuteasern, nicht sinnvoll wäre, ist halt nicht sinnvoll. Es könnte eben auch anders sein, und die Leute, die glauben, dass es vielleicht nicht der größte Chip war, der geteasert wurde, haben auch Argumente, die dafür sprechen. Deswegen ist der Teaser eigentlich ziemlich gut, weil er so nebulös ist. Er richtet das Augenmerk auf den 28.10. und hat damit genau erreicht, was er sollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sephiroth51
SirMiles schrieb:
Unnötig langes Zitat durch Moderator entfernt
Die Karte ist auf niedrigeren Auflösungen tatsächlich schneller als in 4K (bezogen auf die 3080) -> 4K ist worst case, sie kostet weniger (aber nicht 20%), dein Dritter Punkt stimmt für die 6900XT. Es ist nicht die Top-Karte (die XTX wird wahrscheinlich 6950X, aber hier muss ich nochmal nachhaken) - die Entscheidung das Top-Modell so zu bringen (also bis Anschlag aufzudrehen, wenn gewollt) liegt an der 3090 und deren Performance und ist erst vor kurzem so entschieden worden.
 
Zuletzt bearbeitet von einem Moderator: (Unnötig langes Zitat durch Moderator entfernt)
Ich finde es interessant wie einige Leute 3 Zahlen sehen und daraus schließen, dass AMD bestenfalls bis auf 10-15 % an die 3080 rankommt.

Es sind 3 Zahlen ohne jeden Kontext. AMD hat sie nicht einmal in Relation zur 3080 gesetzt. Aussagekräfige (Herrsteller)benchmarks sparen sie sich für den 28. Oktober auf.

Warum war Vega eine Enttäuschung? Einerseits weil Vega zu langsam war, obwohl AMD die Frequenzen bis über den Anschlag noch oben trieb. Aber vor allem deshalb weil AMD zuvor suggerierte, sie würden die 1080 schlagen.

AMD hat nach Vega so etwas nicht mehr gemacht. Deshalb wäre es sehr enttäuschend wenn AMD mit den Teaser überzogene Erwartungen schüren würde. Also die 3 höchsten Framerates aller gestesteten DX12-Spiele. Mit der stark übertakteten größten Karte. Die bestmöglichen Frameraten in den Games. ...

Man kann beim Teaser das best mögliche zeigen. Man muss aber nicht. Es ist vor allem dann nicht ratsam, wenn man bei der Feinabstimmung Spielraum haben will.

Es wäre eine absolute Sensation, wenn AMD beim Redern an die 3090 rankäme. Dann hätten sie einige magische Zutaten entdeckt. Deshalb ist es absolut unrealisch zu erwarten, dass AMD mit Navi21 die 3080 deutlich schlagen kann.

Es ist unklar wie viele CUs die größte Navi21-Karte überhaupt hat. 80 ist das maximale, aber wahrscheinlich werden es weniger sein. AMD wird bald eine Karte mit Navi21 releasen, aber wird es auch rückblickend die größte mit Navi21 sein?

Das größte Überraschungspotential liegt beim Raytracing. Hier ist alles drin. Man hat einen komplett anderen Ansatz als Nvidia gewählt. Das kann komplett schiefgehen, das kann wunderbar funktionieren. Oder für gemischte Lasten so lala und beim reinen Raytracing flott. Hier ist auch die Frage, wie wichtig ist Raytracing für Microsoft und Sony?
 
  • Gefällt mir
Reaktionen: ComputerJunge
xexex schrieb:
Welchen 3090 oder 3080 Käufer hält ein Teaser einer Karte ab, die ungefähr 10% unter der Leistung einer 3080 liegt? Hätte man effektiv diesen Schritt gehen wollen und was in der Hinterhand, hätte man auch Zahlen die 10% über der 3080 sind präsentieren können oder Raytracing Leistung die locker eine 3080 schlägt.

Die blinden Kaeufer haelt niemand ab, um die geht es aber auch nicht. Deine 10% kommen von Borderlands 3 mit Badass vs Ultra? In Badass gibt es je nach Test nur 5% Unterschied. Ueber verschiedene Tests kommt die Karte plus minus auf 3080 Niveau raus. Und das reicht als Marketing, denn es sagt schlichtweg aus, da kommt was auf 3080 Niveau. Die Ankuendigung ist am 28.10 und bis dahin gilt es die, die es auch in Betracht ziehen AMD zu kaufen bei Stange zu halten, mehr nicht. Es geht hier nicht um eine volle Produktvorstellung oder dessen Leistung, warum auch? Die Ankuendigung ist wann anders. Das was du vorschlaegst, alle Karten offen legen, hat halt null mit Marketing zu tun, sondern ist eine Produktankuendigung. An welchem Tag ist die? Richtig, 28.10.

xexex schrieb:
Was man präsentiert hat ist das was man kann und irgendwie später auch mit dem fertigen Produkt erreicht. Wir wissen also Big Navi wird irgendwo 10% hinter der 3080 liegen und vermutlich etwas wenige kosten, wer leistungsorientiert kauft, braucht auf AMD nicht zu warten.

Du meinst zu wissen, wohl eher. Ist es wirklich so schwer zu verstehen wie Marketing funktioniert und was der Unterschied zu einer Produktankuendigung ist? Das einzige was wir wissen ist, dass irgendwie was in Richtung 3080 Niveau kommt, das war es. Der Rest ist Spekulation, was natuerlich aus Marketing Sicht gewollt ist, da man im Gespraech bleibt. So schwer ist das wirklich nicht zu verstehen. Aber du hast dich anscheinend schon festgelegt.

Vendetta schrieb:
AMD produziert die APUs der Konsolen meines Wissens nicht, das machen Sony und MS selbst. Ändert natürlich nichts daran, dass die Fabriken völlig ausgelastet sein werden, auch das nächste Jahr über. Nvidia wird also eher versuchen die 5nm Schiene zu fahren, da müssen aber die Yields auch erstmal besser werden.

Hast du da eine Quelle? Das ist neu fuer mich und wuerde mich auch etwas wundern. Bei Chipherstellung sind beide jetzt nicht gerade gross dabei. Wuerde mehr Sinn machen, wenn man nur das Endprodukt abnimmt und AMD das ueberlaesst.

Aber ja, 7nm wird ausgelastet sein und Nvidia wird garantiert nicht auf die Produktion von A100 verzichten aufgrund von Geforce Dies. Deswegen auch 5nm. Wobei sie da wohl erstmal nicht an Apple vorbeikommen werden und erst spaeter Zugriff haben.

Vendetta schrieb:
In den nächsten 2 Wochen? Ich glaube AMD wird kein Problem mit den 1000 Karten die Nvidia weltweit bis dahin ausgeliefert bekommt haben :lol:

Boese, aber wahr. Bin in meinem Google Feed ueber einen Artikel gestolpert bei dem Nvidia wohl selbst mittlerweile Einsicht gezeigt hat und zumindest fuer die FE zugegeben hat, dass da nicht viel vorhanden ist.

Teralios schrieb:
Das haben wir beide doch bereits in vielen Themen besprochen. Das Problem ist halt, dass NVIDIA jetzt pro SM mindestens 2 Threads braucht um die Shader [ALU] perfekt auszulasten. Klar, auf den ersten Blick sind es 128 Shader pro SM, aber man vergisst halt schnell, dass es 64 + 64 sind.

Und das Hauptproblem da ist, dass man pro Thread auch 64 Werte bekommen muss und dass kann man nur »bedingt« wirklich optimieren. Da hängt zum Teil von der »Auflösung« ab, besser: Wie viele Werte der Bereich abwirft, auf den ein Shader (Programm) angewendet wird.

Haben wir. ;) Aber es ist halt krass wie schlecht das bei Ampere funktioniert. Das sieht aehnlich schlecht, wenn nicht sogar schlechter, aus als bei GCN. Bin mal gespannt ob sie das mit der naechsten Generation gefixt bekommen oder ob sie sich jetzt ihr eigenes GCN ans Bein gebunden haben. Denke auch jetzt faellt es ihnen auf die Fuesse alles in die Software ausgelagert zu haben.

Teralios schrieb:
Nein, nicht ganz. Die Symptome sind gleich, nur die Probleme sind doch unterschiedlich. AMD hatte - obwohl es passende Befehle gab - immer das Problem, genug Threads pro CU zu öffnen. Ich würd mir gerne doch noch mal ne Vega oder Polaris holen. Es gab zwar Befehle, die eigentlich 2 oder alle 4 Vec16-Einheiten nutzen sollten, aber das schien nie wirklich zu funktionieren.

Meine Freundin hat noch eine im Rechner falls du was testen willst. :D

Teralios schrieb:
Bei NVIDIA ist nun eher das Problem, dass man jeden Thread mit 64 Werten füllen muss für jeden Block. Man sieht es ja dann, wenn ein »INT«-Befehl kommt. Wenn da pro SM nur z.B. 16 Werte kommen, dann liegen halt 48 ALUs brach. Und das Gleiche passiert auch, wenn ein »FP«-Befehl kommt, der nicht voll ausgelastet wird.

Kommt halt von dem "einfachen" Aufbau, der frueher Effizienz brachte. Anscheinend skaliert der halt nicht ganz so gut wie gedacht. Entweder sie kriegen es hin FP und INT zu mixen, oder sie muessen es weiter aufspalten, inklusive Overhead. Nicht wirklich der beste Weg der da eingeschlagen wurde.

Teralios schrieb:
Das Symptom ist das gleiche: ALUs werden nicht ausgelastet, die Probleme sind aber doch unterschiedlich. Mich würde es nicht wundern, wenn wir bei NVIDIA bald auch eine »WGP« finden könnten, damit ein INT-Workload nur noch ein Viertel blockiert usw.

Wuerde mich nicht wundern. Sie muessen ihre ALUs besser auslasten, ansonsten koennen sie noch so viele TFLops draufschreiben, die Leistung kommt nur in speziellen Anwendungen an.

Teralios schrieb:
Ach, für Uneinholbar haben meist nur Fanboys oder Laien NVIDIA gehalten, weil sie sich von der Shader-Anzahl haben blenden lassen. Was ich da teilweise auf den Gameingseiten hust*GameStar*hust gelesen habe, selbst von den Redakteuren, war schon peinlich.

Ist mir schon klar, war auch eher als Seitenhieb an einige hier im Forum gedacht. Das erste, dass ich mir bei den TFLops in der Praesentation gedacht habe war "wo ist der Haken". Und natuerlich gab es einen. Joah, aber nicht nur GameStar, da haben sich viele Redakteure ins Nest gesetzt. Auch CB war da eher so meh. Ich frage mich ob es ganz normal ist, dass man als Redakteur irgendwann dem Marketing auf den Leim geht weil man ihm eben so oft ausgesetzt ist.

Die Kommentatoren braucht man eigentlich nichtmal erwaehnen. Was da fuer Mist kam war nicht mehr feierlich. Und natuerlich durften ein paar Namen nicht fehlen. ;)

@Balikon Danke, dass du das nochmal so gut aufgeschluesselt hast. Manche verstehen anscheinend wirklich nicht zu was ein Teaser da ist und was er bezwecken soll. Wir kennen drei Zahlen und ein paar schwammige Aussagen, zudem noch die Aussage von einem AMD Repraesentant (Name vergessen, wurde auf Videocardz erwaehnt), dass unbekannt ist welche Karte es war. Anscheinend war der Repraesentant da sehr darauf erpicht darauf hinzuweisen. Und mehr wissen wir nicht. Natuerlich hat das perfekt funktioniert, nur bei manchen kommt das nicht ganz so on.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sephiroth51
Kacha schrieb:
Hast du da eine Quelle? Das ist neu fuer mich und wuerde mich auch etwas wundern. Bei Chipherstellung sind beide jetzt nicht gerade gross dabei. Wuerde mehr Sinn machen, wenn man nur das Endprodukt abnimmt und AMD das ueberlaesst.
In Sonys Fall wurde die APU ja sogar im Joint Venture designed und ich denke auch bei der Series X und S sieht es nicht viel anders aus. MS wird ja die APU sogar für ihre Cloud Server nutzen. Was meine Quelle betrifft, ist recht lange her, habe das damals bei der PS4 und Xbox One gelesen, AMD lizenziert ihre Technologie an Sony bzw. MS und die bestellen dann die Fertigung direkt bei TSMC. Ähnlich handhabt das ja auch Apple, die selbst bei TSMC produzieren lassen und ihre eigenen SOCs mit Lizenzen zB. von ARM zusammenbauen, genauso wie sie jetzt am neuen Mac Chip mit ARM Technik arbeiten. Ob jetzt AMD je produzierter APU was verdient oder hier einfach pauschal Geld von MS bzw. Sony geflossen ist, kann ich aber natürlich nicht sagen, angeblich verdient AMD aber auch keine extremen Geldmengen bei den Konsolen. Man kann sich deren Aktienpreis zur Hochzeit der Konsolen ja ansehen, wirklich hoch war der nie, ist erst 2017 aufwärts ordentlich hochgeschossen, nachdem AMD mit ihren CPUs intel Anteile streitig machte.

Ich finde es schade, dass AMD dieses Wissen nicht mitnimmt und am PC Sektor Grafik-starke APUs produziert, die, die es für Laptops gibt, haben ja allesamt den Fokus auf den CPU Part und besitzen nur wenige CUs, glaube 12 ist da höchste... -Andererseits wollen sie das wohl auch einfach nicht, weil sie gerne die GPU separat verkaufen möchten und vielleicht ist hier auch der Stromverbrauch ein großes Thema, die APUs der Nextgen Konsolen sind ja nicht gerade sparsam mit rund 200-250W Stromverbrauch, was man so hört und im Desktop Markt wäre so eine Series X APU wohl einfach viel zu günstig(selbst wenn AMD hier 500 Euro verlangen würde, die wollen lieber 500 für die CPU und nochmal 500 für die Grafikkarte) und würde den ganzen Midrange Sektor an GPUs vernichten, das ist der wo AMD noch am meisten Chancen hat aktuell zu punkten...
 
Zuletzt bearbeitet:
Balikon schrieb:
AMD wird nicht ernst genommen, weder von Kunden noch von Nvidia.
NVIDIA scheint AMD dieses Mal doch sehr ernst zu nehmen. Spricht einiges dafür.

Und das mit den Kunden stimmt ja so auch nicht ganz. Klar, hier gibt es einige Leute, die schreiben, wie schlecht AMD wäre und dass sie es nicht schaffen können, aber von den lagen die meisten nun wirklich falsch. Der Teaser zeigt, dass über dem GA104 liegt und im Bereich des GA102 wildert.

Alles Weitere: Abwarten, Tee trinken!
Kacha schrieb:
Meine Freundin hat noch eine im Rechner falls du was testen willst.
Ne, brauch ich nicht mehr. Ich hab die Folien von AMD gefunden und das Paper und da wird mein Verdacht bestätigt und durch den dieser Verdacht auch aufkam. GCN besitzt 3 Befehlsarten für die CU: Wave16, Wave32 und Wave64. Das Problem bei GCN ist gewesen, dass jeder dieser Befehle immer nur über eine »ALU« lief. Eine GCN bei CU braucht also immer 4 Threads um wirklich ausgelastet zu werden.
Befehlsartgenutzte ALUCycleArchitektur
Wave6414GCN
Wave3212GCN
Wave1611GCN
Wave6412RDNA
Wave3211RDNA
Wave1611RDNA

Das Problem war also bei GCN immer, dass man »genug« Werte hatte, aber statt den Wave64-Befehl auf alle 4 ALUs der CU aufzuteilen, wurde nur eine genutzt und deswegen brauchte ein Wave64-Befehl auch immer eben 4 Cycles.

Der Treiber bei GCN war auf Wave64 ausgelegt, also theoretisch 1 Befehl pro CU, aber das hat halt nicht hingehauen, ich denke, dass da in GCN durchaus ein Hardware-Fehler vorlag. Mit RDNA hat man nun die ALUs von 16 auf 32 verbreitert und damit die benötigten Threads pro CU halbiert - von 4 auf 2 - und gleichzeitig die »IPC« verdoppelt pro Wave64-Befehl.

Man arbeitete beim RDNA-Treiber auch wohl daran die Wave64-Befehle durch Wave32-Befehle um zu arbeiten, was dann auch erklärt, warum der Treiber am Anfang so »instabil« war.

Wenn sie nun die Transformation zu Wave32 beendet haben, macht die »WGP« als primäre Gruppe bei RDNA2 richtig Sinn, weil man dann auf gemischte Workloads sehr fein reagieren kann.

Kacha schrieb:
Kommt halt von dem "einfachen" Aufbau, der frueher Effizienz brachte. Anscheinend skaliert der halt nicht ganz so gut wie gedacht. Entweder sie kriegen es hin FP und INT zu mixen, oder sie muessen es weiter aufspalten, inklusive Overhead. Nicht wirklich der beste Weg der da eingeschlagen wurde.
Genau. Der einfache Aufbau der SM hat bisher bei Kepler, Maxwell und auch Pascal sowie bedingt bei Turing dafür gesorgt hat, dass die Karten sehr Effizient sein konnte, während ein »Fehler« bei AMD dafür gesorgt hat, dass die Karte nicht wirklich auf Touren kam.

Und FP/INT als Workload ist nur ein »Teil« des Problems. 2 Befehle mit 64-Werten zu füllen ist schwerer, als einen Befehl. Und INT+FP Mixen, das wird pro Befehl wird verdammt schwer und da spreche ich nicht von der Hardware-Ebene, da brauchste einfach nur genug Bits für die Vorzeichen, die dann den »Schaltpfad« beim Ausführen bestimmen. Problem ist dann eher die Treiber-Seite. Man müsste genau schauen, wann bei welchem Shader »gleichzeitig« ein MUL, ADD, SUB, MAD usw. kommt und dann aus den Threads die Werte mischen. Na danke, das wird sich NVIDIA nicht aufbinden.

Mehr Sinn würde es machen, wenn NVIDIA vermutlich ähnlich wie AMD von ihren »Wave64« und 64er Blöcken auf »Wave32« und 32-Blöcken geht und dann zwei SM zusammen schaltet, sodass man dann die Threads entsprechend feiner granuliert ihrer Workloads verteilen kann.


Kacha schrieb:
Auch CB war da eher so meh. Ich frage mich ob es ganz normal ist, dass man als Redakteur irgendwann dem Marketing auf den Leim geht weil man ihm eben so oft ausgesetzt ist.
Nein, ganz normal ist das nicht.

Das Problem ist eher, dass vielen Redaktionen, besser den Redakteuren sehr viel Grundlagenwissen fehlt, weil sie eigentlich Fachfremd sind, gerade im Bereich des Spielejournalismus und den dortigen Hardware-Redaktionen ist das so. Es gibt da zwar aktuell auch immer mehr, die ein Studium im Bereich »Gamedesign« und Co haben, aber bei Gamedesign und Co gehts ja nicht unbedingt um Programmierung und schon gar nicht um Hardware und technische Programmierung. Wäre für sich auch nicht das Problem, denn was muss ein »Hardware-Redakteur« bei einer Zeitschrift wie GameStar machen? Hardware-Tests und entsprechende Empfehlung. Das Problem ist eher, dass das viele dieser Journalisten nicht bei ihren Leisten bleiben (Schuster bleib bei deinen Leisten), sondern wegen Klicks anfangen die Informationen, ohne nötiges Hintergrundwissen, zu verarbeiten und darauf dann Mutmaßungen äußern, die dann eben sehr schnell falsch sein können.

Wenn ich mir die Artikel der Seiten ansehe, wo die Redakteure keine »Quereinsteiger« sind im Bereich Informatik, sondern ein Informatik-Studium, Elektrotechnik-Studium und Co dahinter sind, waren dort die Einschätzungen zu Ampere wesentlich »vorsichtiger« und man sang nicht sofort den Abgesang auf AMD.

Aber CB muss ich hier in Schutz nehmen, CB hat anfangs »spekuliert«, aber sie haben hier nicht vorzeitig den Abgesang auf AMD gesunden wie ein bekanntes Spielemagazin in Deutschland, sondern einfach nur die Fakten vorgestellt, nicht mehr und nicht weniger.

Kacha schrieb:
Die Kommentatoren braucht man eigentlich nichtmal erwaehnen. Was da fuer Mist kam war nicht mehr feierlich. Und natuerlich durften ein paar Namen nicht fehlen.
Aber es verwundert nicht. Wenn einem das technische Verständnis fehlt, lässt man sich schnell von Zahlen blenden und wenn man die Zahlen nimmt, dann war Ampere halt echt ein Mörderbrett. ;)
 
  • Gefällt mir
Reaktionen: Colindo und Sephiroth51
ETI1120 schrieb:
Das größte Überraschungspotential liegt beim Raytracing. Hier ist alles drin. Man hat einen komplett anderen Ansatz als Nvidia gewählt. Das kann komplett schiefgehen, das kann wunderbar funktionieren. Oder für gemischte Lasten so lala und beim reinen Raytracing flott. Hier ist auch die Frage, wie wichtig ist Raytracing für Microsoft und Sony?
Raytracing wird nicht schief gehen, würde mir da keine Sorgen machen, zumindest nicht für zukünftige Titel. AMD scheint einfach nen anderen Weg zu gehen, Raytracing wird aber nach wie vor extrem tanken, das sieht man auch in den Raytracing Modes von zB. Spiderman auf der PS5, die laufen dann mit reduzierten Details und nur noch 1080p@60FPS bei einer 10TF Navi, und das ist eine PS4 Engine.

That said, Raytracing wird in Zukunft auf Konsolen optimiert werden und was steckt da drinnen? Richtig, AMD RDNA 2 Navi Technik. Die Frage ist nur, wer will am PC die Auflösung auf 1080p reduzieren um 60FPS zu bekommen nur weil da jetzt mit Raytracing berechnet wird? Ich denke Niemand, wer nen 1080p Monitor hat, wird sehr wahrscheinlich 144FPS oder noch mehr anpeilen, was eine 80CU Navi aber auch schaffen sollte, genauso wie 1440p@60 mit Raytracing. 4k@60 mit Raytracing halte ich aber bei den meisten Games für unmöglich, außer man nutzt hier sehr unpräzises, klappt ja selbst bei einer 3090 nicht ohne DLSS in zB. Control...
 
Balikon schrieb:
Nee, die gibt es eher nicht. Eben, weil es AMD in den letzten Jahren nicht vermochte, im High End mitzuspielen. AMD hat zu keinem Zeitpunkt behauptet, dass sie einen Nvidia-Killer bringen.
Genau- Weil das hier keiner hofft, werden dann Geschichten gestrickt von wegen AMD würde in der Preview nicht die stärkste Karte zeigen.

Dann ist es kein Teaser mehr.
Das war es nie. Das wird hier im Forum dazu gemacht um die Mär einer stärkeren Karte, als die die für die Angabe der FPS Zahlen verwendet wurde, aufrecht zu erhalten.

Dann hat man die Katze aus dem Sack gelassen
Genau das haben sie getan. Und genau das hat Frau Su auch gesagt.
SIe hat auf die vielen Anfragen eine Vorschau der Leistungsfähigkeit der Big Navi Reihe gegeben und dies mit harten Zahlen belegt.

und nimmt so nicht nur den Fokus von den CPUs, die man gerade vorgestellt hat, sondern die Luft aus der Präsentation am 28.
Nein- Weil die wichtigsten Fragen von wegen Leistungsstaffelung, Preise, Technik usw. usf. offengelassen wurden.

Aussage ist, wir machen noch viel Optimierung bis Big Navi am 28.10 vorgestellt wird. Aber soviel können wir sagen, Stand jetzt kann Big Navi durchaus hohen Ansprüchen gerecht werden.
Ich hoffe doch nicht, dass sie noch viele Optimierungen machen. Das würde nämlich bedeuten, dass wir dann dieses Jahr nicht mehr mit Karten rechnen brauchen.

Wie willst Du so einen Aussage untermauern, ohne Zahlen zu zeigen? Offenbar definiert AMD "hohen Anspruch" mit "mindestens 60 FPS in 4K bei sehr hohen bzw. höchsten Details". Und genau das haben sie gezeigt. Mehr wollten sie damit gar nicht verraten.
Dann hätten sie bei den Titeln keine Werte dahintergeschrieben, sondern überall "above 60 FPS". Haben sie aber nicht. Sie erlauben hier eine absolute Einordnung.

Ach, sieh an. In welcher Position befindet sich AMD denn seit Jahren gegenüber Nvidia und deren Community? Tenor hier auf CB zum Beispiel ist: "Jau CPUs sind mittlerweile sehr ok, aber in Sachen Grafikkarten können sie es einfach nicht."
Das sehe ich und bestimmt viele andere anders. Die Navi Serie ist durchaus gelungen und wird sehr wohl ernstgenommen. Und das nicht nur in der CB Filterblase sondern in offener Wildbahn.

AMD wird nicht ernst genommen, weder von Kunden noch von Nvidia. Da wäre so ein Ausrufezeichen doch goldrichtig.
Deswegen quetscht NVIDIA auch auf Kosten der Effizienz das letzte aus ihren Chips, weil sie das alles nicht ernst nehmen....

Aber grundsätzlich zu behaupten, dass alles andere, als die stärkste Karte anzuteasern, nicht sinnvoll wäre, ist halt nicht sinnvoll.
Es war kein Teaser, sondern ein Preview auf die Leistungsfähigkeit der Big Navi Serie. Und wieso sollte ich eine Leistungsfähigkeit präsentieren wollen und dies den Leuten mitteilen, wenn ich dann nicht mit der tatsächlichen Leistungsfähigkeit herausrücke.
Das ergibt überhaupt keinen Sinn und wäre marketing- und Kundenbindungstechnisch, auch was das Abwandern zu Ampere begünstigen könnte, völliger Suizid. Für so blöd halte ich AMD nicht, auch wenn die schon andere starke Dinger gebracht haben.

Deswegen ist der Teaser eigentlich ziemlich gut, weil er so nebulös ist. Er richtet das Augenmerk auf den 28.10. und hat damit genau erreicht, was er sollte.
Leute wie Du sind es, die aus der Preview einen Teaser machen und in harten Zahlen irgendetwas Nebulöses sehen wollen.

Das ist einer der Faktoren (der unkontrollierte Fan- Hype) der AMD auch vorher schon immer wieder lange Gesichter bei der Fan- Base beschert hat. Dafür können sie aber nunmal nichts.
Ergänzung ()

Teralios schrieb:
Man müsste genau schauen, wann bei welchem Shader »gleichzeitig« ein MUL, ADD, SUB, MAD usw. kommt und dann aus den Threads die Werte mischen. Na danke, das wird sich NVIDIA nicht aufbinden.
NVIDIA bürdet sich mit ihren Treibern immer schon deutlich mehr auf, als AMD, auch was das Queuing und die Steuerung in Richtung Hardware anbelangt.

Deswegen mag man im Augenblick den Durchschnittsertrag mit alter Software bei Ampere noch belächeln, es kann (muss aber nicht) durchaus sein, dass einem das Lächeln in optimierten Titeln schnell im Halse stecken bleiben kann.

Und dann kommen wieder die "NVIDA" bremst Turing und Pascal künstlich aus- Schreie, wenn die ersten Titel erscheinen, die bei Ampere deutlich davonziehen.

Die Problematik, die ich im Augenblick sehe ist, dass man als Entwickler, will man nicht mehrere Renderpfade aufschlagen, sich entweder für Performancetuning für Turing oder für Ampere entscheiden muss.

Mit Optimierung auf eine der Serien bremst man automatisch die andere aus.
Das war strategisch äußerst dämlich von NVIDIA und könnte ihnen sogar mehr Schaden zufügen, als ihnen lieb ist, wenn die Entwickler den Zusatzaufwand scheuen oder den Kompromiss suchen bzw. dann beide Generationen mäßig laufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337
Vendetta schrieb:
In Sonys Fall wurde die APU ja sogar im Joint Venture designed und ich denke auch bei der Series X und S sieht es nicht viel anders aus. ... AMD lizenziert ihre Technologie an Sony bzw. MS und die bestellen dann die Fertigung direkt bei TSMC.

AMD verkauft die SOCs an die Konsolenhersteller. Auf Seite 8 der Präsentation zu den Quartalszahlen
"Beginn der Produktion von SoCs für Spielekonsolen der nächsten Generation für Sony PlayStation 5 und
Microsoft Xbox Series X."

Link zur Präsentation zu den Quartalszahlen
https://d1io3yog0oux5.cloudfront.ne...b/778/6583/file/AMD+Q2'20+Earnings+Slides.pdf

Dies ist nur eine ganz explizite Stelle. Die SOCs für die Konsolen sind der Kern des SemiCustom-Geschäfts von AMD. Der Konsolenzyklus beeinflusst die Umsätze von AMD. Der Rückgang der Verkaufszahlen von PS4 und XBox haben zu einem Umsatzrückgang in der Enterprisesparte geführt. Dieser konnte nicht von den steigenden EPYC verkäufen kompensiert werden. Der Anlauf der neuen Konsolen wird in Quartal 3 und 4 die Bruttomarge von AMD drücken.
 
.Sentinel. schrieb:
Genau- Weil das hier keiner hofft, werden dann Geschichten gestrickt von wegen AMD würde in der Preview nicht die stärkste Karte zeigen.


Okay ich habe es schon vor ein paar Tagen versucht zu erklären und ich versuche es nochmal:
Das war Gerücht war vor ein paar Tagen bei 3Dcenter zu lesen. AMD's eigene Zielvorgaben für Big Navi. Nehmen wir mal an am 28sten werden diese drei Karten "kommen" und das Gerücht stimmt. Frage an Dich: Von welcher Karte stammen die Benchmarks? Lisa Su spricht von der RX 6000 Series... woher weisst Du welche es ist?



1602364537059.png



Was ich Dir eigentlich sagen will ist folgendes:

Nehmen wir mal an AMD hat diese eigenen Performance Ziele erreicht. Nur mal angenommen, auch wenn es schwerfällt. Dann habe ich die Schwierigkeit diese Benchmarks der Top Karte zuzuordnen. Denn dann hätte AMD sein selbstgestecktes Ziel nicht erreicht. Zur Orientierung mal das Performance Rating der 3080 in Relation zur 2080Ti. Die mittlere Karte passt meiner Meinung nach besser zu den Benchmarks, ...(wie gesagt lass Dich mal für eine Minute auf diese Annahme ein)


1602365448495.png


können wir und darauf einigen, das es ein Best case Scenario gibt, bei der wir nicht die maximale Leistung der RX 6000 Serie gesehen haben und ein Worst case Scenario, bei dem AMD seine Ziele mit der besten Karte klar verfehlt hat?
 
HAL8999 SP3 schrieb:
Denn dann hätte AMD sein selbstgestecktes Ziel nicht erreicht.

Auch wenn das was du erzählst Blödsinn ist, solltest du schon den richtigen Benchmark für die handgepickten Angaben nehmen.
1602368150278.png


Nun glücklicher?

Drücken wir es mal so aus, für mich steht die Leistung der kommenden AMD Karten klar und auch wenn ich mich höchstwahrscheinlich sowieso für eine Nvidia Karte entschieden hätte, hat das was AMD gezeigt hat nur meine Meinung bestätigt, gar nicht auf die Vorstellung von AMD zu warten.

Die Karten die AMD bringt sind langsamer als eine 3080, genau diese Message hat AMD mit dem Teaser verbreitet und ich glaube nicht, dass bei AMD Idioten im Marketing herumsitzen, denen das nicht bewusst ist und wenn sie anders könnten, hätten da andere Zahlen gestanden.

Es darf jeder gerne weiter hoffen, dass da Ende des Monats noch mehr kommt, aber genau diese ständig überzogenen Erwartungen haben so ziemlich jeden AMD Release überschattet. Oft wurden sie von AMD selbst gestreut, viel öfter jedoch von irgendwelchen Fanboys die sich gegenseitig in den möglichen Leistungen überboten haben, nur um am Ende bitter enttäuscht zu werden.

Die Zahlen die AMD gezeigt hat sind realistisch, es wird Gründe gehabt haben wieso Nvidia die restlichen 5% aus der 3080 geprügelt hat und vielleicht ist es auch der Grund wieso die Yields und die Lieferbarkeit der Ampere Karten nun so schlecht ist. Nur sollte man sich damit abfinden, dass AMD das erreicht was sie gezeigt haben, es macht die kommenden Karten keinen Deut schlechter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337
Zurück
Oben