Leserartikel DevPandis großer Test - 5700 XT gegen 7900 XTX und was mit AM4 so möglich ist

AM4 – 4 Generationen für ein Halleluja​

Als 2017 die ersten Ryzen Prozessoren – also Zen 1 – erschienen, war bereits klar, dass AMD den Sockel AM4 länger nutzen wird, ähnlich wie die Vorgänger AM2 und AM3. Auf vielen Boards von 2017 und 2018 laufen die aktuellen Ryzen 5000 Prozessoren. Für mich optimal, um meinen betagten PC von 2018 auf einen neuen Stand zu heben.

Fangen wir jedoch von Anfang an und ich möchte euch damit zeigen, wie sich der Rechner in den 4 Jahren seit 2018 gewandelt hat. Die Ausgangsbasis des heutigen PCs ist ein Asus ROG Strix B450-E Mainboard auf dem damals ein Ryzen 2700X seinen Platz fand. Eine schöne Kombination, die anfangs von einem Noctua NH-D15 gekühlt wurde, der dann wegen einiger Umbauarbeiten durch einen Noctua NH-U12A ausgetauscht wurde. Etwas weniger Kühlleistung, gleichzeitig viel MEHR PLATZ! Als RAM wurden damals 32 GiB von G.Skill eingebaut, genauer die Aegis DDR4 3000 CL-16 Module, ein guter Kompromiss aus Leistung und Preis. Als Grafikkarte wurde eine Saphire Radeon RX Vega 64 Nitro+ ausgewählt, die konnte man damals nämlich günstig kaufen. Zur Speicherung von Daten wurde ein SSD-Unterbau aus Samsung 970 Pro 512 GB ausgewählt, dazu 2 SATA-SSD – eine Samsung 860 Evo und eine Crucial MX500 mit je einem TB. Damit besitzt das System 2,5 TB an Speicherplatz. Als Netzteil ist ein Seasonic Prime Ultra Titan 650 W verbaut gewesen. Damals ohne Frage ein schönes schnelles System, dass auch keine Wünsche offenließ, gleichzeitig aber auch schon mit 350 W bei der Grafikkarte kämpfen musste – daher schrecken mich die 350 – 400 W* jetzt nicht so ganz ab. Es fehlt als Information also nur noch das Gehäuse: ein Fractal Design Define R6 in Grau – oder für mich ein etwas helleres Schwarz. Als Gehäuselüfter kommen 3 Noctua NF-A14 zum Einsatz, und zwar im bekannten nougatbraun, ob ich hier das System mal auf Schwarz umstelle? Verdammt, jetzt ist der Wunsch geweckt!

Das System hat mir in dieser Form bis Mitte 2020 gute Dienste geleistet und ich habe im April 2020 eine 5700 XT – dieses mal eine XFX Radeon RX 5700 XT Thicc II – gekauft. Damals für unschlagbare 300,- € im Angebot, die Treiberprobleme** der 5700 XT waren zu diesem Zeitpunkt langsam Geschichte und es fühlte sich einfach richtig an, der Leistungsschub von 20 % war auch gerade richtig, bei VIEL weniger Verbrauch. Diese Iteration des Systems hat bis nun zum November 2022 bestand und in Vorbereitung auf eine neue Grafikkarte – und dem Wegfall eines Mördersytems, dass ich einem Freund geschenkt habe – wurde der 2700 X durch einen 5800X3D ersetzt, was die 5700 XT sogar leicht beflügelte. Um den Infinity Fabric Beine zu machen, wurde auch noch der RAM ausgetauscht und es werkelnjetzt 32 GiB Kingston FURY Beast DDR4 3600 CL-18 im System, sodass sich auch die Latenz leicht verbessert hat von 10,66 ns auf 10 ns. Nicht viel, aber immerhin etwas, auch wenn der 5800X3D nicht wirklich von der Latenz profitiert, so wirkt sich zumindest der IF-Takt positiv aus.

In der jetzigen Ausbaustufe – man könnte sie als Phase 4 bezeichnen – wird nun die ehrwürdige 5700 XT in den Ruhestand versetzt, auch diese Grafikkarte wird einem Freund zu gesendet, der nicht sehr viel hat. Die Nachfolgerin ist eine XFX Radeon RX 7900 XTX Merc 310 Black Edition. Natürlich ist der Umbau und die Erneuerung des Systems damit noch NICHT abgeschlossen, denn mein Ziel ist es am Ende wirklich ein neues System unter dem Schreibtisch stehen zu haben. Aber mit dem Geldbeutel vereinbar - ja die 1300 € für die XFX sind viel Geld gewesen, deswegen aber in Häppchen erneuert.

Es stehen also noch drei Erneuerungen an bis zum Sommer: Das Mainboard soll durch ein B550-Board getauscht werden, damit auch die Vorzüge von PCIe4 zur Geltung kommen. Die NVMe-SSD soll gegen ein PCIe4 Exemplar getauscht werden und auch ein neues Gehäuse steht an – mit mehr Luftzufuhr für die Grafikkarte und – ihr seid schuld daran – eben die Gehäuselüfter und vielleicht sogar der CPU-Lüfter, ich mag Schwarz!

Jetzt aber auch kurz zu den beiden Asterisk im Text, um ein paar Gedanken noch zu veranschaulichen:

* Ich weiß, dass ich mich sowohl bei der 4090 als auch der 3090 Ti negativ über den gesamten Stromverbrauch geäußert habe und es wirkt in diesem Moment auch etwas scheinheilig, dass ich jetzt eine 7900 XTX mit 350 – 400 W in meinem System einbaue. Ich nannte eine 3090 Ti und eine 4090 aber bereits mein Eigen, beide verschenkt an Freunde oder Studenten. Beide Karten habe ich auf 300 – 350 W limitiert und es zeigte sich bei beiden, dass für ca. 3 – 6 % Performance übermäßig viel mehr maximale Energie zugeschossen wurde und beide Karten OHNE Not entsprechend auf diesen Verbrauch geprügelt wurden. Die 4090 verliert ca. 7 – 10 % an Leistung, wenn man sie von 450 auf 300 W limitiert. Ich spiele zudem mit einem relativ starken FPS-Limit bei 72, sodass die meisten Spiele nicht wirklich darüber hinaus kommen – wobei ich überlege es auf 90 anzuheben, mal sehen.

** Die Treiberprobleme von RDNA sind mit einer Umstellung des Treibers von Wave64 auf Wave32 zu erklären. Mit RDNA wurden die 4 * Vec16 durch 2 * Vec32 ersetzt. Bis RDNA war der Treiber auf Wave64 ausgelegt. Solche Umbauten sind immer fehleranfällig. Auch dieses Mal hat AMD an den CU einiges umgebaut und ich werde im späteren Verlauf darauf eingehen.

Die Kontrahenten – die Überraschung gegen die Enttäuschung​

Die 5700 XT – also Navi10 – war 2019 eine Überraschung, hat doch AMD damit gezeigt, dass sie noch nicht auf verlorenem Posten kämpfen und gute Grafikkarten – wir lassen mal die Treiberprobleme weg – designen können. Die 7900 XTX – Navi30 – ist hier dann schon eher eine kleine Enttäuschung, die Gerüchteküche brodelte ordentlich, was auch mich zu falschen Einschätzungen verleitet hat und auch die Folien waren – mindestens – stark durch eine rosarote Brille gefärbt. Alles eigentlich ein Grund, die Karte nicht zu kaufen. Warum habe ich die Karte dennoch gekauft? Weil ich das Konzept des Chiplet mag und ich die neuen CUs interessant finde und denke, dass AMD hier noch einiges machen kann.

Ja, scheinbar hat 7900 XTX einen Hardwarebug beim Prefetching von Shadern – siehe dazu den Mesa3D-Code – gleichzeitig sind die Auswirkungen mit ca. 2 % nicht wirklich gravierend. Probleme mit der Leistungsaufnahme lassen sich in der Regel im Treiber und der Firmware beheben, da einfach gewisse Parameter falsch eingestellt sind, man wird hier auf die Treiber warten müssen. Dass RDNA3 schlechter abschneidet als erwartet, liegt primär an einem noch nicht ausgereiften Shadercompiler und damit auch am Treiber. Etwas, dass man aussitzen kann und es könnte spannend sein, die Karte über die Zeit auch zu beobachten – also wird dieser Artikel ein Mehrteiler, freut euch darauf.

Jetzt aber zu den beiden Chips, die sich in diesem Test dem Duell im Ring stellen:
BezeichnungNavi10Navi30
Transistoren10,3 Mrd.45,7 Mrd. + 12 Mrd. (57,7 Mrd)
FertigungN7N5 + N6
WGP/CU20/4048/96
Shader25606144 (12288)
RT-Kerne096
Matrix-Kerne0192
TMU160384
ROP64192
SI256 Bit384 Bit
Cache (L2 + L3)8 MiB + 06 MiB + 96 MiB
Takt1605 - 1905 MHz1900 - 2500 MHz
Es sind 140 % mehr Shader und TMUs und 200 % bei den ROPs und das verspricht in diesem Duell schon ein ordentliches Leistungsplus. Der Takt steigt um 20 – 30 % an, was am Ende auch ordentlich ist, dass die 5700 XT also von der neuen großen Schwester eines auf den Deckel bekommt, ist schon klar, die Frage ist nur wie viel und das soll dieser Test klären.

Die Konkurrenz – 4090 oder 4080?​

Bevor wir aber zu dem eigentlichen Test kommen, möchte ich kurz ein paar Kommentare aus der Community aufgreifen – nicht angreifen –, die meinen, dass Navi30 eigentlich die Konkurrenz zur 4090 ist und AMD nur aus Not die 4080 als Konkurrenz ausgewählt hat: Nein, das sehe ich an der Stelle ein Stück anders. Ich muss an der Stelle andeuten, dass die ursprünglichen Gerüchte diesen Schluss zu lassen, es ist allerdings anders gekommen. Navi30 bewegt sich von allen Eckdaten viel eher zwischen AD102 und AD103 und in bestimmten Spielen – nicht nur den CB-Test nehmen – kann Navi30 es mit AD102 aufnehmen, in anderen Spielen unterliegt man deutlich und auch AD103 kann schneller sein*.

Sieht man sich aber die Daten aller drei GPUs an, dann fällt auf, dass Navi30 sich genau zwischen AD102 und AD103 bewegt. Entsprechend ist auch das Ziel, besser muss das Ziel von AMD sein, sich zwischen AD102 und AD103 zu platzieren, dieses Ziel hat AMD – in meinen Augen – aktuell nicht erreicht. Es ist also umso wichtiger, dass AMD wirklich am Treiber arbeitet und am Shader-Compiler.
BezeichnungAD103Navi30AD102
Transistoren45,9 Mrd.57,7 Mrd.76,3 Mrd.
Fertigung4N (optimierter N5)N54N
CU/SM8096144
Shader102406144 (12888)*18432
RT-Kerne8096144
Matrix320192576
TMU320384576
ROP112192192
SI256 Bit384 Bit384 Bit
Cache (L2 + L3)64 MiB6 MiB + 96 MiB96 MiB
Takt2210 - 2505 MHz1900 - 2500 MHz2230 - 2520 MHz
Navi30 hat ca. 25 % mehr Transistoren als AD103, AD102 hat 32 % mehr als Navi30 – natürlich kommt in der 4090 kein Vollausbau zum Einsatz, das weiß ich. Bei den RT-Kernen hat man gegenüber AD103 20 % mehr zu bieten, bei den Shadern sind es erneut 25 % mehr (neue Rechenweise**), auch bei den ROP sind es deutlich mehr – 71 % - und bei den TMU sind es erneut wieder 20 %. Hätte AMD ihr Ziel von 50 % mehr FPS/Watt erreicht, läge Navi30 auch ca. 10 – 20 % vor der GeForce 4080 und würde sich in diesem Fall wirklich perfekt zwischen AD103 und AD102 platzieren. Das wird aktuell jedoch aus einem Grund verhindert und das ist nicht der vermutete Hardwarebug beim Prefetching von Shadern. Wir kommen daher zu den beiden Asterisk:

* AMD hat die CU stärker umgebaut, als ich anfangs angenommen habe und hier liegt auch das Problem. Ich habe in vielen Kommentaren die Auslastungsprobleme von Ampere/Ada gegenüber RDNA2 erläutert, ich gehe darauf im nächsten Abschnitt ein.

** Die Angabe von 12888 Shadern ist in diesem Fall die ehrlichere und man muss AMD hier sogar sagen, dass sie bei der Verdoppelung der Shader auf der einen Seite intelligenter vorgegangen sind als NVIDIA bei Ampere, gleichzeitig haben sie sich damit die Entwicklung des Shadercompilers komplizierter gemacht. Auch dazu im nächsten Abschnitt mehr.

Die neuen CU – Genialer Wahnsinn!​

Warum sich Ampere von RDNA2 nicht wirklich absetzen konnte, obwohl sie fast doppelt so viele Shader hatte, ist relativ einfach erklärt: NVIDIA hat bei Ampere die Anzahl der Shader „nominell“ von 64 auf 128 erhöht – es waren bei Turing bereits 128. Es istallerdings so, dass nicht jeder dieser 128 Shader einfach ein Programm ausführt, sondern die 128 Shader werden als SIMD (Single Instruction, Multiple Data) organisiert. So etwas spart Schaltungen zur Kontrolle usw. Das bedeutet, dass immer eine gewisse Anzahl an Shadern die gleiche Operation auf verschiedene Werte ausführen müssen. NVIDIA nutzt für diese Verwaltung die Datenpfade in der SM und in Ampere und Ada gibt es zwei Datenpfade für 128 Shader, also jeder Datenpfad fasst 64 Werte und hier liegt der Knackpunkt: Ampere/Ada benötigen für eine optimale Auslastung 2 Tasks pro SM zu 64 Werten, damit die Rechenleistung auch auf die Straße gebracht werden kann. Die Menge an Werten pro Task wird bei einer GPU heute in der Regel von der Auflösung bestimmt und mit steigender Auflösung kommen pro Thread mehr Werte zusammen und Ampere und Ada können ihre Rechenleistung besser auf die Straße bringen.

AMD – ich werde auf GCN nicht mehr eingehen – benötigt bei RDNA pro CU auch bereits 2 Threads/Task, jedoch nur 32 Werte, da in jeder CU zwei Vec32-Einheiten vorhanden sind. In modernen Engines sind Task/Shader nicht mehr so problematisch, da immer mehr Shader in einem Bild angewendet werde, dafür sind die Shader kleinteiliger und genau hier konnte RDNA1 und RDNA2 dann auftrumpfen: Die Auslastung der CU war besser als die Auslastung der SM bei NVIDIA.

Gleichzeitig zeigt sich bei einer CU ab 4K aber auch, dass ein Thread für Operationen tendenziell einen zweiten Takt benötigen, da mehr als zwei Wave32-Befehle benötigt werden. In 4K ist das noch nicht so gravierend, in höheren Auflösungen wird das aber immer wahrscheinlicher. Die Umstellung von Wave64 auf Wave32 war – bis einschließlich 4K – also 2019 eine gute Wahl, um das Auslastungsproblem von GCN zu beseitigen, gleichzeitig zeigt sich jetzt, dass es wieder notwendig sein kann auf Wave64 – bei Bedarf – umzustellen.

AMD bohrt – nicht wie NVIDIA – einfach die Vec32 zu Vec64-Einheiten auf – was auch möglich gewesen wäre – sondern geht einen anderen Weg, der eine gewisse Flexibilität ermöglicht: Sie fügen einen zweiten Vektor-Pfad in die Vec32 ein, so werden aus den Vec32 nun (vereinfacht) Vec32+32 Einheiten und AMD nähert sich hier ein Stück NVIDIA und Ampere/Ada an.
AMDs Lösung ermöglicht nun zwei Optionen – die NVIDIA bei Ampere und ADA nicht hat, dafür hat das NVIDIA-Design andere Vorteile*:
  1. AMD kann zwei Wave32-Befehle mit dem gleichen Operator auf einer Vec32+32 ausführen.
  2. AMD kann einen Wave64-Befehl innerhalb eines Taktes auf einer Vec32+32 ausführen.
Und genau hier liegt aktuell auch ein Teil der Probleme von RDNA3 und warum RDNA3 nicht so schnell agiert, wie man annehmen könnte. AMD kann die Vec32+32 genauso wenig vollständig auslasten, besonders in niedrigen Auflösungen, wie NVIDIA ihre SM mit 64 + 64. Beide Hersteller haben in dieser Generation – und das ist ein Novum – fast das gleiche Auslastungsproblem.
AMD muss ihren Shader-Compiler innerhalb von 3 Generationen erneut umbauen und dieses Mal wird es knackig. Es ist nicht einfach nur eine Umstellung von Wave64 auf Wave32 – was schon zu einigen Problemen führte – sondern AMD muss dem Shadercompiler beibringen, dass er sowohl gleiche aber dennoch unabhängige Operatoren im Shader in zwei Wave32-Befehlen zusammen fasst. Oder, dass der Shader bei Bedarf entscheiden kann, statt einem Wave32-Befehl einen Wave64-Befehl zu nutzen. Möglich ist das – AMD hat Erfahrung mit VLIW-Architekturen, ich schreibe nur TeraScale – gleichzeitig ist das aber aufwendig und komplex.

Ein Beispiel, um euch die Möglichkeiten zu veranschaulichen:
Code:
A = B + C
D = A + E
F = G + H
Aus diesem Beispiel kann AMD zwei Wave32-Befehle konstruieren, die man gleichzeitig auf die gleiche Vec32+32 loslassen kann. Sowohl A = B + C als auch F = G + H können hier zusammengefasst werden, beide Zeilen sind voneinander nicht abhängig, haben aber den gleichen Operator. A = B + C kann aber nicht mit D = A + E zusammengefasst werden, es gibt in diesem Beispiel noch eine zweite Möglichkeit: D = A + E sowie F = G + H können zusammengefasst werden. Und hier liegt der Knackpunkt für AMD, der Shadercompiler muss mit der Zeit um verschiedene Analysetechniken – Flussanalyse wäre hier eine – erweitert werden, die entsprechende Operatoren-Paare im Shader finden. Das ist in dem Fall eine Möglichkeit.

Die zweite Möglichkeit, die Vec32+32 besser auszulasten, liege im Treiber, denn dieser verwaltet die Tasks und Befehle und weiß in der Regel, welche Befehle über den verschiedenen Tasks an die GPU übermittelt werden. AMD hat hier also sehr viel Potenzial im Treiber und im Shadercompiler und anders als zu Vega-Zeiten ist dieses Mal das Potenzial auch wirklich vorhanden, denn die neuen Befehle für die Vec32+32 können genutzt werden und sind nicht Broken, denn die neuen Befehle werden schon beim RayTracing genutzt.

Zum Abschluss dieses Abschnittes wieder das Asterisk:
* NVIDIA organisiert ihre SM in 4 Tiles zu je 16 + 16 Shadern, NVIDIA ist es dadurch möglich nicht benötigte Shader einfach „ruhen“ zu lassen, so dass diese bei der Ausführung des Befehls nicht schalten müssen. Das bedeutet, wenn in einem Datenpfad statt 64 Werte nur 32 Werte zusammenkommen, dann müssen nur 2 der 4 Tiles arbeiten und die anderen Beiden „drehen Däumchen“. Das ist ein Vorteil, den AMD mit den Vec32+32 nicht so hat. AMD ist an dieser Stelle – ähnlich wie zu Zeiten zu Vega – also deutlich stärker davon abhängig, dass die Einheiten möglichst perfekt ausgelastet werden, damit die Karten effizient sind. Hier muss AMD dringend ran, dass sie nicht benötigte ALUs wirklich „trocken“ legen.

Merc 310 Black Edition gegen die Thicc 2​

Ich will euch an dieser Stelle aber nicht länger auf die Folter spannen. Ich habe im groben beschrieben wie sich das System seit 2018 gewandelt hat. Wie Navi10 und Navi30 aussehen und wo sich Navi30 im Duell gegen AD102 und AD103 einordnet, jetzt kommen wir zu den harten Zahlen der realen Hardware und hier kann ich nur schreiben: BOAH! Ich habe das Paket von meinen Nachbarn abgeholt – der Postbote war mal wieder früher da, als erwartet – und hab ein ziemlich dickes Paket ausgehändigt bekommen und das Paket ist auch schwer! Leider fehlt mir eine Waage zum Vergleich – ich sollte mir aber mal eine Küchenwaage kaufen – allerdings: die Merc 310 ist schwer, laut Post wiegt das Paket 3,20 Kilogramm. Ein großer, fetter Klopper.
IMG_0395.jpg
Vorweg, Fotos werden auf meinem Bett gemacht, das ist einfacher, als jetzt den Tisch freizuräumen, um da gute Bilder zu machen, ich habe kein professionelles Studio und mache solche Tests ja nicht regelmäßig.
IMG_0396.jpgIMG_0397.jpgIMG_0398.jpg
Öffnet man den Karton, zieht man den schwarzen inneren Karton heraus und kann diesen aufklappen und was dann zum Vorschein kommt, ist erst mal der Hammer und es schwant einem schon: Hier wird ein Supportrahmen benötigt und dieser liegt auch bei. Die Karte kommt dann auf knapp 35 cm in der Länge, ist drei Slots dick – mit der Halterung, sonst sind es knapp 4 - und etwas höher als die üblichen Slots. Die Karte ist Respekt einflößend und die 5700 XT Thicc dagegen schon zierlich, auch wenn diese nicht gerade kurz war.
IMG_0402.jpgIMG_0403.jpg
Mit dem Supportrahmen erinnert die Merc 310 an die Vega 64 Nitro+ von Sapphire und ist etwas einschüchternd, gleichzeitig wird aber klar, dass die Karte so vermutlich etwas ruhiger sein wird als die Thicc 2, die sich gerne mal bemerkbar gemacht hat. Ein neues Gehäuse muss in der nächsten Zeit auf jeden Fall her.
IMG_0404.jpg
Egal von welcher Seite man nun ein Foto schießt, die Merc ist ein Monster im Vergleich zur Thicc, schade, dass ich die Nitro+ nicht mehr hier habe, das wäre spannend. Nun gut, sie ist nicht mehr da, also bleibe ich zumindest diesen Vergleich schuldig.

Das Duell – welche Spiele sind es geworden?​

Kommen wir also zum eigentlichen Test und ich kann jetzt schon schreiben: Ich bin positiv überrascht – wobei ich vermutlich von einer 4080 oder gar 4090 noch positiver überrascht wäre. Direkt aber vor weg: Alle Tests wurden in 1440p ausgeführt, ja ich habe nur einen 27“ Monitor, dieser ist sehr gut und ich habe noch keinen Bedarf einen 4K-Monitor zu kaufen. Warum also diese Karte? Weil ich es will, ganz einfach. Ich spiele gerne immer wieder Klassiker und alte Spiele, allerdings auch neue und aus meinem aktuellen Katalog habe ich 11 Spiele ausgesucht und auf der 7900 XTX gibt es sogar ein Bonusspiel - wird nachgereicht.

Folgende Spiele sind es geworden: BlackMesa, Cyberpunk, Tiny Tina, WarHammer 40k: Dark Tide, Diablo 2 Resurrected, Final Fantasy 14, Total War: WarHammer 3, Doom Eternal, Doom 2016, World of WarCraft, Metro Exodus (normal wegen der Vergleichbarkeit) und als Bonus auf der 7900 XTX Quake 2 RTX.

Ich habe jedes Spiel in drei verschiedenen Szenarien getestet: DevPandi, DevPandi No-Limit und Max-Out. Das DevPandi-Setting ist so ausgelegt, dass das Spiel FÜR mich sich angenehm auf meinem Monitor anfühlt. Gleichzeitig wird das Spiel auf maximal 72 FPS limitiert – bei einem 144 Hz Monitor für mich ein guter Kompromiss. No-Limit erklärt sich von selbst und Max-Out: Die ganzen Regler nach rechts, daher werde ich in diesem Test nur die Dev-Pandi-Settings genauer erläutern.

Für mich wichtig ist bei diesem Test auch, dass ich mir nicht eine beliebige Szene heraussuche, auch wenn sie fordernd ist, sondern dass ich eine reale Spielsituation nachstellen kann. Da sich Spiele jedoch nicht vorhersehbar verhalten, führe ich in jedem der Settings drei Durchläufe aus und mittel diese.

Wie angemerkt, ist für mich ein realistischer Test wichtiger als ein optimierter Test, der das theoretische Maximum oder Minimum an Leistung aufzeigt, daher laufen auch verschiedene Alltagsprogramme während des Tests, bei mir sind das folgende: Battle.net Client, BoxCryptor, HiDrive, Java Updater, Steam, TwinkleTray, Discord, Overwolf und GOG Galaxy. Manche dieser Programme werden bei den meisten von euch auch laufen und werden daher nicht deaktiviert, denn auch auf euren Systemen werden die Grafikkarten nicht in optimalen Umgebungen laufen.

Auf Bitte von @ComputerJunge schiebe ich an dieser Stelle noch kurz einen Benchmark mit Affinity Photo ein – die Benchmarks laufen mit Version 2.0.0: In Vektor Raster erreicht die „Einzel“ GPU nur 756 Punkte – ein MacBook Pro mit M1 erreicht hier 8983 – und in der kombinierten Last 1238, das MacBook erreicht hier 8602 Punkte. Anmerken muss man dabei, dass die GPU maximal zu 10 – 15 % ausgelastet wird und nur mit 1000 – 1500 MHz taktet. Daher wird der Test auch nicht in die finale Bewertung mit aufgenommen. Ich werde diesen Test wiederholen, sobald Serif eine neue Version herausgebracht hat.

Nun zu den einzelnen Tests in den Spielen – noch anzumerken ist, dass ich bei Spielen, die in DevPandi keine 72 FPS erreichen, mir den No-Limit Durchlauf spare.

Cyberpunk​

In Cyberpunk besteht der Benchmark-Lauf durch eine Fahrt durch Night City (Zentral) zu einem Apartment. Der Lauf dauert in der Regel 01:30, je nach Situation mit den NPCs können es auch einmal 02:30 werden.
OptionWert
AMD FidelityFX Super Resolution 2.1Qualität
Sichtfeld100
FilmkörnungAn
Chromatische AberrationAn
SchärfentiefeAn
BledfleckeA
KontaktschattenAn
Verbesserte GesichtsbeleuchtungsgeometrieAn
Ansitropie16
Lokale Schatten-MeshqualitätHoch
Lokale SchattenqualitätHoh
Entfernte Schatten AuflösungHoch
Volumetric Fog AuflösungHoch
Volumentische WolkenqualitätUltra
Maximale Dynamic DecalsUltra
Qualität der Screen Space ReflectionsUltra
VolumenstreuungHoch
UmgebungsverdeckungMittel
FarbpräzisionHoch
SpiegelqualitätHoch
Detailgrad (LOD)Hoch

BlackMesa​

Die Einstellungen kann ich mir in diesem Spiel sparen, DevPandi ist bereits Max-Out, als Testszene dient der Reaktor-Unfall, da hier doch einiges los ist auf dem Bildschirm und es eine konstante Last erzeugt.

TinyTina​

In diesem Spiel wird dir Voreinstellung Hoch verwendet und die Anistrope Filterung auf 16 gestellt. In DevPandi kommt dazu noch AMD FSR2 mit Qualität zum Einsatz. Als Benchmark kommt ein Kampf in einem der Feldlager auf der Oberfläche zum Einsatz. Da hier sich die Umgebung ändern kann, werden eben in drei Lager die Kämpfe aufgenommen und gemittelt.

Final Fantasy 14​

Auch in diesem Spiel gilt: DevPandi ist bereits Max-Out, daher gibt es da nicht viel zu berichten zu den Einstellungen. Als Test-Sequenz wird eine Instanz als Druidin/Weißmagierin gespielt, und zwar eine der beiden Experten Instanzen. Jeder Abschnitt wird als eigener Lauf gewertet.

World of WarCraft​

Bei den Einstellungen ist es einfach: Das Spiel läuft im DevPandi-Setting in der Voreinstellung 5 ohne Anpassungen. Als Testlauf dient hier ein Drachenrennen, dass fordernd sein kann und auch Framedrops in manchen Situationen erzeugt.

WarHammer 40K: DarkTide​

DevPandi ist die Qualitätsvoreinstellung Mittel, zusammen mit FSR 2 in Qualität. Gespielt wird der Prolog.

Diablo 2 Resurrected​

Hier wird für DevPandi die Einstellung hoch gewählt und gespielt wird das erste Gebiet Hölle Akt 5.

Total War: WarHammer 3​

Für DevPandi gilt die Einstellung Hoch ohne weitere Anpassungen, es wird eine Schlacht gespielt. Der Ansturm erfolgt im Schnellvorlauf, dann wird gemetzelt für den Blutgott!

Doom 2016​

Nicht viel zu erklären: Alles auf Max, das schafft die 5700 XT, erste Mission vom Aufzug aus zur ersten Arena und gemetzelt.

Doom Eternal​

Auch nicht viel zu erklären: Ultra – oder Mittel, wenn es nach uns geht – erste Mission bis zur ersten Arena und auch hier gemetzelt.

Metro Exodus​

Einstellungen Ultra, das Intro mit der Fahrt über die Stadt bis einschließlich den ersten Kampf.

Der Überblick​

Wie in einem kleinen Teaser bereits angekündigt, ich bin von der 7900 XTX positiv überrascht, was meine Spiele angeht. Natürlich war es ein Stück weit zu erwarten. Gleichzeitig ist es dennoch erschreckend, wenn man eigentlich nur maximal 200 – 220 W bei der GPU gewohnt ist, plötzlich auch mal 400 W auf der Uhr zu haben. Ich muss aber zu geben, die 400 W – eigentlich sind es 390 – fühlen sich schon seltsam an, aber die Sapphire RX Vega64 Nitro hatte auch mal 350 W auf der Uhr. Da ich nach diesem Test wieder das FPS-Limit bei 72 ziehe und bei ausgewählten Spielen auch zu 90 verschiebe, komme ich unter dem Strich aber auf ähnlich, teilweise auch mal niedriger Werte als mit der 5700 XT. Bevor ich hier noch mehr Text fabriziere, hier einmal der erste Überblick:

Verbrauch.pngAvgFPS.png99.9.png

In den bisher gespielten Einstellungen nähert sich die 7900 XTX den 72 FPS an, die 5700 XT erreichte in der Regel – gerade auch wegen Cyberpunk – nur 63,9 FPS im Mittel. Dabei verbraucht die 7900 XTX etwas weniger, nur 154 W gegen 163 W. Hier macht sich also primär gestiegene Rohleistung bemerkbar. Auch bei den 99.9 % FPS gibt es eine Verschiebung nach oben von 41 FPS auf 50,3 FPS. Die 7900 XTX ist also bei den AVG FPS im ganzen Test ca. 12 % schneller, bei den 99,9 % sind es 22 % und der Verbrauch fällt ca. 6 % geringer aus, nach dem Test auf Computerbase ist das für mich eine kleine aber auch positive Überraschung.

Nehmen wir das Limit heraus, dann genehmigt sich die 5700 XT ca. 40 Watt mehr und kommt auf 203 W, die Avg. FPS steigen auf 114,4 und die 99,9 % auf 60,5. Interessanter ist die 7900 XTX aber an dieser Stelle, denn die kommt bei den Avg. FPS auf 240,5, die 99,9 % auf 116 und der Verbrauch steigt auf 339 W an. Prozentual stehen 110 %, 92 % und 66 % auf der Uhr und auch an dieser Stelle hätte ich im ersten Moment schlimmeres erwartet in meinen Spielen, es ist ein netter Leistungssprung.

Sieht man sich dann noch Max-Out an, wird das Ganze noch interessanter, denn hier legt die 7900 XTX wirklich ordentlich zu und schafft zur 5700 XT fast immer die doppelten FPS, ohne dass der Stromverbrauch auch um das doppelte ansteigt. Hier ist aber die Betrachtung einzelner Spiele wesentlich interessanter. Für die Effizient ergibt sich in diesem Test aber auch kein „überragendes“ Bild im Mittel.Ich gehe nur auf Max-Out an dieser Stelle ein, steigt die Effizienz über alle Spiele nur um ca. 20 % an, wobei sich bei mir im FPS-Limit (DevPandi) auch mal 25 – 30 % ergeben, das hängt aber von den Spielen ab - es geht auch deutlich mehr.

Ich möchte im weiteren Verlauf jedoch nicht auf jedes Spiel eingehen – der Test ist schon sehr lang – sondern ich gehe auf bestimmte Spiele ein, die ich wirklich aktuell regelmäßig spiele und daher eine Bewertung auch am sinnvollsten ist.

Cyberpunk 2077 – Hier wird es wirklich spannend​

Ja, Cyberpunk 2077 ist jetzt seit zwei Jahren auf dem Markt, bald kommt allerdings das Addon und gerade in diesem Spiel gab es bei mir teilweise mit die deutlichsten Veränderung. Gleichzeitig läuft das Spiel bei mir auch relativ effizient mit der 7900 XTX.
Im Setting DevPandi erreichte ich mit der 5700 XT ca. 33,6 fps im Mittel und für 99,9 % sind es gerade mal magere 20,4 fps bei 208 W. Die 7900 XTX liefert 71,6 und 49,3 fps bei 285 W, ich erhalte also zwischen 110 – 140 % mehr FPS – gerade die 99,9 % ziehen stark an – und der Strombedarf steigt nur um 37 %. Das ist beachtlich.
CyberpunkVerbrauch.pngCyberpunkAvgFPS.pngCyberpunk99.9.png

Tiny Tina – die Überraschung​

Dass die Entwicklung mit „mehr FPS“ und „mehr Verbrauch“ auch anders ausgehen kann, zeigt in diesem Vergleich Tiny Tina. Hier schafft die die 5700 XT in meinen Einstellungen bisher zwar 72 fps im Mittel, gleichzeitig benötigt die 5700 XT dafür auch 202 W. Die 7900 XTX schafft im ganzen deutlich mehr FPS – im Max Out steigen die Avg. FPS von 64,9 auf 197,3 und am Ende reicht es in meinem limitierten Setting dazu, dass die 7900 XTX sogar ca. 70 Watt weniger benötigt, also ca. 30 % weniger! Eine positive Entwicklung. Ein ähnliches Verhalten konnte ich bei den DevPandi-Settings auch in WarHammer 40k: Dark Tide beobachten, ich gehe an dieser Stelle aber nicht gesondert darauf ein.

TinyTinaVerbrauch.pngTinyTinaAvgFPS.pngTinyTina99.9.png

In den anderen Settings steigen die FPS wie erwartet an, gleichzeitig aber auch der Energiebedarf. Das Schöne an diesem Spiel ist aber, dass ich nun die Einstellungen höherstellen kann und im weiteren Verlauf dennoch etwas weniger Energie benötige bei einem 72 FPS-Limit. Anzumerken ist jedoch, dass die Frames in Tiny Tina, gerade ohne FSR, etwas unrund laufen, das Problem hatte ich auf der 5700 XT nicht.

Total War: WarHammer 3 – Bitte was?​

Wir kommen zum letzten Spiel in der Detail-Auswertung, nämlich Total War: WarHammer 3 und hier muss ich sagen, hier bin ich wirklich überrascht, was da so zustande kommt, denn über alle Settings hinweg beobachte ich bei den 99.9 % Steigerungen von über 350 % - 12,7 fps auf 57,3 fps im DevPandi-Setting, dagegen sind die 90 % bei den Avg. Fps schon zu vernachlässigen. Nimmt man die Limitierung heraus, läuft die 7900 XTX sogar 750 % schneller bei den 99.9 % und auch bei den Avg. Fps beobachte ich eine Steigerung von gut 350 %, das ist heftig, der Verbrauch steigt am Ende dafür allerdings kräftig an in den beiden anderen Modi – ohne Limit und Max Out, aber hier trumpft das Spiel wirklich auf.

TWW3Verbrauch.pngTWW3AvgFPS.pngTWW399.9.png

Das ist wirklich erstaunlich und entweder lag das Spiel RDNA nicht so wirklich oder RDNA3 besonders gut, denn solche Zuwächse hätte ich nicht erwartet!

Fazit und Ausblick​

Über das Wochenende ist meine anfänglich trotzige Haltung zur 7900 XTX ein wenig der Begeisterung über diese Karte gewichen, besonders, wenn man die 5700 XT als Ausgangsbasis nimmt und man merkt, was da an Leistung dazu kommt. Es macht schon Spaß Cyberpunk nun mit maximalen Details zu spielen und auch die RT-Effekte hinzuzuschalten. Genauso ist es toll, wenn man in Dark Tide nicht mehr auf Mittel mit FSR mit Ach und Krach zwischen 30 – 60 fps hat, sondern man einfach in vielen Spielen die Effekte höherschrauben kann und doch 50 - 72 Frames bekommt. Toll!

Gleichzeitig zeigen aber Spiele wie Cyberpunk 2077 auch, wie unvernünftig die 7900 XTX sein kann, denn 390 W bei der Merc 310 sind eine Hausnummer, die ich bereits bei der 3090 berechtigterweise kritisiert habe und die ich auch bei der 7900 XTX Merc 310 kritisieren muss. Man gewinnt zu 350 W einfach zu wenig hinzu, benötigt aber ca. 10 % mehr Energie. Und damit auch gleich vorweg: Dieser Test ist der erste Teil. Ich mache solche Tests nicht hauptberuflich und habe nicht die Zeit viele Tests auf einen Schlag zu machen. Es wird aber mindestens noch einen weiteren Test geben, der dann weniger Spiele umfasst, dafür genauer auf die einzelnen Spiele eingeht.

AMD macht mit RDNA3 in meinen Augen nicht viel falsch, leider tritt AMD aber mit der Karte in weiten Teilen auf der Stelle, da manche Neuerungen einfach noch nicht zünden. Auch – und das nehme ich AMD sowohl bei Zen 4 und nun auch RDNA 3 krumm – wird die Brechstange ausgepackt. Inwieweit das notwendig ist? Kann ich zum jetzigen Zeitpunkt noch nicht sagen, aber man merkt es an allen Ecken und Enden.

Genauso – und auch das muss man zugeben – ist der Treiber auch abseits des Shader-Compilers noch nicht fertig, denn so manche Einstellung wird nicht sauber übernommen. AMD muss also nicht nur am Compiler arbeiten, sondern allgemein am Treiber und so bleibt zu diesem Thema zu schreiben: AMD hätte hier noch mindestens ein paar Wochen, besser vielleicht sogar 2 – 3 Monate sich Zeit nehmen müssen.

AMD ist mit der 7900 XTX und XT zu früh auf den Markt gekommen und sie standen vermutlich unter Zugzwang durch NVIDIA. Manchmal sollte man sich nicht unter Zugzwang setzen lassen, denn die schlechte Presse, die teilweise dann auch zu Recht folgt, bleibt in den Köpfen der Anwender hängen. So kann man nur schreiben: Selbst schuld, AMD!

Positiv hervorzuheben ist an dieser Stelle, dass es während des Tests aber zu keinen Abstürzen, BlackScreens und andere Unschönheiten gekommen ist, was wiederum dafür spricht, dass der Shader-Compiler nicht massiv umgebaut wurde und die Anpassungen für RDNA1 und RDNA2 als Fallback vorhanden sind.

-- Erweiterung des Tests 28.12.2022 --

Effizienz - Zwischen Erwartungen und Realität​

Es kommt, wie es kommen muss: Ich gehe noch mal gesondert auf die Effizienz der 7900 XTX im Vergleich zur 5700 XT ein. Ebenso bereite ich einen weiteren Test vor. Aber zuerst:

50 % + 50 % sind keine 100 % - sondern etwas mehr​

AMD versprach von RDNA zu RDNA2 die Effizienz um 50 % zu heben und auch jetzt wurde versprochen, dass man ca. 50 % Effizienz anpeilt - und angeblich erreichte man 54 %. Nur wie das mit der Effizienz so ist, es kommt auf die Ausgangsbasis an und auch auf andere Einstellungen. Daher müssen wir in diesem Abschnitt erst mal mit ein paar Sachen aufräumen: Eine GPU - auch CPU - benötigen eine gewisse Mindestspannung (V), damit die Transistoren schalten können. Viele "Schlafmodi" moderner GPUs und CPUs reduzieren nicht nur den Takt, sondern deaktivieren ganze Gruppen an Schaltungen, damit man Strom(stärke) (A) spart. (Entschuldigt die allgemeine Ausdrucksweise, das ist hier einfacher.) Das heißt, dass eine gewisse mindeste Last immer anliegt, auch wenn diese nicht ausgeschöpft wird. In solchen Fällen liegt dann Leistung wirklich brach, die genutzt werden könnte.

Sobald Spiele gestartet werden, müssen immer mehr Teile aus diesen Schlafmodi zurückgeholt werden und entsprechend steigt auch der Bedarf an Strom an. Eine GPU hat also einen Grundbedarf an Spannung und Strom. Es kann also sein, dass gerade in niedrigen FPS-Limits (wie eben 72 FPS) die neue GPU überhaupt nicht effizienter sein kann, weil einfach eine entsprechende Grundlast erzeugt wird. Ich habe - ohne direkte Testläufe - deswegen in Final Fantasy 14 die Probe gemacht: Im 72 FPS-Limit ist die 7900 XTX weniger effizient mit 0,53 fps/Watt als die 5700 XT mit 0,59 fps/Watt (die 5700 XT ist 11 % effizienter). Testweise habe ich das FPS-Limit auf 90 FPS angehoben, der Verbrauch der 7900 XTX lag weiterhin bei 136 Watt (gemittelt) und die fps/Watt heben sich auf 0,66 fps/Watt an, jetzt ist sie 11 % effizienter. Die 11 % sind jedoch MEILENWEIT entfernt von AMDs Versprechen, denn theoretisch müsste die Effizient bei ca. 125 % liegen oder in diesem Beispiel: 0,59 * 1,5 * 1,5 = 1,32 fps/Watt oder anders ausgedrückt die 7900 XTX dürfte maximal 68 Watt verbrauchen.

Daher gehe ich an dieser Stelle auch noch auf die drei ausgesuchten Spiele für die Detailbetrachtung ein.

Cyberpunkt 2077 - Ein Auf und Ab​

Cyberpunk ist in diesem Fall ein schönes Beispiel, was man erwarten kann. Im 72fps-Limit steigt der Verbrauch von 208 W auf 285 W - 37 % an - gleichzeitig aber auch die fps von 33,6 auf 71,6 (113 %). Die 5700 XT erreichte also 0,16 fps/Watt, die neue 7900 XTX 0,25 fps/Watt - die 7900 XTX ist also 59 % effizienter - immer noch weit weg von den theoretischen 125 %.

Nimmt man nun das Limit heraus oder wählt die maximalen Einstellungen, dreht sich das Bild bei der Effizienz zugunsten der 7900 XTX. Die 5700 XT erreicht 0,16 fps/Watt, die 7900 XTX 0,31 fps/Watt und ist damit 93 % effizienter, bei maximalen Einstellungen sind es 0,11 fps/Watt zu 0,21 fps/Watt - 90 %. Wir erreichen hier also fast die doppelte Effizienz, was ein guter Schritt zwischen zwei Generationen ist.

Tiny Tina - Irgendwo dazwischen​

Kommen wir zu Tiny Tina - ich mag sie seit Borderlands 2. Manchmal bin ich auch so drauf und will alles in die Luft sprengen. Sind wir nicht alle ein wenig Tina? (Haha, Bluna Werbung!). Hier ist das Bild ähnlich wie bei Cyberpunk und doch ist die Situation anders. Im limitierten Setting liegen beide Karten gleich auf - 72 fps - es stehen aber einmal 202 W und einmal nur 137 W auf der Uhr - 33 % weniger Energie - und die Effizienz steigt entsprechend an: 0,35 fps/Watt zu 0,52 fps/Watt (48 %). In diesem Spiel zeigt sich ein etwas andere Bild. Nimmt man das FPS-Limit heraus, kommt die 5700 XT au 0,51 fps/Watt, die 7900 XTX auf 0,61 und ist nur 20 % effizienter. Erst wenn man die Einstellungen maximiert, steigt die Effizienz wieder an: 0,30 fps/Watt zu 0,51 fps/Watt, was in 70 % resultiert.

Total War: WarHammer 3 - Pandis Augen werden immer größer.​

Die Überraschung bei der Effizienz ist - wie zu vor schon - Total War: WarHammer 3 und das ist kein Scherz. Um eines vorwegzunehmen: Bisher und auch jetzt wird für die Effizienzbetrachtung die durchschnittlichen fps herangezogen, hier gehe ich aber auch auf die 99.9 % - fps ein, denn hier wird es regelrecht Paradox!

Zuerst die Effizienzwerte für die durchschnittlichen fps: 0,21 fps/Watt gegen 0,38 fps/Watt resultieren in 80 % beim limitierten Setting. Nimmt man die Limitierung heraus, stehen 0,21 fps/Watt gegen 0,46 fps/Watt und die 7900 XTX ist nun 119 % effizienter - nahe am theoretischen Maximum. Die maximalen Einstellungen sind mit 0,19 fps/Watt zu 0,38 fps/Watt und einer Steigerung um 100 % bei der Effizienz gerade zu harmlos.

Gehen wir aber mal auf die 99.9 % fps ein - und nun das Extrem. Hier habe ich 0,07 fps/Watt mit der 5700 XT und die 7900 XT kommt auf 0,31 fps/Watt, das sind überragende 342 %, die die 7900 XTX effizienter arbeitet.

Am Ende entscheidet das Szenario​

AMD hat dieses Jahr in ihren Folien oft die Wörter "up to" verwendet, was so viel bedeutet wie "bis zu". Mancher in der Community haben das bereits als schlechtes Omen gewertet und damit hatten sie - in diesem speziellen Fall auch recht - bei Zen 4 hat es sich ja etwas anders verhalten.

Allgemein sind Angaben, egal ob mit "up to" oder gemittelt, mit einer gewissen Portion Vorsicht zu genießen und noch wichtiger ist, dass sich die Leser klar werden, dass die realen Ergebnisse um diese Werte streuen können. Ich habe in diesem Test absichtlich so einige Begleiter laufen lassen und auch 3 Testdurchläufe durchgeführt und die Werte gemittelt, weil sich jeder Lauf anders verhalten kann. Und so ist das auch mit der Effizienz und den Spielen.

Ich habe es bereits mit FF XIV angedeutet, dass der Verbrauch zwischen 72 fps und 90 fps nicht ansteigt, aber aus 11 % weniger Effizienz dann doch 11 % mehr werden können. Auch in Cyberpunk beobachte ich, dass das Spiel im Limit zwar effizienter wird, aber erst ohne Limit nähert man sich den 100 % an. Das ist auch verständlich und ich habe es eingangs erwähnt. Eine GPU benötigt, um zu schalten, eine gewisse Grundspannung, Bauteilgruppen lassen sich nur in Gruppen abschalten und nicht so fein, wie es manchmal notwendig wäre. Solche Faktoren spielen in die Effizienz mit rein und man merkt an dieser Stelle, dass gewisse Lasten einen gewissen minimalen Bedarf haben.

Die fps/W Werte sind im Anhang angefügt.

Temparaturen und der Hotspot​

Da hier eine XFX Radeon RX 7900 XTX Merc310 Black Edition arbeitet, kann in diesem Test keine allgemeingültige Aussage zu Problemen des Referenz-Designs von AMD abgeben werden. Die Merc 310 - siehe auch Computerbase-Test - hält die GPU in einem Fractal Define R6 auf relativ kühlen 62 °C, während der Hotspot sich zwischen 76 °C und 82 °C bewegt. Die 5700 XT davor wurde wärmer und zeigte auch mal 90 °C an.

110 °C als Hotspot konnte nicht gemessen werden und hier scheint ein Problem bei manchen Referenz-Designs zu herrschen. Mögliche Ursachen sind bereits vielfältig benannt, darunter auch geringe Abweichungen in der Höhe der Chiplets. Am Ende sollte sich allerdings jeder bewusst sein: Bei solchen Bauteilen kann man immer das Pech haben und ein Montagsmodell bekommen. Ich hatte auch schon Grafikkarten - egal ob NVIDIA oder AMD - die teilweise ungewöhnliches Verhalten an den Tag legten oder erst gar nicht starten wollten. Solche Sachen sind unschön, aber in diesem Fall ist mein Ratschlag relativ simpel: Schickt die Karte zurück oder lasst sie austauschen. Ihr müsst nicht mit einem schlechten Produkt euch zufriedengeben.

-- Erweiterung des Tests 30.12.2022 --

Ein kurzes Intermezzo – Wie teuer ist eigentlich RDNA 3​

Bevor wir uns den Ergebnissen der 7900 XTX in RT widmen, will ich aber erst einmal auf die möglichen Kosten einer 7900 XTX eingehen, besser des Chips. Natürlich kann ich die genauen Preise für Wafer von AMD und NVIDIA nicht kennen, daher sind die hier genannten Zahlen eher am oberen Ende verortet und nur eine grobe Orientierung.

Kommen wir zuerst zu den groben Zahlen – und in diesem Fall werden Dollar-Zahlen genommen, damit die Vergleichbarkeit gewahrt bleibt, denn der Wechselkurs kann hier die Bilder verfälschen: Ein 300 mm Wafer in der 5 nm - Klasse (N5, N4, 4N) kostet ca. 17.000 $, in der 7 nm - Klasse (N7, N6) werden 9.000 $ angesetzt. Natürlich unterliegen jetzt alle weiteren Zahlen gewissen Rundungsfehlern und sollten nicht zu ernstgenommen werden und dienen nur der Orientierung.

Für die weitere Einschätzung benötigen wir noch die Größe des GCD und der MCD: 306 mm² und 37 mm². Es gibt jetzt ein paar Wege, wie man an die maximalen Chips pro Wafer herankommt – das ganze habe ich einmal grob in einem Thema berechnet – oder man nutzt entsprechende Werkzeuge.

Bei dem GCD komme ich so auf ca. 185 Chips pro Wafer, bei einer Yield-Rate von ca. 90 % (die Zahlen schwanken bei den fatalen Fehlern zwischen 8 – 12 %) kommen so am Ende 166 Chips heraus. Bei 17.000 $ pro Wafer kostet das GCD 103 $. Beim MCD kommt man pro Wafer auf ca. 1650 Chips, mit den üblichen Yields sind das 1485 und damit – 9.000 $ - 6,10 $. Für Trägermaterial und Zusammenbau veranschlage ich pauschal 20 $ und komme auf 160 $. Für die 7900 XT sinken die Kosten um 12,20 $ und man landet bei 147,80 $.

Bei einer UVP von 999 $ für die 7900 XTX entfallen damit 16 % auf den Chip, bei der 7900 XT sind es etwas Höhere 16,5 %. Diese Zahlen sind ohne weiteren Kontext aber nicht so Aussagekräftig, wir müssen uns noch NVIDIA ansehen. AD102 ist 608 mm² groß und AD103 379 mm². NVIDIA bekommt auf einem Wafer ca. 91 Chips unter, davon sind 82 in der Regel funktionsfähig und ein Chip kostet NVIDIA 208 $. AD103 sind ca. 147 Chips auf dem Wafer, 132 kommen heraus und man landet 128 $. Die Relationen zu den UVPs: 13 % und 10 %.

AMD lässt an dieser Stelle ohne Frage „Marge“ liegen, gleichzeitig liegt AMD aber auch bei den Kosten genau zwischen AD102 und AD103. Zu bedenken ist, dass ich mit den 20 $ für den Zusammenbau sehr hochgreife, der Preisfaktor liegt hier vermutlich zwischen 140 – 160 $ und damit bei 14 – 16 % des UVP.

In der Community gibt es natürlich ein paar Stimmen, die schreiben, dass AMD mit dem Chiplet-Design nicht günstiger produziert, andere behaupten genau das Gegenteil. Beide Seiten haben sowohl recht als auch unrecht, denn es kommt auf die Rechenweise an und welche Daten man zugrunde legt.

Die Chipgröße für einen monolithischen Navi31 schwankt zwischen 384 mm² (unrealistisch, da der Cache als auch der Memory-Controller nicht so eng gepackt werden können) bis hinzu 476 mm² (realistischer). Navi31 würde damit ca. 165 $ kosten. Nimmt man die niedrigsten Produktionskosten von 140 $ an, spart AMD 18 %, bei den teuersten Kosten sind es nur 3 %, für die 7900 XT ändert sich das Bild aber, weil hier im günstigsten Fall 130 $ anstehen, im teuersten 150 $, hier also 26 % im besten Fall und 10 % im ungünstigsten Fall.

Es gibt hier aber auch andere Faktoren, die eine Rolle spielen können, so kann AMD auch weiterhin bereits bestellte N6/N7-Wafer abnehmen, ohne Vertragsstrafen zu zahlen. All das sind Faktoren, die wir nicht kennen. Wichtig ist aber, dass wir hier von großen Mengen sprechen, sodass hier auch Skaleneffekte auftreten und wir reden bei 1000 Einheiten schon von 5000 $, die AMD einspart. Zudem sollte man bedenkt: Diese Zahlen sind nur Annäherungen.

Jetzt kommen wir zu einem – für uns Spieler – unschönen Abschnitt und auch ich hatte ja die Hoffnung, dass AMD und NVIDIA einfach nur ihre Margen hochschrauben wollten, deswegen habe ich auch noch GP102 mir angesehen – GeForce GTX 1080 Ti. Für 10nm Wafer werden ca. 6000 $ genannt und der GP102 hatte damals 471 mm². NVIDIA zog damals ca. 117 Chips, davon 105 funktionierend, aus jedem Wafer und ein Chip kostete damit 58 $, nehmen wir die UVP von 699 $, machte der Chip davon gerade einmal 8 % aus. Sind die 1599 $ für die RTX 4090 viel Geld? Keine Frage, aber wenn man realisiert, dass AD102 heute ca. 13 % der UVP ausmacht, dann hat hier NVIDIA die Kostensteigerungen von N5 zum Teil auf die eigene Kappe genommen. Auch bei AD103 nimmt man ein Teil der Kosten auf die eigene Kappe, so wie es auch AMD tut.

An dieser Stelle sollte man vielleicht auch mal einen Blick auf TSMC werfen, die seit Jahrzehnten Gewinnmargen von 40 % – 50 % einfahren und auch entsprechende Dividenden an die Aktionäre ausschütten. Ob TSMC diese Marge für Investitionen benötigt, darüber kann man dabei wunderschön streiten, am Ende ist es aber die Buchhaltung, die Kosten für Investitionen über Jahre vom Umsatz abzieht.

Warum dieser Abschnitt? Weil ich es an dieser Stelle machen wollte, denn mir brennt die Frage nach den hohen Grafikkartenpreisen auch etwas auf der Seele, auch wenn ich hier die 7900 XTX gekauft habe. Schande über das Haupt von Pandi. Gehen wir auf das Thema RT ein:

Ray Tracing, der alte neue heiße Scheiß​

Zuerst möchte ich an dieser Stelle ein wenig auf Ray Tracing eingehen – ohne Bilder oder Diagramme, ich versuche mich kurzzufassen – ob ich das schaffe?

Ray Tracing – grob umrissen – beschreibt eine mögliche Form der Bildsynthese, die andere Form kennen wir heute als Rasterisation, der Standard, der sich in den 90er bei Computerspielen durchgesetzt hat. Beide Verfahren unterscheiden sich in ihrer Ausführung, gleichzeitig haben sie aber eine Gemeinsamkeit: Die Kamera, die eine gewisse Auflösung hat, danach unterscheiden sich aber die Verfahren grundlegend.

Bei der Rasterisation ist die Kamer ein Pixelraster und Polygone werden mit anhand ihrer Koordinaten von X und Y ermittelt. Dann wird der Farbwert ermittelt und im Bild gespeichert. Bei vielen Polygonen kann es dabei schnell unübersichtlich werden und bei Objekten im 3d-Raum wäre es ein Kuddelmuddel, weswegen es den Z-Buffer gibt, der dabei hilft zu ermitteln, welches Polygone denn diesen Kampf gewinnt. Früher wurden daher auch oft alle Polygone im Bild gerastert, selbst wenn diese eigentlich nicht sichtbar sind, ein Umstand den sich Power VR damals mit der Kyro annahm und einen Tiled-Based-Renderer entwickelte, ein Bild in kleine Kacheln zerlegte. Diese Form der Grafiksynthese ist schnell und effizient und sorgte auch für den Durchbruch der 3d-Grafik.

Ein Ray Tracer arbeitet anders. Hier wird kein Raster über eine Szene gelegt und einfach anhand der Koordinaten bestimmt ob da etwas sein müsste, sondern für jeden Bildpunkt der Kamera wird ein oder mehrere Strahlen ausgesendet und geprüft, ob diese im Raum auf ein Objekt treffen. Ist das der Fall, wird der Strahl geschluckt und wird „zurück“ geworfen mit den entsprechenden Farbwerten für diesen Bildpunkt.

Ray Tracing ist dabei nicht gleich Ray Tracing. Allen Ray Tracern gemein ist, dass sie mit Strahlen arbeiten – deswegen kann man frühe 3d-Engines wie Wolfenstein 3D, Doom und Doom 2 (war nicht mehr Ray Casting, aber doch ein bisschen. Mir explodiert der Kopf!), auch zu den Ray Tracern zählen. Diese Ray Tracer werden oft als Ray Caster bezeichnet und sind damit die einfachste Form. Diese einfache Form der Ray Tracer kann nur eben einen Farbwert übermitteln und keine Beleuchtungsdaten oder keine Schattendaten. Dafür ist deutlich mehr notwendig und genau hier setzte sich dann die Rasterisation durch, die mittels Shadow- und Lightmaps einen sehr einfachen Weg bieten, die Beleuchtung und Schatten zu simulieren. Bei Ray Tracern ist mehr notwendig, womit die Rechenleistung schnell ansteigt.

Um Schatten und Beleuchtung zu berechnen, müssen weitere Strahlen abgesetzt werden, dieses Mal aber nicht von der Kamera aus, sondern von dem Punkt aus, an dem unser Strahl der Kamer auftritt. Um Schatten zu berechnen, muss man von der Stelle einen Strahl absetzen, der zur nächsten Lichtquelle geht. Trifft dieser Strahl auf dem Weg zur Lichtquelle auf ein Objekt – wird also blockiert – weiß man, dass hier ein Schatten vorliegt und entsprechend kann man diese Stelle abdunkeln. Es kann nun dank der Schattenstrahlen direkte Lichtquellen und eben Schatten berechnet werden.

Wir haben also jetzt den direkten Strahl der Kamera und einen Licht- bzw. Schattenstrahl und damit einen primären und sekundären Strahl. In einem nächsten Schritt kann von der Stelle, in der unser Strahl verschluckt wurde, noch einen weiteren Primärstrahl abgesetzt werden, sofern eine Oberfläche als „Spiegelnd“ deklariert wird. Wir berechnen jetzt Reflexionen. Physikalisch nach dem Eintritt ist gleich Austritt, sucht dieser Strahl ein Objekt. Ist ein Objekt gefunden, folgt von dort ein neuer Sekundärstrahl zur Lichtquelle und vielleicht ein neuer Primärstrahl. Das Absenden von weiteren Primärstrahlen nennt man auch Rekursives Ray Tracing. Wir haben jetzt einen Ray Tracer, der bereits direkte Beleuchtung und Reflexionen berechnen kann und ihr ahnt wohl, worauf es hinausläuft: Je mehr Effekte man umsetzten will, umso mehr primäre und sekundäre Strahlen werden benötigt.

Um den Arbeitsaufwand „überschaubar“ zu halten und doch möglichst alle Effekte zu erlangen – direkte und indirekte Beleuchtung, gerichtete und diffuse Reflexionen, harte und weiche Schatten, Umgebungsverdeckung und Co – haben findige Entwickler in den 80er das Path Tracing entwickelt. Hier kommen Techniken aus der Stochastik – genauer die Monte-Carlo-Simulation – zum Einsatz , womit die Anzahl an Strahlen drastisch reduziert wird. Um nämlich alle Effekte zu berechnen, muss man bei einem Ray Tracer nicht nur einen sekundären Strahl zur jeder Lichtquelle absetzen, sondern zu jedem Objekt in der Umgebung und von dort dann wieder zur jeder Lichtquelle. Erst dann wird die Beleuchtung und alle Reflexionen richtig dargestellt. Um hier Strahlen zu sparen, wird ein Zufallsprinzip eingeführt und es wird beim Auftreffen des primären Strahles entschieden, ob überhaupt Sekundärstrahlen abgesetzt werden und auch wie viele. Das führt am Ende dazu, dass man ein Bild mit einem starken Rauschen bekommt, dass dann mit einem Denoiser entfernt wird.

20221230130518_1.jpg20221230130529_1.jpg

Path Tracer mit der Monte-Carlo-Simulation sind also die aktuellste Ausbaustufe der Ray Tracer und wenn wir heute von Ray Tracing sprechen, meinen wir eben einen Path Tracer. Und für die unter euch, die gerne behaupten, dass Path Tracer ja kein echtes Ray Tracer wäre oder nur eine Schmalspurlösung: Nein, einfach nur NEIN!

Welche Spiele im RayTracing Test und warum?​

Um die Leistung der 7900 XTX in RayTracing zu testen, habe ich mich für Cyberpunk, Doom Eternal, Metro Exodus und Quake 2 RTX entschieden. Cyberpunk bietet – neben Metro Exodus Enhanced Edition – eine der besten aktuellen RT-Integrationen und auch eine der vollständigsten. Doom Eternal wiederum gewinnt durch RT auch an Grafikqualität, aber im weiten nicht so wie die anderen beiden Spiele.

Für Quake 2 RTX habe ich mich entschieden, weil dieses Spiel – neben Minecraft RTX – das einzige wirkliche Path Tracer Spiel aktuell auf dem Markt ist. Die RT-Implementierungen in allen anderen Spielen folgt einem Hybrid-Ansatz, der zum Teil auch Leistung brach liegen lässt. So kostet RT in Spielen wie Cyberpunk, Metro und Co oft mehr Leistung, als notwendig wäre, weil Effekte teils doppelt berechnet werden. In Quake 2 RTX und Minecraft RTX ist das nicht der Fall.

Warum aber dann kein Minecraft RTX? Weil Minecraft von der ganzen Engine her einfach nur unglaublich schlecht ist, auch wenn ich Minecraft als Spiel liebe.

Die 7900 XTX und RayTracing – Für jetzt reicht die Leistung​


Machen wir es kurz: Wer sich eine 7900 XTX gekauft hat oder kaufen will, kann in den meisten Spielen bedenkenlos RT aktivieren, in der Regel bleibt die Framerate spielbar, wobei aber jeder selbst entscheiden muss, was spielbar ist.

RTFps.pngRTFSR.png

In Cyberpunk erreicht die 7900 XTX – ohne FSR – 36,4 fps im Durchschnitt und die 99.9 % liegen bei 25,4. Das ist nicht viel, man muss aber dazu schreiben, dass Cyberpunk auf der 7900 XTX – genauso wie auf der 5700 XT – auch mit RT-Effekt sehr sauber läuft und sich die 25,4 – 36,4 fps sehr gleichmäßig anfühlen. Gegenüber dem Max-Out büßt Cyberpunk mit allen RT-Effekten (maximiert) ca. 55 % ein (80,3 fps). Aktiviert man FSR2, erreicht die 7900 XTX 61,8 fps – (-23 %). FSR 2 wurde dabei in Qualität verwendet. Der Bildeindruck ist während des Spieles gleichwertig.

Der zweite Titel ist Doom Eternal, hier erreicht die 7900 XTX in 1440p 234,3 fps. Da hier eine andere Testszene verwendet wurde – mit wesentlich mehr Lichteffekten und Spiegelungen – ist ein direkter Vergleich mit den ursprünglichen Ergebnissen ist nicht möglich. Ich habe die gleiche Szene aber auch ohne RT vermessen und komme auf 370,4 fps und damit büßt die 7900 XTX hier knapp 37 % ein.
20221230133050_1.jpg20221230133231_1.jpg

Kommen wir – Metro Exodus spare ich mir an der Stelle, dazu sind die Grafiken da – zu Quake 2 RTX. Hier erreicht die 7900 XTX bei allen möglichen Effekten 68,0 fps und bei den 99.9 % 55,4 und ist gut spielbar.

20221230102900_1.jpg20221230102913_1.jpg20221230103237_1.jpg20221230103250_1.jpg20221230103432_1.jpg20221230103506_1.jpg
Mit FSR 1 erhöhen sich die FPS auf 123,2 und 76,0, was auch gut ist. Und der Sprung bei der Grafik ist gewaltig, wenn man mal Texturen und Modelle nicht beachtet.

Lautstärke und Verbrauch​

Als vorletzter Abschnitt dieses Tests: Die Lautstärke habe ich natürlich jetzt auch ermittelt und kann sagen, dass die Merc 310 eine kleine Radaumacherin ist, aber im Vergleich zur Thicc 2 sehr leise agiert.

Unter voller Last in Cyberpunk – Gehäuse offen – erreicht die Merc 310 39 dB(A), ist das Gehäuse geschlossen sind es 35 – 36 dB(A). Hat die Grafikkarte nichts zu tun, geht sie im restlichen vollkommen unter, dass mit 29 – 31 dB(A) vor sich hinarbeitet.

Kommen wir zu den Verbräuchen: Bei einem „ruhendem“ Desktop benötigt die Merc zwischen 18 – 27 W, das Mittel liegt bei 22 W. Hier muss man bedenken, dass Discord und Co natürlich kleinere Spitzen erzeugen. Bei YouTube (4k, 60 FPS) liegt der Verbrauch zwischen 38 – 55 W (46 W im Mittel). Immer noch nicht gut, aber auch nicht mehr SO katastrophal wie zu Anfang.

Bei einem aktiven Desktop liegt der Verbrauch der Grafikkarte zwischen 25 W – 45 W, im Mittel bei ca. 35 W. Getestet wurden die Verbräuche mit dem Treiber 22.12.2.

Abschließendes Fazit und Ausblick auf Phase 5​

Kommen wir nach nun gut 2 Wochen des Testens zu einem vorläufigen Fazit zur 7900 XTX: Es hat sich für mich aktuell nicht viel geändert und wenn man die Ausgangsbasis – die 5700 XT – nimmt, dann bin ich von der 7900 XTX begeistert. Gleichzeitig bin ich mir aber der Schwächen der Karte bewusst und habe diese auch bewusst in Kauf genommen. Ich finde das Chiplet-Design toll und genauso spannend für mich ist der Umbau der Compute Units und genau da liegt auch für mich der Kaufgrund. Ich bin ein Spielpandi und liebe Technik und für mich liefert AMD mit RDNA 3 die interessantere Technik ab.

Die 7900 XTX ist jedoch durch und durch eine unvernünftige Spielkameradin. Sie benötigt bis zu 390 W – was echt viel ist. Sie ist auch nicht die effizienteste Karte. Bei Rasterisation kann die 7900 XTX mit der RTX 4080 mithalten und bei modernen Spielen auch manchmal in Schlagdistanz zur RTX 4090 kommen, in Ray Tracing ist sie allerdings unterlegen. Man merkt auch an vielen Ecken und Enden, dass weder die Treiber, an manchen Stellen aber auch die Partnerkarten noch nicht so ganz im Einklang sind und an diesen Stellen noch gearbeitet werden muss. Auch der Shader-Compiler ist noch eine Baustelle.

Wer – aktuell – die schnellste Karte, egal in welchen Lebenslagen haben will, greift zur RTX 4090, an dieser führt kein Weg vorbei. Wer eine klasse Tiefer schaut und wenn RT wichtig ist, sollte der Griff zur RTX 4080 gehen. Wer die effizienteste Karte haben will, greift auch zur RTX 4080 oder RTX 4090.

Für wen ist die 7900 XTX also empfehlenswert? Nun, eigentlich für alle – wenn wir ehrlich sind. Klar, man muss schon ein wenig verrückt sein, man muss auch gewisse Schwächen akzeptieren, aber wie in der vorherigen Generation, man macht weder mit AMD noch mit NVIDIA viel falsch, vor allem wenn man von einer älteren Karte kommt. Gleichzeitig muss man aber auch schreiben: Im Gegensatz zu mir solltet ihr noch 2 – 3 Monate warten, bis viele der kleinen Fehler und Probleme behoben sind und AMD auch weiter am Treiber und Shadercompiler arbeiten konnte.

Benötigt ihr jetzt eine schnelle Karte, dann kauft die RTX 4080, denn diese ist aktuell das rundere Produkt!

Und was mache ich jetzt? Ich plane die Phase 5 und bereite den nächsten Test vor, dann geht es um PCIe3 und PCIe4 bei der 7900 XTX und wie viel Leistung wohl brach liegt durch PCIe3. Freut euch, der Test ist für den Sommer während meines Jahresurlaubes geplant.

P.S. Das Shader Prefetching scheint wohl zu funktionieren!

Anhang - Absolute Werte​

Zusammenfassung​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi63,941,0163 W71,850,3154 W
DevPandi - No Limit114,460,5203 W240,5116,0339 W
Max-Out99,255,0204 W211,7112,4347 W

Black Mesa​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,762,3134 W71,760,990 W
DevPandi - No Limit280,7153,5213 W294,7185,9218 W
Max-Out280,7153,5213 W294,7185,9218 W

Cyberpunk​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi33,620,4208 W71,649,3285 W
DevPandi - No Limit33,620,4208 W110,752,2356 W
Max-Out23,315,4216 W80,346,1385 W

Tiny Tina​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,731,5202 W71,934,7137 W
DevPandi - No Limit110,159,7216 W237,786,9388 W
Max-Out64,945,7215 W197,375,9347 W

WarHammer 40k: DarkTide​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi58,231,9208 W71,858,4148 W
DevPandi - No Limit58,231,9208 W163,686,7387 W
Max-Out30,324,1211 W102,264,7390 W

Diablo 2 Resurrected​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,334,5189 W72,036,1188 W
DevPandi - No Limit80,834,2207 W234,293,4385 W
Max-Out74,130201 W243,3120387 W
*Ja, die Zahlen stimmen so, mich hat das selbst verwundert, warum Max-Out schneller läuft auf der 7900 XTX.

Final Fantasy 14​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,959,9122 W7266,4136 W
DevPandi - No Limit127,768,1208 W315,6191,5375 W
Max-Out127,768,1208 W315,6191,5375 W

Total War: WarHammer 3​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi37,812,7182 W71,757,3187 W
DevPandi - No Limit37,812,7182 W177,5108,5388 W
Max-Out35,114,3183 W145,892,7388 W

World of WarCraft​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,624,5133 W71,723,0134 W
DevPandi - No Limit127,033,2199 W253,650,6245 W
Max-Out87,724,2191 W142,831,6294 W

Doom Eternal​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi72,053,9129 W72,067,4121 W
DevPandi - No Limit136,384,0190 W423,6214,8387 W
Max-Out117,772,6193 W410,8226,1389 W

Doom (2016)​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi72,061,2113 W7258,9118 W
DevPandi - No Limit176,4118,3208 W199,6119,0209 W
Max-Out176,4118,3208 W199,6119,0209 W

Metro Exodus​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,458,7176 W71,840,7148 W
DevPandi - No Limit90,049,0199 W234,786,1387 W
Max-Out73,639,1206 W195,982,8387 W

Anhang 2 - RayTracing​

SpielAvg. FPS99.9 %Avg. FPS (FSR)99.9 % (FSR)
Quake 2 RTX68,055,4123,276
Cyberpunk 207736,425,461,836,8
Doom Eternal234,3140,9--
Metro Exodus Extended89,034,1--

Anhang 3 - FPS/Watt​

Zusammenfassung​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,390,470,250,33
DevPandi - No Limit0,560,710,300,34
Max-Out0,490,610,270,32

Black Mesa​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,530,800,460,68
DevPandi - No Limit1,321,350,720,85
Max-Out1,321,350,720,85

Cyberpunk 2077​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,160,250,100,17
DevPandi - No Limit0,160,310,160,15
Max-Out0,110,210,070,12

Tiny Tina​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,350,520,160,25
DevPandi - No Limit0,510,610,280,22
Max-Out0,300,510,210,19

WarHammer 40K: Dark Tide​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,280,480,150,39
DevPandi - No Limit0,280,420,150,22
Max-Out0,140,260,110,17

Diablo 2: Ressurrected​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,380,380,180,19
DevPandi - No Limit0,390,610,170,24
Max-Out0,370,150,630,31

Final Fantasy 14​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,590,530,490,49
DevPandi - No Limit0,610,840,330,51
Max-Out0,610,840,330,51

Total War: WarHammer 3​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,210,380,070,31
DevPandi - No Limit0,210,460,070,28
Max-Out0,190,380,080,24

World of WarCraft​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,540,530,180,17
DevPandi - No Limit0,640,171,040,21
Max-Out0,460,490,130,11

Doom Eternal​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,560,590,460,56
DevPandi - No Limit0,721,090,440,56
Max-Out0,611,060,380,58

Doom 2016​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,640,610,540,50
DevPandi - No Limit0,850,960,570,57
Max-Out0,850,960,570,57

Metro Exodus​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,400,490,330,28
DevPandi - No Limit0,450,610,250,22
Max-Out0,360,510,190,21
 

Anhänge

  • IMG_0399.jpg
    IMG_0399.jpg
    470,7 KB · Aufrufe: 941
  • IMG_0400.jpg
    IMG_0400.jpg
    558,2 KB · Aufrufe: 865
  • IMG_0401.jpg
    IMG_0401.jpg
    588,6 KB · Aufrufe: 993
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Orok91, Jurial, Dalu und 196 andere
Ich kann mir auch die Milliardengewinne anschauen und mich fragen ob weniger Gewinn die Preise niedriger machen würden. Aber ist Kapitalismus halt.
 
Czk666 schrieb:
Aber ist Kapitalismus halt.
Wobei man - jetzt werde ich etwas marxistisch - durchaus die Frage stellen kann, ob Gewinne wie 40 - 50 % bei TSMC wirklich notwendig sind oder auf Dauer nicht dem System sogar schaden.

Das geht dann aber wirklich tief in VWL und BWL und da kann man sich wunderbar streiten.
 
  • Gefällt mir
Reaktionen: floTTes und andi_sco
HageBen schrieb:
Sehe ich etwas anders. Der Chip alleine ergibt keine Grafikkarte, dieser ist nur ein Teil des ganzen Aufwandes.
UVP - Chip = für die restliche Grafikkarte, Entwicklung, Logistik, Gewinn...
Nun ja, dummerweise kostet halt auch alles was Schaltkreise, IC etc ist, mehr als zu Turing Zeiten.. Zum Teil 150% mehr.. GDDR6X ist stand Heute knapp 80% teurer als 2019.
Die Rechnungen sind IMMER nur eine Schätzung.. Aber Nvidia verdient halt nicht an der gesamten GPU, sondern ihre 60% Marge liegen auf dem Chip, VRAM und ggf VRM Package.. Und die VRM sind halt auch um bis zu 120% im Preis gestiegen.

https://www.technik-einkauf.de/rohstoffe/hohe-rohstoffpreise-veraendern-einkauf-dauerhaft-573.html
Und bedenke dabei noch eines: Die meisten Zulieferer für die Chipbranche sind Monopolisten. Und TSMC mit 84% Marketshare kann quasi auch die Preise machen, wie sie wollen.. Bei veranschlagten 17.000 USD kannste locker von 60-80USD für den AD104 ausgehen.. Zum AD102 brauchen wir nicht reden.

@Snakeeater
Du hast den Sinn des Lesertests wohl nicht verstanden.. Nun ja, ich würde mich freuen wenn du 2023 dann einen fachlich sauber verfassten Techartikel zu AMDs CU machst und diese detailgenau analysierst. Damit du nicht mit der Banalität eines Lesertests mit mehreren Updates leben musst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes
DevPandi schrieb:
Diesen 245 $ muss AMD dann die ganzen eigenen Kosten stemmen, die aktuell laufen.
Auch und das weißt du woher? Du hast doch keine Ahnung wie die Zahlen wirklich sind und stellst jetzt so eine Rechnung mit absoluten Zahlen auf.

Meinst du nicht das irgendeine der ganzen Seiten im Netzt, nicht schon längst mal so eine Rechnung aufgestellt hätten, wenn das so einfach wäre, selbst wenn man nur zu 80% richtig liegen würde?

Nochmal, ich finde deine test super, aber die Zahlen die du da einfach nennst, sind nichts weiter als geraten, und so was sollte man einfach lassen, das sind, platt ausgedrückt, nichts anderes als "fake news"
 
Robo-Man schrieb:
Nochmal, ich finde deine test super, aber die Zahlen die du da einfach nennst, sind nichts weiter als geraten, und so was sollte man einfach lassen, das sind, platt ausgedrückt, nichts anderes als "fake news"
Ich gebe von anfang an, dass meine Zahlen Näherungswerte sind und geschätzt werden. Ich arbeite aber lieber mit Näherungswerten und auch Erfahrungen aus Vertrieb, bevor ich mir eine Meinung bilde und diese dann lautstark verbreite.

Du wiederum hast dir deine eigene Meinung gebildet nur aufgrund der UVPs und weil dir diese zu hoch sind. Dann kommt es zu klassischen platten und populistichen Aussagen auf Stammtisch-Niveau "Firma XYZ ist gierig.". Wenn dann andere dir aufzeigen, dass diese Sichtweise vielleicht zu einfach ist und damit eventuell auch nicht stimmt, fängst du an dich zu wehren - Du kannst es ja nicht wissen, nur deinen Zahlen sind geschätzt, du verbreitest Fakenews - weil du selbst unfähig dazu bist, dich und deine Meinung selbst zu reflektieren. Selbstreflexion ist etwas Unangenehmes, denn man muss dann ggf. einsehen, dass man bisher vielleicht einen Fehler gemacht hat. Entsprechend ist auch gerade dein Verhalten.

Aber wie heißt es so schön: Haters gonna hate.

-- edit --
Und jetzt war ich das bissige Pandi, so an patzen lasse ich mich ganz sicher nicht, nur weil ich sage, dass die Kostentreiber nicht nur der Gier von NVIDIA und Co geschuldet ist. …
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes
Robo-Man schrieb:
Auch und das weißt du woher? Du hast doch keine Ahnung wie die Zahlen wirklich sind und stellst jetzt so eine Rechnung mit absoluten Zahlen auf.

Meinst du nicht das irgendeine der ganzen Seiten im Netzt, nicht schon längst mal so eine Rechnung aufgestellt hätten, wenn das so einfach wäre, selbst wenn man nur zu 80% richtig liegen würde?
Es gibt quasi zahlen aus 2022, 2021 und davor.. Damit kann man ziemlich genaue Rückschlüsse ziehen. Welche Rabatte dann die Firmen bekommen, kennt man nicht. Aber die Näherung ist halt da. Und beim Thema EK Preise für Halbleiter kann ich sogar auch bissl was ausm Nähkästchen plaudern...
Wir haben derzeit 14-16 Wochen Lieferzeit bei unseren Herstellern.
 
Laut deiner Aussage betreibt also jede Seite die die uvp als zu hoch erachtet (Runden wir das mal auf auf "jede") also Stammtisch geblubber?

Und hast vollkommen recht, ich bin nicht so tief in der Materie, und habe auch keine zeit/lust mich stundenlang einzulesen und EK Preise zu suchen.

Daher muss ich mich auf das "verlassen" was man eben auf den newsseiten so findet, oder eben z. B. Von Usern wie dir erläutert wird.
Aber eine gesunde Portion Skepsis darf dann von meiner Seite aus dabei sein oder nicht, vor allem wenn halt einfach keine "Quelle" dabei ist?

Dann liest man wieder das nvidia ihren stock loswerden muss (sie haben ja selber gesagt das sie aktuell weniger liefern um die alte Generation abzuverkaufen), und dann denk ich mir halt meinen Teil. Ist das falsch?
Warum thematisiert denn nicht eine compurerseite das was du gerade machst?


Dann schau ich mir die anderen Elektropreise an, und sehe nirgendwo auch nur annähernd Erhöhungen von 70+%.

Und dann kristallisiert sich halt für mich das genannte bild "Gier" raus. Tut halt auch keiner aktiv was dagegen, wird überall gleich berichtet.
 
Robo-Man schrieb:
Warum thematisiert denn nicht eine compurerseite das was du gerade machst?
Weil das die meisten Leser auf diesem Detaillevel nicht mehr interessiert. Es ist schlussendlich ein eher trockenes Thema und setzt doch etwas an grundlegendem Wissen bzw. Bereitschaft und Fähigkeiten zur Erfassung komplexerer Themen voraus (voller Dreisätze - "was'n das?").

Hier auf ComputerBase würde ein solcher Artikel der Redaktion (nicht von Lesern) im täglichen News-Geschehen wohl schnell untergehen. Das sind dann Test-Balken als "unumstößliches Fundament" für den "Markenkrieg" weitaus relevanter.

Anandtech hatte so etwas früher häufiger mal (k. A. wie das heute ist).
 
  • Gefällt mir
Reaktionen: floTTes und Volvo480
ComputerJunge schrieb:
Weil das die meisten Leser auf diesem Detaillevel nicht mehr interessiert.
Das kann ich mir beim besten Willen nicht vorstellen, was meinst du was "Preissprung der neuen Generation ist gerechtfertigt" für Klicks erzeugen würde?

Und ich denke jeder würde einen kleinen Einkaufszettel verstehen, wo Artikel und Preise drauf stehen.
 
  • Gefällt mir
Reaktionen: Convert
ComputerJunge schrieb:
Weil das die meisten Leser auf diesem Detaillevel nicht mehr interessiert.
Daran liegt es nicht. Es liegt schlicht daran, dass Computerbase keine Quellen von der Kostenstruktur hat. Ohne diese Quellen muss man eben aufgrund der allgemeinen Entwicklung extrapolieren, oder sagen wir mal "begründet raten". Damit würde sich Computerbase also auf dünnes Eis begeben. Als Forums-Nutzter kann mir so eine begründete Vermutung reichen, um über das Thema zu schreiben. Als Artikel ist so eine begründete Vermutung zu dünn, da man sich hier angreifbar macht, weil man nichts belegen kann. Sieht man ja hier im Forum, wie man direkt angegangen wird, weil man es nicht belegen kann.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Hut ab was für ein Test. Sry kann ich nicht am Stück lesen.:)

Sehr schöner Artikel. Ich bin auch darauf gespannt ob die Probleme mit dem Treiber in laufe der Zeit gelöst werden können. Solange warte ich auf jedenfall. Oder man lässt eine weitere Gen aus, kauft eine Nvidia Karte, geht ja auch.
 
Rockstar85 schrieb:
Aber Nvidia verdient halt nicht an der gesamten GPU, sondern ihre 60% Marge liegen auf dem Chip, VRAM und ggf VRM Package.. Und die VRM sind halt auch um bis zu 120% im Preis gestiegen.
Die Frage bleibt aber trotzdem, ob es gerechtfertigt ist, dass Nvidia 60% Marge für Consumerkarten einsackt. Mag ja sein, dass jetzt die Unterlieferanten sich sagen, ne, wir wollen auch ein Stück vom Kuchen. Mag sein, dass TSMC auch mehr Marge haben will, weil die eben einen einzigartigen Prozess liefern. Ich gönne TSMC eher eine 60 Prozent Marge, immerhin haben die ein hohes Risiko, wenn sie den nächsten Prozess nicht rechzeitig hinkriegen, dann steigen die schnell ab in die zweite Reihe, so wie Samsung aktuell.
Wenn Nvidia mal eine Grafikkarten-Generation nicht so gut hinbekommt, hat das nur minimale Auswirkungen auf deren Geschäftszahlen. TSMC hat also ein größeres Risiko und damit brauchen die auch eine höhere Marge, denn für höheres Risiko will ich mehr Rendite als Aktionär.

Nvidia dagegen sollte mal von den 60 Prozent Marge auf Consumerkarten Roß absteigen und sich mit weniger begnügen. Aber Karten für 1500 Euro kaufe ich bestimmt nicht zum zocken, können die behalten. Abgesehen davon hat Nvidia Grafikchips von Samsung vernichten lassen, nur um die Marge von 60 Prozent zu halten. Wer so vorgeht, dem gönne ich schon mal gar nicht so eine hohe Marge.

https://www.heise.de/news/Gewinnein...uer-gestrichene-GPU-Bestellungen-7242878.html
 
Robo-Man schrieb:
Wie kommst du eigentlich auf die yield rates?
Ist es nicht ein wenig "Milch Mädchen rechnen"
HageBen schrieb:
Sehe ich etwas anders.
Robo-Man schrieb:
Mehr als ein "solides raten" ist das deine Rechnung aber dann nicht.
Robo-Man schrieb:
Auch und das weißt du woher? Du hast doch keine Ahnung wie die Zahlen wirklich sind und stellst jetzt so eine Rechnung mit absoluten Zahlen auf.
Ich finde diese Punkte durchaus valide und zurecht angebracht.

Es ist auch thematisch nichts was ich in diesem Artikel erwarten würde. Das gilt aber für fast jeden Punkt des Abschnitts „Erweiterung des Tests 30.12.2022“.

Robo-Man schrieb:
Du hast so nen schönen Artikel geschrieben Pandi, mit fachlich fundierten Aussagen.
Bisher basierte der Artikel auf technischer Faktenlage und eigens erstellen Tests/Werten. Das fand ich für einen Leserartikel auch sehr gelungen.

DevPandi schrieb:
Wie ich geschrieben habe, mir gefällt der Absatz selbst nicht
Dann ist halt die Frage ob man es nicht gleich ganz weglässt.

Es basiert eben nicht auf einer eindeutigen Datengrundlage und es auch nicht wirklich zum avisierten Inhalt des Titels „5700 XT gegen 7900 XTX und was mit AM4 so möglich ist“ passend.
 
ComputerJunge schrieb:
Weil das die meisten Leser auf diesem Detaillevel nicht mehr interessiert.
Das ist mit ein Problem, auch wie man so einen Artikel dann auch verständlich und spannend schreibt, ohne dass man ggf. zu "lapidar" und "laienhaft" wird. ;)

Es ist immer ein Drahtseilakt, wenn es um solche Artikel geht. Dazu kommt auch - wie ich ja bei meinen Berechnungen erwähnt habe - dass alles nur Näherungen sind. Die Preise pro Wafer bei TSMC findet man an vielen Stellen und kann die als Ausgangsbasis nehmen. Genauso wie viel eine Platine mit n-Layern kostet, was einzelne Bauteile kosten.

Es kommt am Ende dann jedoch auch der Skaleneffekt hinzu. Was für uns dann im ersten Moment »wenig« erscheint, sind bei ihnen dann schnell ein paar Tausend Dollar.
ComputerJunge schrieb:
Bereitschaft und Fähigkeiten zur Erfassung komplexerer Themen voraus (voller Dreisätze - "was'n das?").
Nicht mal, man muss, denke ich, viel eher bereit sein, dass man seine eigene Meinung vielleicht revidieren muss, wenn man neue Denkansätze präsentiert bekommt und da scheitert es dann leider schnell.

Es ist die Aufgabe des Journalisten, die komplexen Sachverhalte so weit runter zu brechen, dass die meisten sie verstehen, wenn der Artikel sich an die Allgemeinheit richten soll. Es muss also nachvollziehbar aufbereitet werden.
ComputerJunge schrieb:
Hier auf ComputerBase würde ein solcher Artikel der Redaktion (nicht von Lesern) im täglichen News-Geschehen wohl schnell untergehen.
Nicht nur würde sie schnell untergehen, so ein Artikel hat ein ganz anderes Problem: Recherche und Verifikation. Ich habe zum Beispiel nicht die erst besten Zahlen genommen, sondern mindesten 3 - 4 Artikel, die sich mit dem Thema befassen und die diese Zahlen aufbereitet haben. Entsprechend schwanken da ja auch die Zahlen.

Bei anderen Bereichen muss man die entsprechenden Kontakte haben, dazu dann da ggf. Quellenschutz, wenn es um heiklere Informationen geht. Wir sprechen hier ja schnell von Geschäftsgeheimnissen. Man benötigt auch entsprechende Quellen - Großhandel z.B. - Hersteller.

Nur, kein Hersteller, kein Großhändler und auch die anderen Teile in der Lieferkette werden ganz genaue Zahlen nennen - Geschäftsgeheimnis, dass anderen zu viel verraten könnte - sondern immer nur entsprechende Preisspannen.

Ähnlich verhält es sich dann auch mit Großhändlern und Händlern, auch hier wird ungern über die genauen Rabatte gesprochen, weil da auch verhandelt wird und bessere Großhändler auch bessere Rabatte bekommen und Co. Ich kann hier - heute - nur aus meinem Bereich die Zahlen liefern, die quasi jeder Großhändler und Einzelhändler kennt.

Convert schrieb:
Als Artikel ist so eine begründete Vermutung zu dünn, da man sich hier angreifbar macht, weil man nichts belegen kann.
Oh, so wirklich "belegen" kannst du bei solchen Artikeln selbst mit verlässlichen Quellen - wenn wir es mal akademisch betrachten - nichts, weil du deine Quellen zwar kennst, aber nicht benennen darf (Quellenschutz), weil die Quellen ja an dich Geschäftsgeheimnisse weiter geben und das teuer wird.

Wenn man dann als Journalist nicht dafür sorgt, dass die Quelle anonym bleibt, ist man sehr schnell seine übrigen Quellen los, weil die einem nichts mehr verraten. Hier ist also ein gewisses Vertrauen in die Journalisten notwendig.
Convert schrieb:
Sieht man ja hier im Forum, wie man direkt angegangen wird, weil man es nicht belegen kann.
Was ja eigentlich auch nicht verkehrt ist - besser das Hinterfragen ist nicht verkehrt. Worauf es in solchen Fällen ankommt, ist die Intention, mit der dieses Hinterfragen erfolgt.

Hinterfrage ich die Zahlen und stelle sie als "Fake-News" dar - wobei ich ja geschrieben habe, dass ich mich dem nur grob an nähere - weil mir die Aussage dahinter nicht gefällt. Oder werden die Zahlen hinterfragt, weil man bessere Informationen hat oder weil sie wirklich grundlegend falsch sind.

Hier wurden die Zahlen hinterfragt, weil die mögliche Aussage dahinter nicht der eigenen Meinung entspricht.

Um mal ein paar Quellen zu liefern:
Für die Preise der Wafer und GDDR6
https://hardwaresfera.com/en/noticias/hardware/precio-oblea-tsmc-5nm/
https://www.tomshardware.com/news/t...aled-300mm-wafer-at-5nm-is-nearly-dollar17000
https://www.tomshardware.com/news/tsmc-will-charge-20000-per-3nm-wafer
https://www.techspot.com/news/96742-tsmc-reportedly-plans-raise-3nm-wafer-prices-25.html
https://crast.net/de/215210/tsmc-to-increase-3nm-wafer-prices-by-25/
https://www.guru3d.com/news-story/gddr6-significantly-more-expensive-than-gddr5.html
https://www.neowin.net/news/very-high-gddr6-costs-blamed-for-such-high-gpu-prices/
https://www.hardwaretimes.com/doubl...idia-and-amd-less-than-12-gb-its-very-likely/
https://www.tomshardware.com/news/gddr-prices-expected-to-increase-q3-2021

Für die Chips pro Wafer kann man Werkzeuge nutzen: https://www.silicon-edge.co.uk/j/index.php/resources/die-per-wafer
Preise für Bauteile, kann man sich bei Großhändlern in Erfahrung bringen, z.B.: https://de.rs-online.com/web/c/halbleiter/diskrete-halbleiter/mosfet/

Natürlich ist das am Ende alles nur eine Annäherung, liefert aber eben Anhaltspunkte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und ComputerJunge
Convert schrieb:
Daran liegt es nicht. Es liegt schlicht daran, dass Computerbase keine Quellen von der Kostenstruktur hat.
Nach meiner Auffassung liegt das natürlich vor allem daran. Ob ich mich irre, kann aber nur die Redaktion beantworten.

Die nicht vorhandenen Quellen sind nur ein sekundäres "Problem". Das ist aber insofern kein Problem, da kein Medium dieser Welt über Zugang zu diesen Zahlen in offizieller Form verfügt. Es handelt sich hierbei immerhin um zentrale Geschäftsgeheimnisse. Deswegen sind diese Zahlen auch nicht belegbar ("Wir bitten um Verständnis, dass wir Spekulationen zu unseren Produktionsstrukturen und -kosten nicht kommentieren.").

Viel mehr als die Waferpreise und Yields gibt es offiziell einfach nicht. Den Rest muss man sich irgendwie herleiten. Dabei helfen dann auch "echte" Enthusiasten, welche sich die Prozessoren kaufen, nur um sie dann "runterzuschleifen", um eine Aufnahme des Dice als Basis für die Flächenermittlung der einzelnen Bereiche anzufertigen.


Edit: Inhaltliche Überlappung
 
Zuletzt bearbeitet:
Eigentlich sollten wir uns hier nicht zu arg auf eine spekulative Preis Diskussion konzentrieren, weil bis auf den Spekulatius ist das ein hier hervorragender und sehr informativer Leserartikel. Daumen hoch 👍
 
b|ank0r schrieb:
Dann ist halt die Frage ob man es nicht gleich ganz weglässt.
Weil ich an dieser Stelle einmal den allgemeinen Tenor nach den "gierigen" Herstellern hinterfragen wollte und ebenso hat mich interessiert, ob etwas daran ist, dass AMD und NVIDIA hier maßlos übertreiben und die Karten in der Form auch für 500 € auf den Markt hätten kommen können. Die Preisfrage ist zudem sowohl hier im Thema als auch im anderen Thema zu dem Artikel durchaus auch angesprochen worden. Genauso, ob AMD wirklich billiger als NVIDIA produzieren kann, ich habe es aufgegriffen, weil ich es interessant finde.

Ich habe klar geschrieben, dass ich mit groben Zahlen arbeite, da ich unterschiedliche Zahlen gefunden habe, die eine gewisse Spanne wiedergeben. Meine Zahlen sind eine grobe Schätzung, die am oberen Ende der realen Zahlen liegt. Das habe ich klar kommuniziert.

Es geht bei diesen Zahlen auch nicht darum, dass ich hier AMD und NVIDIA in den Schutz nehmen will, sondern die Zahlen sollen mehr zum Nachdenken anregen und dass man nicht einseitig die Schuld bei AMD und NVIDIA sucht, sondern dass das Thema einfach komplexer ist.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und HageBen
DevPandi schrieb:
Hier wurden die Zahlen hinterfragt, weil die mögliche Aussage dahinter nicht der eigenen Meinung entspricht.
.
Wie kommst du darauf? Ich habe die Zahlen angezweifelt weil du einfach was ohne "Quelle" rausgehauen hast. Das man einfach keine Quelle hat ist mir auch klar, weil das keiner verraten wird, genau daher ist das ja so ein schwieriges Thema wie viele. Hier schon geschrieben haben.

Nur weil ich das bsp. gebracht habe "ich sag Gier, du was anderes"?
Das war ein bsp. Für beide Aussagen die sich nicht fundamental belegen lassen. Und zum Thema Gier ist das netzt ja voll.

Und ob du mal eben 20% daneben liegst, ist halt bei den Preisen schon ein riesen unterschied. Bei einer uvp von 1199*0,8. Hätte es bestimmt nicht so einen riesen Aufschrei gegeben.

Wie gesagt ich. In dankbar für die % Rechnung auf Basis der Gesamtkosten, aber dabei hätte es halt imho. Bleiben sollen, weil das kann man ja wirklich fundamental belegen was tsmc dafür verlangt.

Edit:
Wie HageBen sagt sollten wir es dabei belassen, Diskussionen gehören dazu, aber du hast hier tolle Infos zusammengetragen und viel Arbeit rein gesteckt, das will ich jetzt auch nicht durch so eine Diskussion untergehen lassen
 
  • Gefällt mir
Reaktionen: HageBen und Volvo480
Robo-Man schrieb:
Und ich denke jeder würde einen kleinen Einkaufszettel verstehen, wo Artikel und Preise drauf stehen.
Abgesehen davon, dass der Einkaufszettel verdammt lang wäre, fehlen halt die Preise als offizieller Input.

Ich fände es gut. Vielleicht als "Joint-Venture" mit Igor, DevPandi und anderen Fähigen?
 
Zurück
Oben