News GPU-Gerüchte: AMD RDNA 5 (UDNA) erscheint Mitte 2027

Wären noch dgpu mit n2p möglich? Klares ja aber teuer und man müsste min einen 60$ chip bis 500€ verkaufen dafür aber gddr6 nutzen den der ist verfügbar.
Etwa dem ampere design mit 6gpc =96sm davon 90 aktiv
Davon 3 sku bauen 60 76 90sm diese dann stromsparend bei 2,7ghz beibehalten was dann
137mm² 60$ chip wäre dazu an 192bit 12 gddr6 20gbps chips a6$
sku ab 420$ hier 430€ 160w tbp +- rtx4070ti perf. 30tf
eine sku darüber mit dann 76sm etwa rtx 4080 perf. bei 200w 600€ und die schnellste bei 750€ etwa auf level der rtx5080 mit 230w

Umsetzbar ist das nur will das nvidia nicht amd ebenso nicht, alle wollen ai. Und ai braucht cache.
gpu sind lineare Prozessoren die perfekt mit wenig sram auskommen da diese auf Latenz angewiesen sind. Sprich Takt.
Ai ist post Prozess und kann out of order handeln. Das hat immer ne Latenz ist aber auch egal da es keine Echtzeitanwendung ist.
Diese hybriden Die für datacenter und consumer entworfen wurden war ne Wette das ai durchschlägt. jetzt muss man dies in apu optimieren und den sram Anteil drastisch verkleinern.
Allein aus stromspar Sicht ist das notwendig
ne dgpu ist möglich auf n2p was noch finfett ist aber nicht mit 64mb L2 cache der nicht mehr schrinkt.
amd verzichtet laut Gerüchten sogar auf den inf cache und lässt rdna komplett fallen das wird wieder eine traditionelle 64bit arch wie gcn
Das bedeutet auch das man dual issue streicht dafür laufen 2 32bit codes parallel (einfache Genauigkeit) was bei spielen die norm ist) faktisch 1 clock 4 Operationen
dies könnte bei der langsamsten chip Ausbau mit 64cu bis zur rtx4080 perf bringen und den mit 96cu auf lvl der rtx5090 hieven und das bei maxed 305w als dgpu in n2p finfett
mit a16 womit amd ihre udna herstellen als igp tile sind da nochmal um die 36-50% Stromersparnis drin
als dgpu würde das ganz in den Takt gehen also min 3,5ghz maxed 4,0ghz. Als igp voll in die Effizienz was dann 185w-230w tdp bedeuten würde

macht es Sinn überhaupt schneller zu sein als ne rtx5090?
Kurz nein das cpu limit das ein wenig gemildert wird bleibt ein problem

pathtraycing löst das nur bedingt zumal immer wieder bei den bvh zu Problemen kommt im Gegensatz zu raster was linear ist ist pathtraycing exponentiell sprich man muss denoisen da ansonsten mit jeden strahl die menge an fp32 workflow verdoppelt.
Das kann man in hardware nicht lösen. und raster ist in ein limit gekommen wo mehr Auflösung nix mehr bringt. also 8k und so
Pathtraycing ist der Weg aber es muss denoised werden und da braucht man zwingend mehr Effizienz und cache der muss nicht zwingend L2 sein L3 reicht als externen cache
also wird man stattdessen die tensor cores akä Ganzzahl Prozessoren in int32 aufgeteilt in int8 herstellen, geringer würde Ergebnisse zu viele Fehler haben.
Daher dürfte das so ausgehen auf einen cu kommen 64 tensor kerne zu 128 alu dadurch kann man 1-1 rendern in pathtraycing + simultan denoisen in vierfache Geschwindigkeit
Das dürfte dann ein denoised level von x32 entsprechen optimal wäre x64 Fach
Derzeit denoised man auf level von x16 darum sind die strahlen bei pathtraycing noch so hoch womit die perf. Einschlag groß ist etwa 80% aktuell
Mit der Verdoppelung des denoising würde man die strahlen halbieren und das gleiche Ergebnis haben.
mit doppelter fps am ende.
ich würde dann die strahlen gleich lassen und das bessere denoising nutzen für ein deutlich besseres Bild.
das bedingt aber min ne doppelte sm/cu egal ob amd oder nvidia das ist umsetzbar.
Darum wird man auf level der rtx5090 grob bis zur ps6 pro hängen bleiben. was so 2032 sein wird.

Das problem sind nicht die gpu sondern die ipc der cpu. Zen6 wird da ein großen schritt machen +60%
zen7 nochmal grob +50% und dann endlich auch in 1080p ne rtx5090 perf. auslasten kann was dann patbtraycing effektiv nutzbar macht.
Darüber hinaus muss man aber auf neue Halbleiter und substrate gehen damit man die 15-50ghz marke sieht.
Das ist aber Thema ab 2032 bis 2036 je nachdem wann bismut kommt.


Der Grund warum ne rtx4090 noch immer nicht geschlagen wurde von der neuen generation liegt daran das nvidia nicht bereit war 18500$ fürn n3 wafer zu geben die chips sind zu groß.
Derzeit 44% alu bei den meisten sku 31% sram der nicht kleiner wird 15% si und display engine
mit n3 wären es nur noch 25% alu 55% sram 20% displayengine und si
und das wird mit n2p nicht besser sondern schlimmer. Das ist auch der Grund warum man auf apu wechselt um zumindest das Si auszulagern
Der Grund warum 256bit als bsp so groß ist liegt schlicht an pcie den physischen link den man braucht um die analogen lötpunkte auf dem pcb direkt zu verbinden
Das macht man aus latenzgründen dies ginge auch direkt per chip zu chip Verbindung mittels hbm da wäre 2048 bit gleich groß wie 256bit mit bga vram chips.
Die alternative ist mehrere chips auf ein package zu verbinden also alu chip + sram si chip + cpu chip.
Es macht kein Sinn nenn mcm chip zu machen mit externen si ohne cpu.

Die alternative wäre den sram als Stapelchip mit tsv zu verbinden das erzwingt aber ein gleich großen sram chip mit dem alu chip. Das ist denkbar aber teuer. Tsmc verlangt dafür pro wafer 30000$ die chips dürften nicht größer sein als 108mm² +-62$
Das begrenzt aber die renderleistung auf maxed 4gpc a24sm bei nur 3,5ghz +-rtx4090 lvl
ein größerer chip wäre ab 168mm² möglich würde aber 124$ kosten und wäre nur knapp +20% schneller
und das bei grob 550w. Das lohnt nicht
man müsste den Takt Weg gehen was dann 4,0ghz bedeuten würde und eine min tbp von 300w fürn entry
kleinere chips lohnen nicht weil man in Wärmestau kämen würde.

man sieht man ist gezwungen den apu Weg zu gehen wenn es halbwegs wirtschaftlich sein soll.
Ohne Kompromisse würde ich auf a16 node warten mit gaa und bspd und dann tsv verbundene chips die 5,0ghz zu erreichen. Der Grund ist wie bei fast allen AI.
Den ohne riesigen Sram wäre das halb so schlimm und man könnte bei gleichen chipgrößen doppelte an alu und perf herausholen.
Wäre da nicht dass cpu limit.
 
SKu schrieb:
Es benötigt kein High-End im Consumer-Market mehr.
Benötigt wurde das noch nie - immer eine Frage des Budgets…
SKu schrieb:
. Da brauchts dann auch keine 90er Karte mehr, wenn mit passablem Frame-Generation am Ende auch dreistellige Frames auf dem Bildschirm stehen.
Völlig uninteressant für schnelle Online-Shooter - die Spiele, die die absolute Masse spielt …
 
incurable schrieb:
18 Monate zwischen Erstellung der ersten Belichtungsmasken und Produktveröffentlichung erscheint mir mehr als nur ein bisschen zu lang.
Da bion ich generell bei dir. Aber da es sich im Zweifel ja um eine komplette neue Architektur handelt -> wird da eventuell länger getestet. Ich meine Tap Out muss ja sein um die ersten Testchips an sich produzieren zu können.. Werden diese dann länger validiert wegen neuer Architektur. Was wenn Fehler entdeckt werden - dann müssten eventuell ja noch mal Anpassungen an Maske etc. geschehen - oder?
 
Quidproquo77 schrieb:
Im Gegensatz zu dir maßt er sich nicht an Nvidia Käufer als Markenfans hinzustellen, sondern aus rationalen Gründen ein Produkt zu kaufen.
Nein, das habe ich nicht. Du kannst einfach wie immer nicht richtig lesen.
Und ich sehe keinen rationalen Grund sich eine 9070XT mit 32GB zu kaufen, wenn man bereits eine 4090 hat. Du und deinesgleichen könnt einfach nicht begreifen, dass eure Bedarfsfälle nicht allgemeingültig sind.

Quidproquo77 schrieb:
Natürlich bezweifelst du es, schließlich muss man das Narrativ der "bösen Fanboys" die blablablah
Das ist einfach Quatsch, mit Moral oder bösen Fanboys hat das gar nichts zu tun. Das alberne Narrativ habt ihr euch selbst erdichtet. Aber kein Wunder, dass du dich angesprochen fühlst ;) Das Jahr hätte nicht enden können, ohne dass du einen kurzen Kommentar von mir aus der Mitte dieses Threads in 30 Zitate aufteilst. Was soll man sonst mit seiner Freizeit an diesen Tagen anfangen ;)

Quidproquo77 schrieb:
"Die Leute" die schon immer eine Intel CPU gekauft haben, haben heute eine AMD CPU in ihren Rechenknechten, weil Raptor Lake nach den X3D Produkten im Vergleich wie ein Schluckspecht gesoffen hat und genügend CPUS degradiert sind. AMD hat/hatte die klar besseren/effizienteren Produkte.
Aber genau das habe ich doch auch geschrieben? Einfach richtig lesen:
zeedy schrieb:
AMD könnte nur dann ein größeres Stück vom High End Kuchen abhaben, wenn man ein deutlich besseres Produkt anbietet. Schneller, deutlich günstiger und mindestens gleichwertig beim Feature Set.

Quidproquo77 schrieb:
Die 6800XT war in Raytraycingspielen chancenlos, hatte kein konkurrenzfähiges KI-Upscaling, kein Reflex und das allgemein schwächere Featureset. VRAM hin oder her kann man kaum zu dem Fazit kommen, dass das AMD Angebot in der Gesamtschau besser war. Die 3080 kann heute sogar noch DLSS4
Raytracingspiele (ein y) konnte man 2020 quasi an einer Hand abzählen. (4 im CB Test). Und auch DLSS war noch lange nicht so gut wie es heute ist. DLSS4 ist in dem Kontext völlig irrelevant. Ja, das Featureset war bei Nvidia größer, das machte die 3080 aber nicht unbedingt besser als die 6800XT. Auch habe ich nicht behauptet, die XT wäre besser. Und genauso lautete das Testfazit von Computerbase. Einen eindeutigen Sieger gab es nicht. Dennoch hatte sich die 3080 viel besser verkauft als die 6800XT, und genau das war der wesentliche Punkt meines Kommentars.

Quidproquo77 schrieb:
Du findest es richtig, weil es bereits in der Analyse an Neutralität scheitert.
Der Fanboy-Cope definiert Neutralität sehr subjektiv ;)
Meine Analyse ist absolut plausibel und erklärt AMD's Verzicht auf High End GPUs.
 
  • Gefällt mir
Reaktionen: ReVan1199 und SweetOhm
@rentex Die 5080 kann man da schon mit aufnehmen, warum man aber einen Bench abbildet, indem sich die Spitzengruppe der GPUs ganz offensichtlich allesamt im GPU Limit befinden, ist gelinde gesagt schon etwas tendenziös. Was soll das aussagen? 4080 und 5080 landen unter Verwendung derselben GPU im identischen CPU-Limit. Wow.
Die 5080 ist sicher kein Highlight im Blackwell Lineup, da braucht es eigentlich nicht so einen Quatsch, der die Leute bewusst in die Irre führt.
 
Lan_Party94 schrieb:
dann wird das Teil so schnell wie möglich verscherbelt! Über meine nächste GPU wird definitiv drei mal nachgedacht...

Was hast Du denn an der 7900XTX auszusetzen?
 
  • Gefällt mir
Reaktionen: SweetOhm
ReVan1199 schrieb:
Selbst mit meiner RX 7800XT ist das kein Problem.
In CS vielleicht :p
Ergänzung ()

MaverickM schrieb:
Was hast Du denn an der 7900XTX auszusetzen?
Wenn dir FSR3 reicht kannst du ihm sie ja abkaufen :rolleyes:
Ergänzung ()

Quidproquo77 schrieb:
Natürlich bezweifelst du es, schließlich muss man das Narrativ der "bösen Fanboys" die ihre Kaufentscheidungen angeblich so gar nicht aus rationalen Gründen treffen aufrechterhalten und damit indirekt der Moralischen Käufergemeinschaft von AMD Produkten schaden.

Die das aus selbstlosen Motiven tun. So ähnlich ist doch der Gedankengang.
Genau das ist der Gedankengang :p
Wundert aber wenig bei dem Kindergarten, den man in der Vergangenheit bereits lesen musste …
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Neubauten schrieb:
@rentex Die 5080 kann man da schon mit aufnehmen, warum man aber einen Bench abbildet, indem sich die Spitzengruppe der GPUs ganz offensichtlich allesamt im GPU Limit befinden, ist gelinde gesagt schon etwas tendenziös. Was soll das aussagen? 4080 und 5080 landen unter Verwendung derselben GPU im identischen CPU-Limit. Wow.
Die 5080 ist sicher kein Highlight im Blackwell Lineup, da braucht es eigentlich nicht so einen Quatsch, der die Leute bewusst in die Irre führt.
Das ist jetzt nur ein aktuelles Review...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: zeedy
  • Gefällt mir
Reaktionen: SweetOhm
zeedy schrieb:
Einen eindeutigen Sieger gab es nicht. Dennoch hatte sich die 3080 viel besser verkauft als die 6800XT, und genau das war der wesentliche Punkt meines Kommentars.
Um einen Kunden der Jahrelang gut beliefert und zufrieden mit dem Produkt ist auf seine Seite zu ziehen, muss man eben mehr liefern als nur fast Gleichstand.
Bestandskunden haben da einfach keinen Grund/Wunsch zu wechseln.
Wenn ausreichend Mehrwert da ist, wird der Kunde in der Regel auch das bessere Angebot sehen und annehmen....siehe CPUs.
 
zeedy schrieb:
Nein, das habe ich nicht. Du kannst einfach wie immer nicht richtig lesen.
Das ist der Kern deiner Aussage in Bezugnahme auf den ursprünglichen Kontext.

Den du wiederum mehrfach bestätigst und dich gegen Einwände von @Dedenne1987 stellst.
Die Schuldigkeit für ausbleibende Marktanteile wird primär bei der Käuferschaft gesucht, das Unternehmen selbst wird aufgrund einer emotionalen Verbundenheit (die du eigentlich kritisierst) weitgehend aus der Verantwortung genommen, selbst dann wenn sie hinsichtlich Leistung (4090/5090) und Softwarefeatures keine ausreichenden Alternativen anbieten.

Der Vorwurf an die Käufer ist ein logischer Fehlschluss, da er von vorneherein einfache Grundprinzipien der Marktwirtschaft ignoriert.

In einer Marktwirtschaft entscheidet allein der Käufer durch seine Präferenzen und diese hast du bereits mit deinem inhaltlich falschen Vergleich und dem Auslassen von Vorteilen der Konkurrenz (DLSS, RT, Reflex, Featureset, Bildqualität usw.) ad absurdum geführt und das gemacht, was du selbst kritisierst.
zeedy schrieb:
Du und deinesgleichen könnt einfach nicht begreifen, dass eure Bedarfsfälle nicht allgemeingültig sind.
Schwache Rhetorik. Bedarfsfälle von AMD Karten wurden bereits durch deinen Beitrag #100 hinsichtlich des High End Segments negiert bzw. festgezurrt und die Sinnhaftigkeit einer konkurrierenden AMD Lösung durch einen einfachen Fehlschluss in Zweifel gezogen und rationale Netzwerkeffekte als "fanatische Fanbase" verkauft.
Araska schrieb:
Ich hätte eine 9080XT gekauft - AMD wollte nicht.
"Ich hätte" steht schlüssig stellvertretend für AMDs fehlende Alternativen, welche von deiner Seite als "Von daher finde ich es richtig, dass AMD den Enthusiastenmarkt aufgegeben hat", also einer Umdeutung von Schwäche als Weisheit, kommentiert wurden.

In deiner emotionalen Verteidigungsarie ist dir gar nicht aufgefallen, die "Bedarfsfälle" selbst skizziert zu haben und nun jemanden mit "du und deinesgleichen" dafür angreifst Bedarfsfälle zu sehen und in dem entsprechenden Segment einzukaufen, welches von deiner Seite als eigentlich unnötig erklärt wird.

Dein Vorwurf "ich könne nicht richtig lesen" lässt sich anhand deines Beitrages an mehreren Stellen widerlegen. "Du und Deinesgleichen" vollziehen hier erneut einen Hersteller-Cope, in dem Schwächen eines Herstellers durch verzerrte Logik in strategische Siege umgemünzt werden, Siege, die möglich wären wenn Teile der Käuferschaft nicht so verblendet wären.
zeedy schrieb:
Aber genau das habe ich doch auch geschrieben? Einfach richtig lesen,
Und dann gleich ein "wirtschaftlich kaum möglich" hinterher schieben. Der Spagat zwischen deinen Aussagen funktioniert nicht, da du bereits implizierst hast das Angebot der 6800XT wäre besser gewesen und es erneut tust, indem du positive Eigenschaften der 3080 nicht im gleichen Maßstab aufwiegst.
Eine bessere Effizienz der Radeon gilt auch nur unter reiner Rasterisierung, ohne Zuhilfenahme von DLSS und RT.
zeedy schrieb:
Und auch DLSS war noch lange nicht so gut wie es heute ist.
DLSS 1 kam 2018 in drei Spielen, DLSS2.0 im Frühjahr 2020 vor Ampere und war zum Release schon breit verfügbar, und keineswegs "nicht gut". Nicht gut war das Angebot von der Konkurrenz mit FSR1 bzw. gar keinem Konkurrenten bis mitte 2022. Man konnte mit DLSS Qualität das native Niveau erreichen und 60% Performance hinzugewinnen, während eine Radeon nichts dagegen stellen konnte.

Dazu fällt dir so wenig ein, dass du es in deiner "Analyse" einfach komplett unter den Teppich gekehrt hast.
zeedy schrieb:
Meine Analyse ist absolut plausibel und erklärt AMD's Verzicht auf High End GPUs.
AMD hatte auch mit deutlich unterlegenen "High End GPUs" wie Vega, Radeon VII, Fury, 2900XT, selbst RDNA3 alias 7900XTX und Co noch deutlich mehr Marktanteile als heute. Der Verzicht ist nicht plausibel, sondern scheiterte an AMDs verworfenen Chiplet Plänen.

Man kann es auch ganz kurz und knackig sagen: Sie haben es einfach nicht geschafft.

ActionNews schrieb:
Manchmal frage ich mich wie machoistisch man veranlagt sein muss um das jedes mal wieder aufs Neue mit zu machen.
"Masochismus" besteht darin sich selbst zu schaden und ein Produkt zu kaufen,
von dem man nicht wirklich überzeugt ist. Deine Forderung "Kauft doch mal zur Abwechslung AMD (...) oder nicht weit weg (sind) haben" kommt dem gleich, wogegen du dich eigentlich stellen möchtest.

Ich finde es ja schon interessant, dass sich die Meinung "Nvidia seien die Gamer völlig egal" verbreitet halten kann, obwohl sie High End Produkte, bessere, ausgereiftere und breiter verfügbare Features stellen und erst kürzlich den Feature Support (Physx) erweitert haben, während AMD RDNA3 Nutzer trotz ML Fähigkeiten am langen Arm verdursten lassen. AMD müssten die Gamer, um deine Argumentation aufzugreifen, vollständig egal sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch, maxrl und incurable
Jethro schrieb:
Die 5090 ist gerade ca. 25% mal schneller als der Vorgänger und der Rest schafft mit viel Glück mal einen zweistelligen Zuwachs.
Da ich ja selbst grad eine 4090 Suprim mit EK Block gegen meine neue 5090 Waterforce getauscht hab kann ichs denk mal ziemlich gut vergleichen. Und bei mir rennt die Karte grausam schnell.

Im 3DMark Port Royale reden wir von 55-60% Zuwachs. Beide Karten jeweils OCed und gut gekühlt versteht sich, hab hier nicht 4090 Stock vs. Kotzgrenze 5090 verglichen. Meine 4090 hatte auch ein 600W BIOS, Powerlimit ist also auch nicht das Limit hier.

Die 5090 kann richtig was wenn man sie stramm kühlen kann und ein gutes Bin erwischt. Läuft bei mir wenn ich Stable Diffusion mache mit average 3270-3300 Takt, in manchen Games hab ich sie auch schon an den 3,4 Ghz kratzen sehen.

Das Erlebnis dürfte mit dem DualCooler der FE natürlich niemals so gut ausfallen. Ich war selbst extrem überrascht.
 
  • Gefällt mir
Reaktionen: incurable
Quidproquo77 schrieb:
Das ist der Kern deiner Aussage in Bezugnahme auf den ursprünglichen Kontext.
Nein, das war er nicht. Auch AMD hat Markenfans, Nvidia hat aber alleine wegen des Marktanteils (>90% remember?) viel mehr davon ;)

Quidproquo77 schrieb:
In einer Marktwirtschaft entscheidet allein der Käufer durch seine Präferenzen und diese hast du bereits mit deinem inhaltlich falschen Vergleich und dem Auslassen von Vorteilen der Konkurrenz (DLSS, RT, Reflex, Featureset, Bildqualität usw.)
Der Vergleich war inhaltlich korrekt und das Auslassen der NV Features ist nicht schlimm, da du diese unermüdlich in jedem Thread auflistest ;)

Quidproquo77 schrieb:
Bedarfsfälle von AMD Karten wurden bereits durch deinen Beitrag #100 hinsichtlich des High End Segments negiert bzw. festgezurrt und die Sinnhaftigkeit einer konkurrierenden AMD Lösung durch einen einfachen Fehlschluss in Zweifel gezogen und rationale Netzwerkeffekte als "fanatische Fanbase" verkauft.
Nö, das hast du falsch verstanden ^^

Quidproquo77 schrieb:
"Ich hätte" steht schlüssig stellvertretend für AMDs fehlende Alternativen, welche von deiner Seite als "Von daher finde ich es richtig, dass AMD den Enthusiastenmarkt aufgegeben hat", also einer Umdeutung von Schwäche als Weisheit, kommentiert wurden.
Falsch.

Quidproquo77 schrieb:
Dein Vorwurf "ich könne nicht richtig lesen" lässt sich anhand deines Beitrages an mehreren Stellen widerlegen. "Du und Deinesgleichen" vollziehen hier erneut einen Hersteller-Cope, in dem Schwächen eines Herstellers durch verzerrte Logik in strategische Siege umgemünzt werden, Siege, die möglich wären wenn Teile der Käuferschaft nicht so verblendet wären.
Der Vorwurf ist leider immer noch gültig, siehe unten ^^

Quidproquo77 schrieb:
Und dann gleich ein "wirtschaftlich kaum möglich" hinterher schieben. Der Spagat zwischen deinen Aussagen funktioniert nicht, da du bereits implizierst hast das Angebot der 6800XT wäre besser gewesen

Quidproquo77 schrieb:
DLSS 1 kam 2018 in drei Spielen, DLSS2.0 im Frühjahr 2020 vor Ampere und war zum Release schon breit verfügbar, und keineswegs "nicht gut"
Du zitierst mich wie ich "nicht so gut wie es heute ist" schreibe, tust dann direkt darunter so als hätte ich es einfach als nicht gut bezeichnet. Gehts dir nicht gut? ^^

Quidproquo77 schrieb:
AMD hatte auch mit deutlich unterlegenen "High End GPUs" wie Vega, Radeon VII, Fury, 2900XT, selbst RDNA3 alias 7900XTX und Co noch deutlich mehr Marktanteile als heute. Der Verzicht ist nicht plausibel, sondern scheiterte an AMDs verworfenen Chiplet Plänen.
Falsch.
 
zeedy schrieb:
Nein, das war er nicht.
Inhaltlich ist:

"Die Leute, die 4090 und 5090 kaufen die, weil sie schon immer Nvidia gekauft haben, da würde eine AMD Alternative nichts bewirken."

und

"Die Leute kaufen doch Nvidia 4090 und 5090 egal wie viel sie kosten. Und wenn es mal Konkurenz von AMD gibt kaufen Sie trotzdem Nvidia"

Grundsätzlich Deckungsgleich, die Schuld wird primär bei den Kunden gesucht und ein "gleichwertiges Angebot" vorgetäuscht. Aber das hatte ich ja schon geschrieben. Selbst eine 3070 war inkl. DLSS Q bei gleicher Bildqualität schneller als eine 6800XT und ist es auch heute noch mit Performance gegen Native FSR3, solange der VRAM reicht.

"Nein das war er nicht" ist folglich die Unwahrheit. Einfach zu seinen Aussagen stehen und sauber argumentieren.
zeedy schrieb:
das Auslassen der NV Features ist nicht schlimm, da du diese unermüdlich in jedem Thread auflistest
Damit gibst du mir indirekt Recht. Danke, ging sehr schnell. "Unermüdlich nur, wenn es irrationalerweise unter den Teppich gekehrt wird.
zeedy schrieb:
Nö, das hast du falsch verstanden ^^
Meine Analyse war gut folglich fehlt auch ein inhaltliches Gegenargument. Du kannst nicht anderen etwas vorwerfen was du selbst betreibst, das ist dir denke ich selbst klar.
zeedy schrieb:
Warum falsch? Absolut logisch. :)
zeedy schrieb:
Du zitierst mich wie ich "nicht so gut wie es heute ist"
Das Gefälle zur Konkurrenz war immens.
Nur das zählt in dem Kontext.
zeedy schrieb:
Auch hier kein Argument.
 
Zuletzt bearbeitet:
Zurück
Oben