News AMD Radeon RX 7900 XTX & 7900 XT: RDNA-3-Grafikkarten sollen Anfang Dezember erscheinen

Ein 5nm Wafer bei TSMC ist ~85% teurer als ein 7nm Wafer und der Samsung 8nm Wafer ist nochmal ein gutes Stück günstiger als TSMCs 7nm.
Also der Chip an sich kostet in TSMC 4N verglichen mit Samsung 8 schon mehr als das doppelte
 
Zuletzt bearbeitet:
@Taxxor

85% on top?

8-()

Kannst du dich noch erinnern wo du das gelesen hast?

Oha, die Preissteigerung von Node zu Node ist anscheinend noch erheblicher als es AMD vor einigen Jahren kommuniziert hat.
 
Zuletzt bearbeitet von einem Moderator:
Magnifico schrieb:
Kannst du dich noch erinnern wo du das gelesen hast?
https://www.tomshardware.com/news/t...aled-300mm-wafer-at-5nm-is-nearly-dollar17000

Die Zahlen sind aus 2020, da waren es 82%, die der N5 teurer war als der N7.

Dazu kommen nicht nur der Fakt, dass Samsungs 8nm(10nm++) Prozess nochmal deutlich günstiger als TSMCs N7 ist, sondern auch noch mal mehrere Preissteigerungen seitens TSMC oben drauf, wenn man das Ganze mit den Kosten für Samsungs 8nm in 2020 vergleicht.

Samsungs 10nm++ aka 8nm sollte irgendwo zwischen TSMCs N10 und N7 liegen, gehen wir mal von ~ $7500 pro Wafer aus.
Dann kommen TSMCs Preissteigerungen dazu und wir haben ~ $7500 pro Wafer für Samsungs 8nm in 2020 vs ~ $19000 pro Wafer für TSMC N5 in 2022 -> +150%

AMD hat nicht einen ganz so krassen Anstieg der Kosten, weil sie ja vorher bereits auf dem teureren N7P von TSMC waren und mit Navi31 auch nur noch 308mm² in N5 nutzen, also knapp die Hälfte von Nvidia(damit auch besserer Yield)
Der Rest ist N6 in kleinen 37,5mm² Chiplets(vmtl nahezu perfekter Yield), der als Mainstream Node insgesamt eher etwas günstiger als N7P sein dürfte.

Insgesamt dürfte ein Navi31 Die mit 308mm² N5 + 6x37,5mm² N6 (533mm²) ca 60% von dem Kosten, was Nvidia für seinen AD102 (608mm² 4N) ausgeben muss.
Ergänzung ()

Magnifico schrieb:
Oha, die Preissteigerung von Node zu Node ist anscheinend noch erheblicher als es AMD vor einigen Jahren kommuniziert hat.
Soweit ich mich erinnere, hat AMD bei den Prozessen immer die Kosten pro Transistor statt pro mm² verglichen.

Da mit einer neuen Node natürlich auch viel mehr Transistoren dazukommen, bzw die gleiche Anzahl auf kleinerer Fläche möglich ist, wirkt der Ansteig bei dieser Betrachtungsweise nicht so stark.

Mal als Beispiel mit den Wafer Preisen von oben:

GA102 = 628mm² / 28,3B Transistoren / $7500 pro Wafer / $97 pro Chip / $0,0000034275 pro Transistor
Navi21 = 520mm² / 26,8B Transistoren / $9400 pro Wafer / $97 pro Chip / $0,000003619 pro Transistor

Die Kosten pro Chip waren für Navi21 und GA102 gleich, obwohl Navi21 deutlich kleiner war, einfach weil der N7P teurer ist. Pro Transistor betrachtet ist der GA102 sogar günstiger gewesen.


AD102 = 608mm² / 76,3B transistoren / $19000 pro Wafer / $237 pro Chip / $0,000003106 pro Transistor

Mit dem AD102 sind die Kosten pro Transistor nochmal gesunken, aber der chip selbst ist mehr als doppelt so teuer.

Für Navi31 wird es komplizierter zu berechnen.
308mm² N5, 6x37,5mm² N6 / ???B Transistoren / $19000 pro N5 Wafer / $10000 pro N6 Wafer(geschätzt) / 1x $110 + 6x $6,25 = $147,50 pro Chip

Das deckt sich recht gut mit meiner Schätzung oben, Navi31 erreicht am Ende 62% der Kosten des AD102.
Dazu muss AMD weniger in Stromversorgung und Kühlung investieren, am Ende wird die ganze Karte locker 30% günstiger in der Produktion sein.
Man könnte für das Topmodell also "nur" $1149 verlangen und hätte trotzdem eine gleich hohe Marge wie Nvidia mit der 4090.
Und irgendwas zwischen $1099 und $1249 sehe ich auch kommen, die zweitstärkste Karte mit dem Cut-Down Navi31 sehe ich nicht vierstellig, also bei max. $999
Ergänzung ()

Und weil es gerade so schön ist auch noch mal eine grobe Performanceeinschäzung von mir, mal sehen was davon übermorgen übrig bleibt^^

Raster
Navi31 Full: 100%
RTX 4090: 95%
Navi31 Cut: 80%
RTX 4080: 65%

Raytracing
RTX4090: 100%
Navi31 Full: 85%
RTX4080: 70%
Navi31 Cut: 70%

Zur RT Performance von RDNA3, man muss sich auch mal anschauen, dass die 4090 128 RT-Cores hat und die 3090Ti nur 84. Das sind 52% mehr und die Performance ist um ~70% gestiegen(84% im Best-Case Titel Cyberpunk).
Auch wegen deutlich höheren Taktraten und dann noch Verbesserungen der Cores selbst, aber den Großteil holt sie dadurch, dass sie eben 52% mehr RT-Cores hat.

Navi21 hat 80 "RT-Cores", Navi31 wird derer voraussichtlich 192 bieten (4 pro WGP)-> +140%.
Ich gehe aber nicht davon aus, dass eine RT Unit von RDNA3 so stark ist wie ein RT Core von Ada, daher wird es auch damit nicht für die 4090 reichen, die 4080 sollte man aber packen und die Abstände werden generell geringer ausfallen, als zwischen RDNA2 und Ampere.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: baizer, simosh, WhiteRabbit123 und 4 andere
Sehr informative Zusammenfassung, vielleicht hilft das ja wenigstens ein bisschen den NVIDIA Preishate zu dämpfen. Es stimmt halt nicht, dass die so super günstig produzieren können und dann lediglich nur "gierig" sind und nur deswegen noch höhere Preise verlangen...
 
Taxxor schrieb:
Würde sie aber als 7800XT kommen und die Top Karte als 7900XT, dann wären auch die Preise für beide niedriger, da sich die zweitschnellste Karte nun vom Namen her mit der 6800XT vergleichen muss
Es kommt auf die Leistung an, das Verhältnis zwischen den Karten und den Preis. Wie man die Karten nennt ist letztendlich relativ egal. Bei der Diskussion ging es darum wie denn die 79xx genau heißen werden.

Da wir die Performance der GPUs nicht kennen, sind alle Spekulationen über die Namen nicht relevant. Im Grund dreht sich alles darum wie hat sich die IPC der Shader von RDNA 2 auf RDNA 3 verändert und wie gut skaliert RDNA 3.

Du hast recht sobald die Karten angekündigt werden und AMD Namen, Zahlen und Preise nennt, geht das große Vergleichen los. Und spätestens wenn die unabhängigen Tests draußen sind, kann man Performance/Preis vergleiche anstellen. Und dann bekommt auch die 2. Ziffer eine Aussagekraft, aber erst dann.

Aber viel Interessanter ist, folgendes (Wafer Die Calculator, Annahme dieselbe Defektrate von 0,07 bei 7 nm und 5 nm):
  • Yield Navi 31 GDC ca. 80 %, 176 Die per Wafeer (DW), 142 Good Die per Wafer (GDW)
  • Yield Navi 3 MDC ca. 97 %, 1628 GDW
  • Yield Navi 21 ca. 72 %, 80 GDW
  • Yield Navi 32 GDC ca. 87 %, 280 DW, 244 GDW
  • Yield Navi 22 ca 80 %, 129 GDW
  • Yield Navi 33 ca. 87 %, 281 DW, 245 GDW
  • Yield Navi 23 ca. 85 %, 198 GDW
Durch den 3D V-Cache bekommt AMD eine weiter Differenzierungsoption. Wenn schon die 6800 ein von AMD ungeliebtes Kind war, gehe ich davon aus, dass AMD keine um 25 % beschnittene Version von Navi 31 herausbringt. IMO es bleibt bei der Version mit 42 WGP und 5 MDC die Angstronomics erwähnt hat. Oben verwende ich deren Zahlen für Navi 3x.

Wenn die Zahlen von Anstronomics stimmen ergibt es keinen Sinn RDNA 2 weiterlaufen zu lassen. Navi 24 kann zwar mit 544 GDW hergestellt werden und wäre prädestiniert für Schnappchengrafikkarten. der Encoder der Navi 24 wurde jedoch IMO zu stark beschnitten, um auf Dauer attraktiv zu sein.

Jetzt kann man spekulieren was zeigt AMD am Donnerstag. Stimmt die 2 Grafikkarten? Sind es Vollausbau mit 3D V-Cache und der Vollausbau, oder die beschnitte Version und der Vollausbau?

Es gibt hier einige die meinen AMD haut die RDNA 3 raus und bringt Nvidia mit der gefüllten Pipeline an RTX 3000-Karten in Schwierigkeiten. Das ist eine sehr naive Sichtweise:
  1. Das Platzen der Miningblase hat vom Absatz her AMD ebenso getroffen wie Nvidia. Dies kann man mit einfacher Mathematik und ganz wenigen Annahmen aus den Quartalszahlen Q1/Q2 2022 berechnen.
  2. Da die RX6000 sehr billig angeboten werden, gehe ich davon aus, dass AMD hier auch noch einiges loswerden muss.
  3. AMD würde nicht Nvidia sondern den AIB Probleme bereiten. Und das will AMD auf keinen Fall. denn man arbeitet mit Asus, MSI und GIGABYTE nicht nur bei Grafikkarten zusammen.
Ergänzung

Ein kurzer Vergleich mit Nvidia
  • Yield AD102 ca. 67 %, 87 DW, 59 GDW
  • Yield AD103 ca. 78 %, 147 DW, 115 GDW
  • Yield AD104 ca. 82 %, 188 DW, 154 GDW
  • Yield AD106 ca. 89 %, 336 DW, 299 GDW
  • Yield AD107 ca 90 %, 398 DW, 360 GDW
Anmerkungen:
  • Durch Beschneiden der Chips kann man eine höhere Anzahl verwenden als es die GDW-Zahl suggeriert
  • Aber alle Dies werden sich so nicht retten lassen
  • Diese Zahlen beziehen sich auf D0 (fatale Fehler, betroffene Funktion kaputt) neben den fatalen Fehler gibt es auch Parameter-Fehler. Diese beeinflussen die elektrischen Eigenschaften des Chips, wie Leckströme oder Taktfreudigkeit.
  • AFAIK werden Chips auch beschnitten, weil sie wegen der Parameterfehler nicht in die Binning-Kategorien passen
 
Zuletzt bearbeitet:
Taxxor schrieb:
Dann kommen TSMCs Preissteigerungen dazu und wir haben ~ $7500 pro Wafer für Samsungs 8nm in 2020 vs ~ $19000 pro Wafer für TSMC N5 in 2022 -> +150%
Das ist die eine Seite. Die andere Seite sind die Fehlerraten und die Yields.
Die dürften bei TSMC besser als bei Samsung sein.

Außerdem zirkulieren Geschichten, dass TSMC und Qualcomm sehr gute Verträge hatten.
Das hat Samsung wohl auch für die neueren Nodes angeboten. Nvidia ist komplett und Qualcomm ist teilweise auf den 5 nm Node von TSMC gewechselt. Das hat Gründe.

Taxxor schrieb:
GA102 = 628mm² / 28,3M Transistoren / $7500 pro Wafer / $97 pro Chip / $0,0000034275 pro Transistor
Navi21 = 520mm² / 26,8M Transistoren / $9400 pro Wafer / $97 pro Chip / $0,000003619 pro Transistor

Es sind G nicht M, :)
Taxxor schrieb:
Die Kosten pro Chip waren für Navi21 und GA102 gleich, obwohl Navi21 deutlich kleiner war, einfach weil der N7P teurer ist. Pro Transistor betrachtet ist der GA102 sogar günstiger gewesen.
Es ist ein nettes Rechsenspielchen. Aber USD je Transistor interessiert niemanden.
Es wird gerne bei Vorträgen verwendet um zu zeigen was die Haöbleiterindustrie angetrieben hat.

Taxxor schrieb:
AD102 = 608mm² / 76,3M transistoren / $19000 pro Wafer / $237 pro Chip / $0,000003106 pro Transistor
Die hohen Kosten und der gute Yield bei TSMC ist IMO der Grund warum Nvidia die 4080 nicht von AD102 sondern aus dem AD103 macht. Alle die sich darüber aufregen vergessen, dass die 2080 vom TU104 kam.

Bei Ampere konnte sich/musste sich Nvidia leisten es leisten die 3080 mit dem GA102 zu machen. Das heißt die Chipfläche war billig, aber es fielen IMO auch viele teildefekte Chips an.

Taxxor schrieb:
Das deckt sich recht gut mit meiner Schätzung oben, Navi31 erreicht am Ende 62% der Kosten des AD102.
Und hier wird es interessant.

Wenn AMD Navi 31 ausschließlich gegen die 4090 positioniert geht Deine Rechnung auf. Gegen die 4080 mit dem erheblich kleineren AD103 sieht die Kalkulation erheblich anders aus. Da werden die Fertigungskosten für die GPU Kosten so ziemlich auf Augenhöhe sein.

Und hier kommt es vor allem darauf an wie sich die IPC der einzelnen Shader und die Skalierung der Performance mit der Anzahl der Shader zwischen RDNA 2 und RDNA 3 ändert.

Taxxor schrieb:
Man könnte für das Topmodell also "nur" $1149 verlangen und hätte trotzdem eine gleich hohe Marge wie Nvidia mit der 4090.
AMD hat die 6900XT aus guten Grund bei 999 USD positioniert. Der Mehrwert der 3090 war zwar für Gamer sehr begrenzt, aber die 3090 war auch fürs Rendern und GPGPU konzipiert. Und bei diesen Anwendungen hatte die 6900 XT nicht entgegenzusetzen.

Dass dann die Miningblase das ganze Preisniveau verschoben hat, hat wohl alle überrascht.

Taxxor schrieb:
Und irgendwas zwischen $1099 und $1249 sehe ich auch kommen, die zweitstärkste Karte mit dem Cut-Down Navi31 sehe ich nicht vierstellig, also bei max. $999
Damit könntest Du richtig liegen. Aber alles über 1000 USD auch zu bekommen wird sehr schwer für AMD.

Taxxor schrieb:
Und weil es gerade so schön ist auch noch mal eine grobe Performanceeinschäzung von mir, mal sehen was davon übermorgen übrig bleibt^^
Es ist auch mutig von Dir, bei den massiven Änderungen ist RDNA eine Wundertüte.
Taxxor schrieb:
Navi21 hat 80 "RT-Cores", Navi31 wird derer voraussichtlich 192 bieten (4 pro WGP)-> +140%.
Auch sonst hat sich IMO einiges geändert. AMD hat sich massiv mit Raytracing beschäftigt. Das ist auch notwendig um beim Rendern mit Blender etc. weiterzukommen.

In den Spielen ist Raytracing bisher irgendwas zwischen Gimmick und Sahnehäubchen. Wenn's gut umgesetzt ist, veredelt es die Grafik und wenn's schlecht umgesetzt ist kostet es nur FPS.
Taxxor schrieb:
Ich gehe aber nicht davon aus, dass eine RT Unit von RDNA3 so stark ist wie ein RT Core von Ada,
Bei 4090 mit 128 und Navi 31 mit 192 RT-Cores muss der RT-Core von Navi 31 nur 70 % der Performance eines RT-Core der 4090 haben.´
Taxxor schrieb:
daher wird es auch damit nicht für die 4090 reichen, die 4080 sollte man aber packen und die Abstände werden generell geringer ausfallen, als zwischen RDNA2 und Ampere.
Alles andere wäre auch enttäuschend.

Noch eine Anmerkung: Ein weitere Effekt des Wechsels zu TSMC ist, dass Nvidia erheblich mehr Chips für die TI-Version bekommt als bei Samsung.
 
  • Gefällt mir
Reaktionen: simosh
ETI1120 schrieb:
Es ist auch mutig von Dir, bei den massiven Änderungen ist RDNA eine Wundertüte.
Ich weiß, ist auch viel Wunschvorstellung dabei^^

Ich habe kurz danach auch schon unbestätigte Gerüchte gehört, nach denen diese Liste komplett anders aussehen würde, ich hoffe aber, dass es am Ende näher an meine Vorstellung kommt.


Mal rein mit meiner kleinen Excel Tabelle gerechnet und gesetz dem Fall, dass man exakt +50% Perf/W mit der XTX bei 350W(350W für die XTX hab ich eben aus dem neusten Video von RGT) erreichen will:
Das Ziel ist die 4090, also ~ 6900XT +90%

+50% Perf/W ggü. der 6900XT bedeuten 6900XT +75%
+50% Perf/W ggü. der 6950XT bedeuten 6900XT +66%

Damit würde man die 4090 deutlich verfehlen, aber immer noch klar vor der 4080 liegen(was bei dem Preis den ich bisher gehört habe, auch nötig wäre)


Andersrum, möchte man 6900XT +90% bzw 6950XT +80%(also genau die 4090) erreichen, bräuchte man bei 350W eine Perf/W Steigerung von +63% ggü. der 6900XT bzw. +72% ggü. der 6950XT


Das klingt erst mal viel, von der ">50%" Aussage auf +63-72% zu kommen, allerdings muss man auch bedenken, wie "alt" dieses ">50%" Claim nun schon ist. Ca. 1,5 Monate, als die Folie erstellt wurde und vmtl ca 2 Monate als die Tests gemacht wurden. In der Zeit kann viel passiert sein, sowohl auf Treiberseite, als auch in der TBP Konfiguration.

Es könnte ja sein, dass sie das mit 375W oder mehr getestet hatten (igors leak zeigte ja ein PCB mit 3 Anschlüssen) und jetzt einfach die Karten mit der Stock TBP weiter runter genommen haben, weil sie gemerkt haben, dass sie bei 350W nur 2% weniger Leistung bekommen. Dadurch steigt dann natürlich die Perf/W direkt mal von +50% auf +59%.

Und wenn die ">50%" damals schon intern z.B. +55% bei 375W waren, dann würden es bei 2% weniger Performance durch den Sprung runter auf 350W bereits +63% sein, was ca ausreichen würde für die 4090(sofern die 6900XT und nicht die 6950XT die Referenz für die Perf/W war).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso und simosh
MehlstaubtheCat schrieb:
Man kann bei der Größe des Chips davon ausgehen,
dass dieser bei den Yield die erzielt werden bei TSMC, in etwa um die 90-100 Dollar kostet.
Dazu PCB + Spannungswandler etc. weiter 40 Dollar.
Die 24GB Speicher auch in etwa 70-100 Dollar.
Dazu den Kühler mit Lüfter weiter 80-100 Dollar.
Somit gehe ich davon aus,
dass eine Nvidia RTX 4090 FE irgendwo bei 280-340 Dollar reinen Herstellungskosten liegen wird.
Vermutlich bin ich aber da schon von den Berechnungen etwas drüber! :D
Den Kühler bekomme ich für ein paar €, nach etwas mehr Recherche (Produktionsanfrage) dürfte dieser bei ca. 30$ liegen bei einer Abnahme von 10.000Stk mit regulären 120mm Lüftern.
Verkleidung/Verpackung nicht mit inbegriffen. Montage auch nicht.

Für elektronische Bauteile habe ich nicht nachgefragt, eventuell kann ja Umsatz 5nm durch gefertigte Wafer geteilt werden. Falls jemand die Zahlen hat.

Ansonsten bin ich im gesamten auch bei dir beim Endpreis für Hardware, kommen ja noch andere Konstenstellen hinzu.
 
Die XTX nochmal als pessimistischste Einordnung, dafür müssen 2 Dinge zutreffen:

1. Die Perf/W ist bei der XTX niedriger als bei der XT (und evtl auch niedriger als bei Navi32), womit wir mit den ">50%" die generell für RDNA3 genannt werden mit dem Minimum von +50% rechnen müssen.

2. Der Vergleich wurde mit der ineffizientesten Navi21 GPU gemacht, der 6950XT mit 335W.


Wir haben im CB Test die 6950XT(6900XT Black, vergleichbar) bei 100% und die 4090 bei 183%.

Bei 350W für die XTX und dem Vergleich mit der 6950XT muss sie, um+50% Perf/W zu erreichen, lediglich 57% schneller als diese sein.
Damit läge sie ca 15% hinter der 4090.


Wie das bei 12288 vs 5120 Shadern und enorm höherer Taktraten passieren könnte? Ähnlich wie es bei Ampere passiert ist.
Ich bin bisher eher davon ausgegangen, dass man pro WGP einfach 4 CUs nutzt, die TPU Datenbank gibt auch bis heute 192 CUs für die 7900XTX an. Aber überall sonst wird von 48 WGP (96 Legacy CUs) gesprochen, also weiterhin 2 CUs pro WGP.
Angstronomics hatten berichtet, dass der neue RDNA3 WGP selbst wenn er im gleichen Prozess gefertigt werden würde, etwas kleiner als ein RDNA2 WGP ist, obwohl er die doppelte Anzahl an Shadern enthält, weil die CUs selbst massiv umgebaut und auf Flächeneffizienz getrimmt wurden(z.B. wurden ein paar Dinge entfernt, die eher für Compute nützlich sind statt für Gaming).
Das bedeutet nun aber, dass man die Shader Anzahl überhaupt nicht mehr vergleichen kann und ein RDNA3 WGP trotz doppelter Shader Einheiten evtl nur 50% stärker als ein RDNA2 WGP ist.

Ich hatte schon mal für eine Art Worst Case gerechnet, das die zusätzlichen Shader nur zu 50% die Performance erhöhen(also +70% Performance durch +140% Shader), das hatte allerdings als Grundlage, dass es die gleichen CUs sind, einfach nur mehr.
Aber wenn die CUs selbst umgebaut wurden um dort jeweils die doppelte Anzahl Shader reinzupacken, muss man diese 50% auf alle Shader anwenden, nicht nur die zusätzlichen.
Und dann kämen wir mit 12288 Shadern lediglich auf die Performance von 6144 RDNA2 Shadern, was +20% entspricht.

Dann noch ~33% mehr Takt drauf, wenn wir von 3GHz ausgehen, und wir landen recht genau bei den oben genannten 6950XT +57% und 15% unter der 4090.

Und dann wären die Shader von Ada und RDNA3 auch relativ gut vergleichbar, die 4090 hat 33% mehr Shader, dafür hat die XTX ~10% mehr Takt, damit kämen wir auf ~20% Unterschied.
 
Zuletzt bearbeitet:
Lt. dem heutigen Video von Moores Law is Dead soll die 7900 XTX Referenzkarte die 4090 nicht schlagen können aber es gibt headroom für die AIBs.
Finde es von einigen Anti-NVIDIA Kanälen wie "Not an Apple Fan" etwas premature wie jetzt der sichere Sieg von AMD was die Performancekrone angeht abgefeiert wird noch bevor es irgendwelche Tests/Reviews gibt.

1667389044890.png
 
@th3o
Was für ein "Leak vom 1.11." sind denn bitte die Maße des Kühlers, wenn das entsprechende Bild inklusive 6900XT als Referenz seit dem 31.10. auf Twitter für jeden sichtbar unterwegs sind? ^^

Late Nov/Early Dec. Launch, auch ein toller Leak, greymon55 hat auf Twitter bereits vor 4 Tagen den 1.-5. Dezember geleaked.

Und dass AIBs Karten mit 3x8pin anbieten werden, wenn die Referenz nahe der Grenze von 2x8pin agiert, kann sich nun auch wirklich jeder denken.

Wichtig bei Punkt 5) ist, dass es nicht heißt, dass sie die 4090 nicht schlagen kann, es heißt nur, dass es aktuell niemand erwartet. Denn wissen kann es außer AMD schlicht immer noch keiner, siehe Punkt 3). Selbst die AIBs können die Karten noch nicht vollständig testen.
 
  • Gefällt mir
Reaktionen: ETI1120
Taxxor schrieb:
Wichtig bei Punkt 5) ist, dass es nicht heißt, dass sie die 4090 nicht schlagen kann, es heißt nur, dass es aktuell niemand erwartet. Denn wissen kann es außer AMD schlicht immer noch keiner, siehe Punkt 3). Selbst die AIBs können die Karten noch nicht vollständig testen.
Ja, nur behauptet er halt dass seine Quellen AMD Quellen sind. Die erwarten es selbst nicht die 4090 in 4k raster schlagen zu können (könnte mir aber easy vorstellen dass die AMD Karten in 1440p schneller sind). So habe ich es im Video verstanden.
Aber morgen sind wir schlauer.
 
th3o schrieb:
Ja, nur behauptet er halt dass seine Quellen AMD Quellen sind. Die erwarten es selbst nicht die 4090 in 4k raster schlagen zu können.
Also AMD selbst soll 2 Tage bevor sie ihre Performancedaten präsentieren, die Tests also bereits abgeschlossen sind, nicht wissen, ob es für die 4090 reicht oder nicht? ^^
 
  • Gefällt mir
Reaktionen: ETI1120
Hey ich bin lediglich der Messenger :)
Wir wissen auch nicht seit wann er auf dieser Info sitzt, manchmal hält er auch bewusst Stuff zurück bis zu nem gewissen Zeitpunkt.
Ich hielt einfach das posten seiner Zusammenfassung für informativ.
 
Morgen wissen wir mehr.
Persönlich schätze ich das AMD die 4090 evtl knapp schlagen kann in diversen berreichen dann die 4090TI kommt dann die 7950XTX Ultra what ever und wir einen schönen schlagabtausch haben.

Was zählt und das muss man einfach auch stand heute schon sagen ist RT performance. FSR oder Zwischenbildberechnung sehe ich momentan noch nicht so wichtig an.

Wenn sie in RT aber wieder so weit hinterher sind werde ich wohl diesmal auch eine Nvidia kaufen da ich doch einige games habe wo man damit mehr freude hat. Geht zwar auch mit meiner 6900XT aber da läuft das dann schon recht schlecht leider.

Also lassen wir uns mal überraschen. Ich hoffe auf ein schönes Battle durch die gesamte Preisklasse da hätten wir alle am meisten davon.
 
Sunjy Kamikaze schrieb:
Was zählt und das muss man einfach auch stand heute schon sagen ist RT performance. FSR oder Zwischenbildberechnung sehe ich momentan noch nicht so wichtig an.
DLSS oder FSR sehe ich mit als das Wichtigste an um ehrlich zu sein (und die Bedeutung von RT nimmt immer mehr zu, erleichtert auch Arbeitsprozesse für die Entwickler) gerade wenn man halt nicht nur 7900XT oder 4090 kauft sondern eben die midrange, wo man mit diesen Rekonstruktionstechniken Ergebnisse was die Performance angeht erzielen kann für die man vor ein paar Generationen noch die High End Karten holen musste.
 
th3o schrieb:
Ja, nur behauptet er halt dass seine Quellen AMD Quellen sind. Die erwarten es selbst nicht die 4090 in 4k raster schlagen zu können (könnte mir aber easy vorstellen dass die AMD Karten in 1440p schneller sind). So habe ich es im Video verstanden.
Aber morgen sind wir schlauer.
Preis Leistung wins haha
 
th3o schrieb:
DLSS oder FSR sehe ich mit als das Wichtigste an um ehrlich zu sein (und die Bedeutung von RT nimmt immer mehr zu, erleichtert auch Arbeitsprozesse für die Entwickler) gerade wenn man halt nicht nur 7900XT oder 4090 kauft sondern eben die midrange, wo man mit diesen Rekonstruktionstechniken Ergebnisse was die Performance angeht erzielen kann für die man vor ein paar Generationen noch die High End Karten holen musste.
Wenn man all die Kosten und mühen die man in die entwicklung von DLSS und FSR gesteckt hat in Treiberoptimiereungen und bessere Rohleistung und Effizienz gesteckt hätte könnten wir evtl auch ganz woanders sein.

Für FullHD kann man momentan doch so günstig zocken wie noch nie zuvor. Wer 4K 120hz haben will muss halt hinlegen.
Ich finde DLSS natürlich eine super Technik. Aber das man eine Technik braucht um schlechte andere Technik. (Treiber Spiele Optimierung etc.) auszuhebeln finde ich den falschen ansatz. Zumal man ja nunmal einfach immer ein schlechteres Bild hat. Zumindest konnte ich noch kein Video sehen das auf meinem 48Zoll nicht wirklich schlechter an Qualität am ende hat.

Klar auf nen 24 Zöller mag das anders aussehen. Auf dem sieht man aber auch den Unterschied zwischen Ultra und Hoch settings wohl eher kaum.
Das einzige wo ich für DLSS wirklich Positiv in die Zukunft sehe ist das man Midrange karten damit sehr lange nutzen kann. Sprich bevor man sich was neues kauft und wenn man mit der Qualität klarkommt einfach DLSS anwerfen und Spaß haben.
Die meisten die sich hier eine 4090 Kaufen behalten die doch eh nur bis zur 5090. Aber das ist natürlich nur meine meinung der dinge.
Neue Techniken wenn sie denn für alle zugänglich sind sollten natürlich gefördert werden.
 
Sunjy Kamikaze schrieb:
Ich finde DLSS natürlich eine super Technik. Aber das man eine Technik braucht um schlechte andere Technik. (Treiber Spiele Optimierung etc.) auszuhebeln finde ich den falschen ansatz. Zumal man ja nunmal einfach immer ein schlechteres Bild hat.
Es gibt genug Beispiele, wo man mit DLSS Quality ein gleich gutes oder sogar besseres Bild hat.

Und die Entwicklung dahingehend zu fördern, dass man hier immer bessere Qualität raus bekommt, gehört ebenso zur Software- bzw. Spieleoptimierung wie die Arbeit am Treiber.
Der Physik sind eben Grenzen gesetzt, große Sprünge rein durch Rohleistung werden immer schwerer, daher muss die Software nun stärker mithelfen denn je.
Und DLSS ist ja auch nicht der erste Ansatz dieser Art. Zahlreiche andere Verfahren werden in Spielen seit Jahren genutzt, um irgendwo Rechenaufwand zu sparen und so mehr Performance rauszubekommen, das sind nur keine Optionen die man zuschalten kann, sondern das ist einfach gegeben.

Und irgendwann wird die Technik von DLSS/FSR/XeSS oder was da noch alles kommen mag auch so weit sein, dass sie einfach in den Spielen drin sein wird, genau wie die anderen Techniken zuvor auch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: th3o
Zurück
Oben