• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Starfield: AMD nennt hohe Empfehlungen für CPU, GPU und Chipsatz

Das hängt davon ab welche engine das ist
creation engine ziemlich sicher.
UE5 eher nicht was primär an den 8gb vram liegt
Sekundär an der Bandbreite die knapp 320gb/s sind gerade ausreichend für 1080p
Die gtx1080 hat 10gbps vram an 256bit
Die Leistung liegt auf 9,7tf das entspricht in etwa der rtx3060 ohne dxr

Die frage nach dxr ist nicht geklärt
man wird vermutlich wenn ue5 tsr nutzen also nativ 1440p entspricht dann je nach vram Größen 720p bis 900p
Das wird laufen aber nicht ansehlich.
Die Zeiten wo spiele engine immer dasselbe Bild darstellen bei allen gpu ist vorbei das passt sich an den verfügbaren vram an
Dieser Automatismus kann man abstellen aber Nutzer eben nicht
Und da bethesda Generell eher Konsole denkt kann man davon ausgehend as 60hz limit und angepasste Optik am vram
Und die ue5 bietet viele anpassmöglichkeiten das die engine automatisch die optik anpasst
Ein Gau für benchmarks
 
syfsyn schrieb:
Das hängt davon ab welche engine das ist
creation engine ziemlich sicher.
Es ist die Creation Engine 2
 
Norebo schrieb:
Ahso, hab ich mir die Hardwarestagnation, die in allen Tests bemängelt wird nur eingebildet...
Wo soll denn diese Hardwarestagnation bei den Grafikkarten denn sein? Also wenn genau eins bis jetzt nicht stagniert ist, dann ist es der Fortschritt in Sachen Grafikkarten.
Norebo schrieb:
...und ja, interpolierte Bilder, egal wie, sind Fake!
Warum? Das Bild wird aus den bereits berechneten Pixeln und neu berechneten zusammengesetzt, weshalb man sich eine Menge Rasteraufwand sparen kann, dafür unmengen Rechenkraft für das Pixelrücken aufwendet.
Was in Summe dennoch deutlich effektiver ist. Oder was hast Du an dem Beispielvideo auszusetzen, welches ich angefügt habe. Wo sind da die großen Schwächen?

Aber ich weiss schon. Da gehts wohl einfach ums Prinzip. Egal wie das Ergebnis aussieht. Man braucht halt was zum Meckern und um seine Grabenkämpfe weiterpflegen zu können.
Norebo schrieb:
Und nur Nvidia hat die Marktmacht und die Fansekte, das ihnen Fake-FPS als Gottesgeschenkt anerkannt werden.
Deine Ausdrucksweise legt nahe, dass Du ein tief sitzendes Problem damit hast, Technik von Markenfetisch zu trennen.
Norebo schrieb:
Würde AMD Fake-FPS eingeführt haben, dann wäre die Tonlage eine Hyperkritische!
Armes AMD. Die sollen erstmal überhaupt eine ähnlich sauber funktionierende FG auf den Markt werfen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
Für 4k braucht man die schnellste gaming CPU am Markt, echt jetzt? X670 als mindest Vorraussetzung bei 4k. Wirkt als wäre der Krempel überhaupt nicht optimiert und AMD stellt eine rx6800xt mit einer rtx 2080 gleich, damit hätte ich in einem AMD Titel nicht gerechnet, ich glaube die wollen einfach nur ihre Hardware krampfhaft verkaufen.
 
.Sentinel. schrieb:
Warum? Das Bild wird aus den bereits berechneten Pixeln und neu berechneten zusammengesetzt, weshalb man sich eine Menge Rasteraufwand sparen kann, dafür unmengen Rechenkraft für das Pixelrücken aufwendet.
Was in Summe dennoch deutlich effektiver ist. Oder was hast Du an dem Beispielvideo auszusetzen, welches ich angefügt habe. Wo sind da die großen Schwächen?
Bei DLSS2 werden Pixel geraten, mit einem hohen Rechenaufwand und viel Logik und Gehinrschmalz dahinter, wenn man es richtig macht kommt es dem Original "nahe", ist aber niemals ein Original!

Bei Spielen, die ganz schlechtes AA verwenden, oder ganz schlechte Filter, Einstellungen, kann es zu einer wahrgenommenen Verbesserung der Bildqualität führen.
Das liegt nicht daran, das DLSS2 gut ist, sondern das Ausgangsprodukt schlecht.

DLSS3 ist pures Faking, da einfach zwischen zwei berechnete Bilder ein interpoliertes Bild eingefügt wird, das ein "totes" Bild/Frame ist, da in diesem keine Interaktion möglich ist, weil es ein in die Vergangenheit zurückberechnetes Bild ist und ausser FPS zu bloaten hat es keine Funktion.

Während ich mich mir DLSS2 und FSR noch hinnehmbar schönreden könnte, ist es im Paket mit DLSS3 und FSR3 einach nur FPS-Bloating und zeigt eindeutig die Motivation dahinter auf, anstelle echte, interaktive, originale FPS eine FPS-Fassade aufzubauen, die mir DLSS3/FSR3 komplett substanzlos wird.

Darum bin ich strikt dagegen!

Nach DLSS3 kommt dann wohl DLSS4 mit 3 Frames per Original und das ist beliebig inflationierbar um die Ziel-FPS zu erreichen, die aber keine Funktion mehr haben, ausser hohe Zahlen zu generieren...

Und bitte, ich werd jetzt keine Hardwaretests raussuchen, es ist offensichtlich, das unterhalb des Luxussegments komplett beschnittene Hardware zu Apothekenpreisen released wird, weil man mit DLSS ja die FPS in den Zielbereich heben kann

Danke, nein!
 
  • Gefällt mir
Reaktionen: muvmend
@Norebo, es gibt doch genug zum lesen wie DLSS funktioniert und am besten implementiert werden kann.

http://behindthepixels.io/assets/files/DLSS2.0.pdf
https://developer.nvidia.com/rtx/dlss

Im übrigen nutzt Apple auch upscaling, vermarktet es nur nicht öffentlich.

DLSS hat nur Nvidia als Speicher Knauser als Problem.
Hoch aufgelöste Texturen sind beste Voraussetzungen für Upscaling.

OnTopic:
Leider finde ich zu dem Microsoft gehörenden Studio nichts was DirectStorage betrifft.
 
Norebo schrieb:
Alles easy, zock einfach nativ. Problem gelöst. Kein Grund sich aufzuregen.🤣

Dir ist es völlig egal ob es mit DLSS besser oder gleichermaßen gut aussähe (was du selbst mit "wahrgenommen" sogar zugibst), du willst einfach motzen.

Technisch verstanden hast du auch nur ca. 10%, insofern macht eine Debatte ohnehin keinen Sinn.

Feierabend - erstmal gemütlich mit einem guten Rum und einer Zigarre auf den Balkon sitzen. :daumen:

Grundgütiger schrieb:
@Norebo, es gibt doch genug zum lesen wie DLSS funktioniert und am besten implementiert werden kann.
Verschwendete Zeit. Mit manchen Menschen kann man so oder so nicht debattieren, die wollen einfach nur mal abkotzen und dabei Recht haben (auch wenn sie völlig ins Klo greifen).
 
  • Gefällt mir
Reaktionen: Pro_Bro, A.Xander und Taxxor
AEonVi schrieb:
@LeckerRK

Sorry, aber diesen "wall of text" geht überhaupt nicht. Etwas Grammatik hätte dem ganzen gut getan.
Grammatik ist eine Fangfrage Friesisch oder Bayrisch.Was den Text angeht sind dort Tatsachen vertreten die anscheinend nicht jeder versteht und genau diese die kaum besprochen werden haben eine enorme Leistung wenn man sie selbst einstellt und z.b. Ram nachrüstet.Wer das nicht nachvollziehen kann kann es ja selbst ausprobieren und die Leistung hinterher genießen.Virtuell und Realität ist nicht nur grammatisch ein Unterschied!
 
LeckerRK schrieb:
Was den Text angeht sind dort Tatsachen vertreten die anscheinend nicht jeder versteht und genau diese die kaum besprochen werden haben eine enorme Leistung wenn man sie selbst einstellt und z.b. Ram nachrüstet
Was, was soll dieser Satz aussagen? Und was hat er mit dem Zitierten zu zu ?

Den anderen Post hab ich mir auch nur ein paar Zeilen lang angetan….
Keine Absätze, Sätze gehen einfach in neue Sätze über, keine Leerzeichen nach Satzenden, absolut nicht lesbar
 
  • Gefällt mir
Reaktionen: AEonVi
Casillas schrieb:
Unternehmen den Konsumenten mehr oder leistungsfähigere Produkte andrehen wollen, als diese überhaupt brauchen (Chipsätze) ist Grundlage des Kapitalismus.
Ja, ok. Können sie ja versuchen. Muss das jedoch immer öfter in A*schlochverhalten ausarten und so penetrant danach riechen, dass die ihre Kunden für Idioten halten die sowieso jeden Scheiss kaufen?

Ich meine die 4060, die 6500 etc. pp. Von den Brüllern in Breitwand wie die 512MB der 970 oder dem absolut absurden Vega Spot mal gar nicht zu reden.

Es gibt halt nur noch dieses Duopol, ok. Es gibt allerdings auch sowas wie Anstand.
… außer für diese Beiden Firmen offensichtlich.
 
Das sich amd und nvidia bei quasi Monopolstellung so verhalten ist normal
Das tut jede Firma die auf gewinn aus ist.
Darum brauche wir auch ebenbürtige Firmen
amd schwächelt bei rdna3 das wurde klar als die laptops mit rx7600 kamen.
Intel kommt zwar voran ist aber verspätete battlemage könnte gut werden sofern klar ist welche Ausbau noch geben wird.
nvidia hat derzeit ein problem mit über bestand an ga106 ga104 chips das sich bis Anfang 2024 beheben wird
Ab n3 node wird nvidia und amd bei 300€ 15tf und ab 400€ 24tf standard werden
In gpu ausgedrückt rtx3070/rx6750xt level 300€ und rtx3080/rx6800xt level 400€

aktuell ist das rtx3060/rx6650xt level 9tf-10tf 300€ rtx3070 level 400€ dazu der speichergeizt bei nvidia 2025 wird das dann rtx5060 30sm 3,2ghz 20tf 12gb 350€ und rtx5060ti 46sm 3,2ghz 25tf 16gb 450€
 
Mit Bezug auf die stagnierende GPU Hardwareentwicklung.
Hardware Unboxed - "Why Upgrading Your Gaming PC Is Pointless! Or Expensive...":
 
  • Gefällt mir
Reaktionen: LeckerRK
@Norebo

Findest du es nicht lustig, dass die ersten 1,5 Minuten deines verlinkten Videos erst mal Werbung für eine topaktuelle 7900xt Nitro+ sind ? Da hätte sich bestimmt auch was Anderes finden können als eine GPU für die Werbung bei einem Video das den Titel "Why GPU Upgrades Suck!" trägt ?

Sorry da würde ich mir etwas verarscht vorkommen wenn ich das für ernst nehmen würde 🤣

Viel Blabla wie erwartet aber wenigstens sieht er es bei 12:30 ein, dass die vorherigen Minuten unnötig waren. "Es gibt lohnenswerte Upgrades , nur die sind teurer (als bisher) ". Ach was ? Really ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und ThirdLife
Ich glaube das "Starfield" auf meinem PC super laufen wird, nativ WQHD bei 60-90 FPS auf Ultra.
5800X3D mit 6900XT alles sauber ans Limit optimiert, von daher habe ich keine bedenken!
 
  • Gefällt mir
Reaktionen: muvmend
Tornavida schrieb:
Findest du es nicht lustig, dass die ersten 1,5 Minuten deines verlinkten Videos erst mal Werbung für eine topaktuelle 7900xt Nitro+ sind ? Da hätte sich bestimmt auch was Anderes finden können als eine GPU für die Werbung bei einem Video das den Titel "Why GPU Upgrades Suck!" trägt ?

Sorry da würde ich mir etwas verarscht vorkommen wenn ich das für ernst nehmen würde 🤣
Da Steve von HU in der Regel sehr unparteiische Tests macht, HU einen Bombenruf hat, nehm ich die manchmal als Referenz.

Ich sag auch wenn ich meine, die liegen daneben!
Was sie gelegentlich fatkisch, oder von der Perspektive her machen.

Hier liegen sie generell richtig, die derzeitige Gen von GPUs ist sowas von unattraktiv!

Es werden beide GPU Hersteller angesprochen, das wird am Ende des Vids auch nochmal klargestellt, für den Fall des "Upgradezwangs" werden die beiden akzeptablen Angebote auf dem Markt benannt, die 6600 und 6700 Serie, was P/L bezogen richtig ist.

Aber generell wird geraten, den beiden Herstellern die "Massage" zu senden: "Euro Angebote sucken!"

Ich seh nicht, was daran verwerflich ist!

Btw. war mir nicht klar, wie sehr die NVidia Nutzer schon von DLSS abhängen - von einem "Team Grün" der sich deswegen eine andere GPU geholt hat:
 
Irgendwie seh ich keine Stagnation bei der Hardware. Kommt doch ständig neuer Kram und wenn man bereit ist auch dafür zu zahlen gibts beeindruckende Steigerungen.

Ich hab ständig deutlich spürbaren Mehrwert bekommen. Von 1080 Ti zur 3080 Ti zur 4090 lag immer deutlich mehr Leistung drin. Genauso vom 3900X zum 5950X zum 7950er und jetzt dem X3D. Es gab immer deutlich mehr Leistung auf irgendeinem Gebiet.

Und wenn ich das Gefühl kriege es gibt keinen großartigen Mehrwert, dann lass ich (RTX 2000) eine Gen auch gerne mal aus. So what ?

Irgendwie haben viele neuerdings den Anspruch für 200-400 Mücken jetzt die geilste 4K240 Hardware zu kriegen (mit der man dann den 1080p60 Monitor befeuert weil da mag man ja auch nicht investieren) und wenn man das nicht bekommt heissts "STAGNATION!!". 😂

Unterm Strich bleibt jedem die gleiche Wahl wie schon seit jeher: zahlen in Cash oder in Lebenszeit. Muss jeder selber abwägen wovon er mehr hat und was er bereit ist auszugeben.
 
  • Gefällt mir
Reaktionen: .Sentinel., Tornavida und Atnam
Dem HU video kann ich nur zustimmen
Abseits der Werbung im video stimmt jedes wort.

Zur Werbung überraschenderweise ist gerade die rx7900xt P/L deutlich attraktiver als man denkt
Bei uns rx7900xt 850€ =32,7tf ergeben 26€ pro tf
leider wird dafür aber min ein r7 5800x3d, r5 7600 oder ci5 13700k benötigt in 1080p und 1440p

Die nächste sku die diese Leistung bringt und P/L gerecht wird ist ausgerechnet die rtx4070 bei 600€ mit 26,60€ pro tf
In fps wird das schwieriger weil auch da min ein r5 5600 oder ci5 12600 benötigt wird in 1080p.
Die nächste gpu die P/L sich lohnt ist nur noch amd rx6600 mit knapp 9,0tf bei nur 220€ unschlagbar 24,40€ pro tf
leider sind amd gpu nicht in allen lagen gut insbesondere bei alten spielen und dxr.
Der Kompromiss aktuell ist die rtx3060 12gb mit knapp 290€ ist man bei etwa 31€ pro tf recht teuer
Nvidia ist da wüste abseits gebr rtx3080 10 oder 12gb die man nicht unter 500€ bekommt
hat man keine Wahl außer zu warten

Aber alles ist abhängig was man hat
ne gpu aus dem Jahr 2016 mit eine 300€ budget ist mit der rx6600 am besten beraten
ne gpu aus dem Jahr 2019 mit 300€ budget wirds schwierig damals aktuell gtx1660ti oder rx5700 diese war aber oft nicht zu bekommen unter 300€
Eher war man mit der rx5600xt mit nur 6gb vram diese erreicht im groben +-6,9tf das war nen boost vs rx580 +53% vs der aktuellen rx6650xt die man ab etwa 260€ bekommt +100%

was aber mit den Leuten die mit glück ne rx6600xt bekamen zu mining Zeiten 2021 nun da tut sich nix rx6600xt vs rx7600 +5%

Was aber gut ist das der druck auf nvidia und amd die lager zu leeren besteht ein rx8000 ab q1 2024 mit rdna4 wird kommen

Kleinste Ausbaustufe könnte 40cu sein mit gefixten prefetcher und dann ~ 3,6ghz die Mittelklasse deutliche Leistungssteigerungen geben
n43
salvage vermutlich 32cu rx8600 +-17,2tf vs rx7600 +38% ich tippe ab 380$
voller chip rx8700 40cu ~21,5tf vs rx7700 +15% ich tippe ab 450$
n42
salvage vermutlich 48cu rx8800 ~25,8tf vs rx7800 +10% 550$
Vollausbau 60cu rx8800xt ~32,3tf vs rx7800xt (n31) +34% 650$
High end wird auf sich warten lassen
n41
120cu und eine sku mit 100cu rx8950xt ~ 53tf
Später nen 80cu Resteverwertung mit 43tf als rx890
maximale stufe wäre rx8950xtx 64tf das wäre vs rx7900xtx +73% ich gehe stark davon aus ab 1700$

Anmerkung das entspricht der rtx4090 sofern diese ausgelastet wird.
Und da amd diese sku frühestens q1 2024 spätestens q3 2024 bringt wird nvidia ne titan a bringen mit 142sm und wieder die krone übernehmen

Ein low end wird amd nicht mehr bringen da dies das revier der apu wird.

Was erwarte ich mit rx7700 einmal 48cu ~ 19tf was in etwa der rx6800 entspricht für 400$
Und einmal als rx7800t 60cu und 500$ bei 23,5tf das entspricht der rx6800xt
Ob eine rx7800xt kommt ist unklar und wenn wird sie selten ähnlich zu rx6700

nvidia wird darauf reagieren mit nen refresh auf super Modelle min 3 sku

rtx4060 super voller chip 36sm schnelleren vram vrmtl 20gbps 16gb 17,7tf ~400$ (kann meine nächste gpu werden)
rtx4070 super 52sm 25,6tf 12gb ~ 650$
rtx4070ti super salvage ad103 mit 68sm 33tf 16gb ~900$
optional
rtx4080 super 84sm 41,3tf 16gb 1200$

Aber im high end hat man ein problem..... das cpu limit

In dxr nehmen die sich nix mehr einzig dlss3 vs fsr3 wird spannend da amd auch frame gen benutzen wird.

ab wann das losgeht ist unklar da dies primär von amd Ausverkauf der n21 n22 chips abhängt
rdna4 ist ab q1 2024 bereit der n3 node läuft bereits nächstes Jahr kommt in sample n3p was nochmal den Takt anhebt +5%. =20% vs n5
Gpu werden aber n3 nutzen nvidia n3p in q1-q3 2025
Die ampere gen (rtx30) ist ab q1 2024 ausverkauft

Somit folgendes Fazit

rtx 3060/rx6600xt Besitzer bzw den 300-400€ gpu Käufer sollten warten bis q2 2024 oder q2 2025
gtx1660/rx5600xt Besitzer bzw den 200-300€ gpu Käufer sollten warten bis q1 2024
gtx1060/rx580 Besitzer bzw den 100-200€ Käufer können aufrüsten, Wenn es den eine nvidia sein soll dann warten bis q4 2023 wo die rtx3060 12gb bei 250€ sein wird billiger wird die nicht mehr.
Den rtx 3070/rx6700xt Besitzer bzw den 400-500€ Käufer rate ich zum abwarten bis q2 2024 beim refresh
Den rtx3080/rx6800 Besitzer bzw 600-800€ Käufer rate ich zum abwarten

High end also den 800€ bis 2000€ bleibt nur der griff zum maximum
Vernunft rx7900xt
weniger Vernunft rx7900xtx
maximal rtx4090 und beste P/L von nvidia

Derzeit ist wirklich upselling angesagt. Neu Käufer beste gpu= rx6600, rx6800, rtx4070, rx7900xt und rtx4090
das sind die P/L gpu aktuell.

Die vorherigen 70er 80er klasse gpu gilt dasselbe wie bei den 60er klasse.
Die 50er klasse wird komplett weg sein da amd dies mit apu belegen wird und nvidia keine mehr bringt
Es wird keine rtx4050 geben so auch keine rtx5050
Somit ist rtx xx60er klasse bald low end

am ende will nvidia den einstige bei 400$ sehen was die sich aber abschminken können
amd ab 300$ wird in Zukunft die min Preise sein fürn gpu
Der Grund ist intel unter 300$ wird es keine nvidia gpu mehr geben sobald rtx30 gen abverkauft ist
Die kommende ps5 pro wird dafür sorgen das min 20tf benötig wird zum einstieg ab 2025
Und das kann nvidia im low end nicht unter 300$ verkaufen

Das ändert sich mit n2p 2027 amd Plan könnte aufgehen mit mcm ab rdna5 min 2 gcd von 200$ bis high end beginnend ab 25tf für 300$
Kleinster chip 30cu ~50mm² waferkosten 25k$ eine sku 54-60cu vermutlich 4,0ghz 35tf min 300$ 31tf bis maxed 400$ 35tf
nvidia zu dem Zeitpunkt in Bedrängnis beginnend 300$ 25tf bis maxed 32tf ab 400$ chipfläche um die 120mm²
Aus bwl Sicht hat nvidia ein problem.

Amd mcm könnte ab rdna5 (2026) komplett gewinnen von low bis high end. Und n2 wird vermutlich ähnlich lang bleiben wie n28 (2012-2016) also 2026 bis 2030
Die Ursache ist klar n1,8 dauert noch und die Belichtungsgröße verkleinert sich von aktuell 850mm² auf nur noch 425mm² damit ist nvidia auf maxed 144sm limitiert und das bei halb so großen chip.
Man muss den Weg des Taktes gehen und da sehe ich abseits dem +20% von n3 auf n2p nur noch maxed +15%.
Das wären mit blackwell design ~3,6ghz ab 2029 wogegen amd dann mit 4,4ghz und +30% alu kommen kann. bsp 360cu ~228tf vs nvidia 144tf
Und tschüss high end krone. Bis 2026 die krone behalten seit 2012 und dann gegen mcm verloren.

amd Zukunft sieht rosig aus. Nvidia muss ein mcm design entwerfen aber hat aktuell keine Lösung für das Latenz problem.
Amd hat eine lösung zu finden unter den patenten mit dem Akltiven interposer
Stapelchips könnten nvidia retten aber das wird den Takt drastisch senken da die wärme nirgends hin kann.
Und n2 hat schon die beidseitige Stromversorgung drin was den chip um min 25% beschleunigt das ist aber schon bei n2p drin.
Bliebe nur der Takt und dieser Weg wär mit ada design bei n2p auf etwa 4,5ghz mit n2x dann 5,1ghz bei maxed 160sm = 140tf das ist langsamer als mit neuen design und nur 3,6ghz was dann 144tf sind. zumal kühler

Davon ab werden schon jetzt 64tf gpu nicht ansatzweise ausgelastet und kommende cpu versprechen maxed +40% perf bei zen5 (2024), +20% zen6 (2026) grob +60%

Derzeitiges limits.
1080p 30tf dann 48tf.
1440p 39tf dann 62tf.
2160p 55tf dann 89tf.
In dxr dann +50% an tf mehr. Sofern kein engine limit greift

Was cpu angeht sehe ich die 8ghz cpu kommen ab n2x 2028

Die 30tf für 1080p sind großzügig bemessen eher ist es weniger und das wäre aktuell ne rtx4070ti mit nen r7 7800x3d oder ci9 13900k.

Brauchen wir 140tf gpu am desktop? Kurz nein, real wird man bis 2030 bei maxed 70tf im bezahlbaren Bereich bleiben (500-1000€)

low end wird bis 2027 bei maxed 30tf sein ebenfalls die Konsolen zu dem Zeitpunkt ps6
mid-high class maxed 50tf-64tf
high end wird 140tf bieten aber nur als Flaggschiff von amd und nvidia vermutlich titan klasse.

aktuell low end 7tf rtx3050 220€
entry 9tf rx6600 rtx3060 220-290€
mid class 13-16tf rx6700xt rtx3060ti 4060ti rtx3070 320-400€
high class 20tf-24tf rx6800/xt rtx4070 rtx3080 480-600€
high end 30- 37tf rtx3090/ti, rx6950/00xt rx7900xt rtx4070ti rx7900xtx, rtx4080 850-1200€
Enthusiast 64tf rtx4090 1700€
Stand 2023

Das nächst große ding wird Pathtracing sein das kostet aktuell min -80% Leistung
bsp cyberpunk 2077 dxr pathtracing ohne upscaler 1080p 13fps 9,2tf (rtx3060 12gb)
zum vergleich normales raster 66fps ultra presets ohne upscaler.
Entry class dann 2027 rtx6060/rx9600 30tf = 43fps
Und der Anspruch wird noch steigen da vermehrt auf 1440p hin designt wird was vram und Bandbreite fordert min sehe ich 500gb/s an, ab 1080p und das ab 2026
16gb vram und min gddr7 36gbps an 128bit sind angeraten =576gb/s für 1080p in ner rtx6060

Das maln überblick wie es laufen kann aber es gibt dinge die ich nicht weiß und das ist ne pessimistische Ansicht.

Am schlimmsten wäre Einmarsch von china in taiwan und natürlich Atomkrieg beides keine erstrebenswerte Zukunft.
 
syfsyn schrieb:
amd Zukunft sieht rosig aus. Nvidia muss ein mcm design entwerfen aber hat aktuell keine Lösung für das Latenz problem.
Wo nimmst du diese Info her ? Das klingt jetzt einmal quer durch die Gegend spekuliert.

Ich kann mir gut vorstellen, dass die seit Jahren selbst im Hintergrund forschen und etwas dann bringen wenn es wirklich nötig ist. Ist ja nicht so als ob die Bude komplett untalentiert ist bei dem was sie macht. :D
 
Klar forschen die, wie will man linearen Prozess der auf daten beruht die im cache sein müssen über zwei getrennte chips angleichen
Das problem kenne wir aus den sli tagen
Da gibt es zwei verfahren einmal afr und sfr

alternate frame resolution wo 2 chips getrennte Bilder rechne bis zum Schluss von sli genutzt aber nie wirklich die gpu ausgelastet bekommen zudem das problem mit mikroruckler.

SFR split frame resolution, das verfahren das 3dfx genutzt hatte mit den voxel Grafik Ansatz wo das Bild geteilt wurde in zwei hälften. Übliches problem Wartezyklen das nicht unbedingt beide frames gleichzeitig fertig gestellt sind und somit Latenz.

Amd Ansatz ist völlig anders diese übertragen die daten simultan über den aktiven interposer zu den alu quasi gibt es keine latenz aber höhere Datentransfers somit hat der prefetcher viel zutun. dieser ist in rdna3 defekt.
auch hier gibt es eine quasi Latenz bis die daten geladen sind somit maximal pro gcd 1 frame Verzögerung
Aber im Gegensatz zu nvidia die das wirklich wie multigpu angehen müssten keine Wartezyklen was min 3 oder mehr frame bedeutet

Der Ausweg wäre Stapelchips wo mit tsv chips verbunden werden das reduziert aber den Takt und könnte wärmestaus verursachen lösung wäre cache auf den chips alu drunter und mehr davon bei mehr Takt.
Und genau das habe ich angenommen beim blackwell design.

Mehrere chips stapeln geht schlicht nicht da nicht genug wärme abgeleitet werden kann.
amd nächster schritt wäre den L4 (inf cache) auf den gcd zu setzen aber das wäre optional um die last level cache latenz zu verringern was die Auslastung der cu nochmal um 0,5 punkte erhöht quasi aus derzeit 2,34 wird ohne Stapeln 2,5 und mit 3,0 fp32 pro Takt.

ich sagte ja die Prophezeiung ist pessimistisch
 
Zurück
Oben