• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Starfield: AMD nennt hohe Empfehlungen für CPU, GPU und Chipsatz

Norebo schrieb:
Darum bin ich strikt dagegen!
Ergibt für mich langsam Sinn, dass Du dagegen bist.
Wenn man sich durchliest wie Du die Funktionsweise von DLSS darstellst, ist das für mich nachvollziehbar.

Problematik (wie von einigen schon darauf hingewiesen)-> Die Funktionsweise ist eine andere als die, die Du dahinter vermutest.
Wenn man die Technik dahinter nicht versteht, dann halte ich es aber für schwierig, sich dann selbstbewusst hinzustellen und den Leuten erklären zu wollen, dass sie falsch liegen ;)

Als kleine Einführung, was DLSS so macht einfach mal hier reinschauen:

Das erklärt in manuellen Schritten, wie man mit niedrig aufgelösten Bildern ein hochaufgelöstes bekommt.
DLSS macht es im Grundsatz nicht anders, wobei der Vorteil bei DLSS darin liegt, dass es im Gegensatz zu zweidimensionalen Bildern auch noch Vektor- und Tiefeninformation zur Verrechnung nutzen kann und im Normalfall deutlich mehr Bilder einbezieht.
Vielleicht hat Dir das verdeutlicht, warum DLSS im Normalfall einen höheren Detailgrad als das "nativ berechnete" Bild liefert und dass das kein "Raten" oder "Zauberei" ist.

Die KI ist bei DLSS überwiegend da, zu bewerten, wie lange welches Pixel zur Verrechnung herangezogen werden darf, bis es erneut durch den Rasterpart berechnet werden sollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pro_Bro, Melmoth, Tornavida und eine weitere Person
.Sentinel. schrieb:
und dass das kein "Raten" oder "Zauberei" ist.
War doch schon bei den Uga Ugas früher so. Oooh. Feuer. Blitze ! Die Götter haben gesprochen ! 🤣🤣

Was man nicht versteht ist dann für einen auf einmal Zauberei oder des Teufels Werk. :D
 
  • Gefällt mir
Reaktionen: gecan und Tornavida
Es verlangt Keiner, dass man Alles wissen und verstehen muss aber die Diskussion gehört ins Forum der Augenoptiker egal ob Zauberei Ugauga oder Teufels Zeug, hauptsache es sieht geil aus und macht schnell 🙃 ansonsten hilft ihr nächster freundlicher Augenoptiker, der bestimmt auch einen guten Kollegen in der Psychiatrie hat damit man über die Fake Fps hinwegkommt. 😜
 
  • Gefällt mir
Reaktionen: ThirdLife
Naja AMD hat zuvor damit geworben, dass Starfield für Ryzen 7000 und RX 7000 optimiert ist. Und die dafür benötigten Motherboards bzw. Chipsätze passen von der Preisklasse her sehr gut zu den genannten CPUs und GPUs.

Außerdem: warum sollte AMD als technischer Exklusivpartner nicht auch mit seinen eigenen Produkten werben können? Sie können es immerhin, da sie die benötigte Hardware dafür am Markt anbieten.
 
.Sentinel. schrieb:
Ergibt für mich langsam Sinn, dass Du dagegen bist.
Wenn man sich durchliest wie Du die Funktionsweise von DLSS darstellst, ist das für mich nachvollziehbar.
Na, ich bin eigentlich garnicht so extrem gegen DLSS2 und FSR2, wie es scheint, wenn es ausschließlich zum Nutzen der User eingesetzt würde, wo ich schon Einsatzfelder anerkenne.

Das Problem für mich ist, wenn zum Einen die Software zum Substitut für Hardwarefortschritt wird, zum Anderen ganz deutlich DLSS3 und FSR3, die jetzt keine Bilder mehr durch wie gute Algorithmen und Specialcores auch immer mehr oder weniger gut hochskalieren, sondern einfach nur zwei fertige Bilder interpolieren!

DLSS3 und FSR3 sind ganz simpel FPS-Booster, wo der ganze Gehirnschmalz, der noch in DLSS2, oder weniger in FSR2 steckt, gar nicht mehr zum Tragen kommt, weil der steckt höchsten noch in den 2 Frames, aus denen das Zwischenbild interpoliert wird.

Man steckt also auf jeden Fall ein grafisch minderwertiges nicht interaktives Zwischenframe zwischen 2 der gewünschten Qualität entsprechenden, interaktiven Basisframes.

Das bedeutet auf gut deutsch gesagt, zwei Schritte vor und 1 Schritt zurück (immer auf die beiden nötigen Basisframes bezogen) und interaktion, also Input, genauso wie Output des Geschehen, passiert nur jedes zwote Frame, zusätzlich zum Inputlag, der ohnehin schon da ist.

Man erhöht die FPS, bekommt eine schlechte Zwichenframequalität (in Tests schon gezeigt) und ein Spielerlebnis, das nicht den höheren FPS entspricht, sondern tatsächlich weniger FPS gleichkommt.

Und was kommt nach DLSS3 und FSR3?

Noch mehr statische Zwischenbilder, per Ausgangsframe?

Ab wieviel Zwischenbildern ist die Handlung "out of sync" mit dem Geschehen?

Ich seh in DLSS2 und FSR2 Werkzeuge, für die es Anwendungsfälle geben kann, in denen sie gewinnbringend eingesetzt werden können.

Aber verbunden mit DLSS3 und FSR3 seh ich die Gefahr übelster FPS-Manipulation aufkommen!

Und da ich noch die hitzige Diskussion "Nur Frames die auf den Pixel dem Originalbild entsprechen zählen" mibekommen hab, verwundert es mich zusätzlich, wie freudig die Abkehr von Originalpixeln zugunsten FPS gegenwärtig aufgenommen wird.

Damit will ich zum Ende kommen, beste Grüsse.
 
Norebo schrieb:
Das Problem für mich ist, wenn zum Einen die Software zum Substitut für Hardwarefortschritt wird, zum Anderen ganz deutlich DLSS3 und FSR3, die jetzt keine Bilder mehr durch wie gute Algorithmen und Specialcores auch immer mehr oder weniger gut hochskalieren, sondern einfach nur zwei fertige Bilder interpolieren!
Die Sache ist die, dass wir aber zum Beispiel in der neuen Generation grundsätzlich, also ohne DLSS, FSR & Co. einen so hohen Leistungszuwachs erhalten haben, wie selten zuvor. Ich sehe auch dort keine Stagnation.
Es ist doch eher so, dass die Grafikkartenpreise gerade deshalb explodieren, weil man eben nicht stagniert, sondern mit immer erheblicheren Mitteln gegen die Physik ankämpft um weiterhin fette Sprünge liefern zu können.

Und da kommt DLSS und FSR noch ON TOP drauf.

Norebo schrieb:
in den 2 Frames, aus denen das Zwischenbild interpoliert wird.
...nur dass auch dort die Interpolation nicht nur spatial sondern auch temporal und in Berücksichtigung der Bewegungsvektoren durchgeführt wird. Das hat mit einer 08/15 gemittelten Interpolation wenig zu tun.

Norebo schrieb:
Man erhöht die FPS, bekommt eine schlechte Zwichenframequalität (in Tests schon gezeigt) und ein Spielerlebnis, das nicht den höheren FPS entspricht, sondern tatsächlich weniger FPS gleichkommt.
Du hast es wohl noch nicht im Einsatz gesehen und zweitens unterschlägst Du, dass auch die FG laufend durch AI ein besseres inferencing- Modell spendiert bekommt. Die FG erster Stunde entfernt sich immer weiter von dem, was aktuell inzwischen geliefert werden kann.
Im Blindtest erkennt der normale Spieler auch in einem schwerwiegenden Fall (getestet 60FPS nativ gegen 30FPS+ FG auf 60FPS begrenzt) keinen Unterschied.

Auch nicht in Sachen Spielgefühl. Da ist immer viel "Glaube" und selbsterfüllende Profezeiung mit an Bord.

Ich finde es immer interessant diese Argumentationen zu hören zumal diejenigen, die sich über DLSS3+FG beschweren eben immer vollständig außer Acht lassen, dass sie Nativ eine deutlich höhere Latenz ohne Schwierigkeiten ertragen können und auch Früher damit wohl auch keine Probleme gehabt haben.

Norebo schrieb:
Und was kommt nach DLSS3 und FSR3?

Noch mehr statische Zwischenbilder, per Ausgangsframe?
Exakt- Die Zwischenbildberechnung wird wohl zukünftig auch Multi- Frame unterstützen, so dass man damit einen perfekt glatten Frame- Pacing- Verlauf hinbekommen kann, auch wenn die Ursprungsframes stottern.

Generell wird die nächste Evolutionsstufe dynamischer ablaufen. Man gibt ein Zielfenster ein, bei welchen man die FPS angenagelt sehen will und die Verfahren ergänzen sich dann so weit, dass man automatisiert immer das bestmögliche Bild dafür bekommt.
Nebst dem, dass man natürlich immer die Genauigkeit und die Sampleanzahl weiter steigern kann.
Norebo schrieb:
Ab wieviel Zwischenbildern ist die Handlung "out of sync" mit dem Geschehen?
Es kommt nicht auf die Anzahl der Zwischenbilder sondern auf die Zeitddauer an, in welcher jeweils ein Folgeframe generiert werden kann.
Ein wirkliches Out of Sync kannst Du mal sehen, wenn Du die FG einschaltest und mal künstlich die Ausgangsframes auf 10 FPS stellst.
Norebo schrieb:
Aber verbunden mit DLSS3 und FSR3 seh ich die Gefahr übelster FPS-Manipulation aufkommen!
Naja- FPS ist halt das, was Grafikkarten liefern sollen. Eine Manipulation sehe ich auch nicht, weil man bei den Verfahren mit offenen Karten spielt und man in den Optionen vielfältige Wahlmöglichkeiten hat. Oder es sogar abstellen kann.
Norebo schrieb:
Und da ich noch die hitzige Diskussion "Nur Frames die auf den Pixel dem Originalbild entsprechen zählen" mibekommen hab, verwundert es mich zusätzlich, wie freudig die Abkehr von Originalpixeln zugunsten FPS gegenwärtig aufgenommen wird.
Siehe das Video an, dass ich Dir weiter oben geschickt hab. Wer will schon original- Pixel, wenn er höheren Detailgrad gepaart mit mehr Leistung erhalten kann? Auch alles über original Pixel, nur eben über die Zeit kumuliert und somit in deutlich höherer Anzahl.

Norebo schrieb:
Damit will ich zum Ende kommen, beste Grüsse.
Ebenso!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Leereiyuu, ThirdLife und Melmoth
IXI_HADES_IXI schrieb:
Hey, danke für die Aufgleisung.
Auf der PS5 hab ich Mafia in der Definitve Edition installiert. Nicht Spielbar. Egal was ich einstelle es ist so unangenehm so zu Spielen. Extremes, also nicht nur ein wenig, extremes Stottern bei dern Horizontalen Schwenks. Es sieht aus als würde ein Frame fehlen. Egal was ich am TV oder Konsole einstelle. C9 Serie von LG. Ein Top teil. Alles läuft so super außer diese 30fps Teile.
Echt Schade hab mich so darauf gefreut. :(
Starfield in 30fps ist halt für mich dann unspielbar auf der X und dem LG C9 :(
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: IXI_HADES_IXI
30 fps sind ja bei solchen grafisch opulenten Titeln generell mal unspielbar (wenns denn so kommt).
 
Hylou schrieb:
Da AMD keine gute RT Performance hat ist davon auszugehen das das nur absolut rudimentär eingebaut sein wird.
Ich glaube nicht.
Für mehr Performance kann man ja immer noch FSR2.x anschalten ...burn! 😈
 
MarcoHatFragen schrieb:
Schade für das Spiel das AMD daran mitarbeitet, Nvidia würde wahrscheinlich soviel mehr rausholen, mit fetter Raytracing Optik und DLSS 3.0 was hohe FPS dann noch bringt, verpasste Chance einfach. Außerdem wird AMD immer unsympathischer, allein schon jetzt wieder mit so einer Liste die nur AMD Hardware zeigt, oh man oh man
Ach sorry, du willst also, dass AMD, NV und Intel bewirbt?

Und NVidia macht Werbung für AMD und Intel dann sowieso, ich meine, bei den CPUs die sie anbieten? Macht Sinn. Nicht.
 
  • Gefällt mir
Reaktionen: mibbio
Was müssen meine Argusaugen da lesen. "Mein popliger 5900X auf B550 taugt offiziell nicht mal für 1440p!"
Ich bin davon ausgegangen das meinen GamingSystem genug Power mit dem 5900X noch die nächsten Jahre bietet. Also optisch schlechter als Spiele die ich bisher damit gespielt habe dürfte Starfield doch dann wohl nicht ausfallen. Die Bethesda Engine hat Sprünge gemacht. Ich denke 1440p wird optisch annehmlich sein.
 
äh nein
Der r9 5900x hat genug Leistung für ne rtx4070ti
ne rtx4080 und rtx4090 sind so schnelle das quasi keine cpu diese auf 1440p irgendwie auslasten kann. Selbst der r7 7800xx3d hat mühe ne rtx4080 auf 1440p auf 99% gpu load zu bekommen.
Die rtx4090 ist nur in 4k zuhause und selbst da cpu limitiert. Die nächste cpu gen wird nochmal um 40% an ipc zulegen
Der 5800x3d mildert etwas da die spiele durch den cache deutlich zulegen das liegt aber nicht an der ipc sondern mehr am design des Spiels.
Der r7 5800x3d ist so schnell wie die ryzen 7000 ohne 3dcache
Das sind gut 20% Vorteil aber in echte cpu limits nicht schneller als die non 3d cache cpu Modelle der zen3 GenerationS
 
mylight schrieb:
Mein popliger 5900X auf B550 taugt offiziell nicht mal für 1440p
davon ab würde ich auf irgendwelche Systemanforderungen seitens der Spieleentwickler nichts geben, gerade bei den CPU's, denn die CPU liefert in jeder Auflösung die selbe Leistung, die CPU berechnet die FPS und die Grafikkarte wandelt diese nur noch in Details und Auflösung um

für 60FPS in ultra Details, auch mit Raytracing wird sie wohl dicke ausreichen, auch in 4K, für 120FPS aufwärts in ultra Details könnte es ggf. knapp werden und bräuchtest dann eine aktuelle CPU für, von einer Grafikkarte die diese FPS in entsprechender Qualitätsstufe und Auflösung berechnet, mal abgesehen

syfsyn schrieb:
Der r9 5900x hat genug Leistung für ne rtx4070ti
und für eine 4080 bzw. 4090 nicht mehr ? du weißt selbst das man die Regler so einstellen kann das du selbst eine 4090 in FullHD klein bekommst, zeigt @HisN mit seinen wunderbaren Screenshots immer wieder auf's neue auf, selbst wenn du dafür DSR noch zum anheben der Auflösung nutzt

daher hör doch bitte damit auf immer alles zu pauschalisieren, wenn du mit einem R5 3600 in 4K unterwegs bist, dann würde selbst eine 4080 noch wunderbar passen
 
Zuletzt bearbeitet:
syfsyn schrieb:
Die rtx4090 ist nur in 4k zuhause und selbst da cpu limitiert. Die nächste cpu gen wird nochmal um 40% an ipc zulegen
Also alles was man bisher dazu gelesen hat inkl. AMD-Aussagen deutet eher auf 20-25%. Wie kommst du auf 40% nur durch IPC ? Quellen ? Nicht als Angriff gemeint - reines Interesse. :)
Ergänzung ()

Verak Drezzt schrieb:
du weißt selbst das man die Regler so einstellen kann das du selbst eine 4090 in FullHD klein bekommst, zeigt @HisN mit seinen wunderbaren Screenshots immer wieder auf's neue auf, selbst wenn du dafür DSR noch zum anheben der Auflösung nutzt
Was dann aber technisch gesehen kein FHD ist wenn du intern mit drölfzigfacher Auflösung rechnest. 1080p Rendern und Ausgabe bleibt seine Aussage korrekt.

Verak Drezzt schrieb:
daher hör doch bitte damit auf immer alles zu pauschalisieren, wenn du mit einem R5 3600 in 4K unterwegs bist, dann würde selbst eine 4080 noch wunderbar passen
Baldurs Gate 3, MS FS und Co würden da aber mal ganz hart widersprechen. ;)
 
ThirdLife schrieb:
Baldurs Gate 3, MS FS und Co würden da aber mal ganz hart widersprechen. ;)
schön das du meinst Cherrypicking zu betreiben, bist nen ganz schlauer oder ? wobei man für Baldurs Gate 3 auch nicht mehr wie 60FPS braucht um Spass zu haben, auch wenn eine 4080 selbst in 4K nur ansatzweise ausgelastet werden würde
Ergänzung ()

@ThirdLife wobei ich mit nem 3600 jetzt auch nicht wirklich das Problem sehe, keine Ahnung was du willst mit meiner Aussage von wegen 3600+4080 in 4K

 
Verak Drezzt schrieb:
schön das du meinst Cherrypicking zu betreiben, bist nen ganz schlauer oder ?
Wow da ist jemand richtig gut gelaunt heute. Kauf dir nen Ventilator und kühl mal wieder runter.

Gibt genügend Games wo das Limit einfach die CPU ist (Age of Empires-Reihe, Wolcen, Cities Skylines, Anno-Reihe etc.). Spätestens aber sobald du mal einen 240Hz Monitor einsetzt. Oft werden noch nichtmal 120Hz erreicht von älteren CPUs.

Verak Drezzt schrieb:
wobei man für Baldurs Gate 3 auch nicht mehr wie 60FPS braucht um Spass zu haben
1) Schau mal dazu Digitalfoundry an. Mit einem 3600er Ryzen hast du da 25fps im dritten Akt.
2) Ist jetzt auch eine Form des Cherrypickings wenn du ein arbiträres Limit setzt und das allgemeingültig für jeden gelten muss.

Verak Drezzt schrieb:
auch wenn eine 4080 selbst in 4K nur ansatzweise ausgelastet werden würde
Und somit @syfsyn bestätigen würde.

Verak Drezzt schrieb:
keine Ahnung was du willst mit meiner Aussage von wegen 3600+4080 in 4K
 
und ? das ist dann trotz alledem nur ein Titel von wenigen der Games da draußen, die dann halt ins CPU Limit rennen, trotz alledem brauchst du für eine 4080 unter 4K keinen 7950X3D oder 13900KS um mit einem 3600+4080 im GPU Limit zu zocken und jetzt troll dich bitte
 
Verak Drezzt schrieb:
und ? das ist dann trotz alledem nur ein Titel von wenigen der Games da draußen, die dann halt ins CPU Limit rennen,
Ach so ja klar, es gibt ja nur BG3 das CPU-limitiert. Sorry, mein Fehler. Die 96000 anderen Steam Games, da limitiert sonst kein einziges.

Verak Drezzt schrieb:
trotz alledem brauchst du für eine 4080 unter 4K keinen 7950X3D oder 13900KS um mit einem 3600+4080 im GPU Limit zu zocken
Kommt auch hier stark aufs Spiel an. Ausser CP2077 hat aktuell noch kein Spiel meine 4090 ans Limit getrieben.

Und nicht jeder hat dein isoliertes Spezialszenario einer älteren und in dem Fall recht langsamen CPU, dafür aber die stärkste GPU und den geilsten 4K Monitor. Was ja auch gar kein Cherrypicking ist natürlich. ;)

Steam Survey sagt 1080p und 1440p sind das womit 70% der Leute zocken. Und da vermutlich auch eher mit Tendenz höhere Hz. Somit sind wir hier sofort im CPU Limit in den meisten Titeln. Und das selbst nativ - jetzt lass da noch Upscaling hinzukommen.

Verak Drezzt schrieb:
und jetzt troll dich bitte
Und so schnell sind die Argumente schon aus. :daumen:
 
ThirdLife schrieb:
Und so schnell sind die Argumente schon aus. :daumen:
nein es geht einfach nur darum das @syfsyn meint pauschal unter jedem Poste zu behaupten CPU X passt zur GPU Y und aber alles im Grunde vollkommen von den persönlichen Anforderungen eines jeden einzelnen abhängt, weshalb auch per se ein 3600 mit einer 4080 unter 4K keine schlechte Kombo ist

aber scheinst du irgendwie nicht wirklich auf die Kette zu bekommen
 
Zuletzt bearbeitet:
Verak Drezzt schrieb:
nein es geht einfach nur darum das @syfsyn meint pauschal unter jedem Poste zu behaupten CPU X passt zur GPU Y
Laut CB Benchliste hat schon ein 5800X eine Performance-Regression um gut 40% ggü. einem 7950X3D und der ist schon 20-25% schneller als sein 3800X Vorgänger. Bei einem 3600 dürfte es noch schlechter aussehen.

Da wird man auch in 4K öfter mal am CPU-Limit sein. Far Cry 6 zB laut Gamersnexus liegt der 3600 bei 102fps unter 1080p mit einer 4090. Unter 4K alles maximiert würde eine 4080 laut Techspot mit einem 5800X3D schon 130fps machen.

Bei den Perzentilen sieht das natürlich dann ebenfalls schlechter aus. KANN man schon so machen. Würde ich aber jetzt nicht als gutes Setup bezeichnen und auch keine Empfehlung dafür rausgeben.

Verak Drezzt schrieb:
und aber alles im Grunde vollkommen von den persönlichen Anforderungen eines jeden einzelnen abhängt,
Also würdest du deinen Bekannten empfehlen sich einen 3600 zu kaufen, eine 4080 und dann einen 4K Monitor dazu ? In genau dieser spezifischen Kombination ? :D

Natürlich hängt immer alles von den jeweiligen Anforderungen ab. Ich seh nur nicht wo der typische 4080/4K Käufer jetzt einen 3600 dazu kaufen sollte statt eines 5800X3D oder eines 13600K. Scheinen dann sehr spezifische Anforderungen zu sein.

Verak Drezzt schrieb:
weshalb auch per se ein 3600 mit einer 4080 unter 4K keine schlechte Kombo ist
Ist das nicht auch sehr pauschal ? Ich behaupte mal das ist pauschal eine schlechtere Kombi als es mit einer moderneren CPU zu kombinieren. Und eine 4090 ist damit sowieso erstmal passe, dann bist du noch öfter im Limit.

Und wer jetzt 1440p oder 1080p zockt der hat dann komplett vergambled.

Verak Drezzt schrieb:
aber scheinst du irgendwie nicht wirklich auf die Kette zu bekommen
Dafür haben wir ja dich als Hauptexperten hier der uns die Welt erklärt. :daumen:

Sind dann jetzt mit BG3, MSFS, Anno, AoE, Cities und Factorio übrigens schon sieben Titel die ich dir hier aus dem Stegreif nennen konnte. Du meintest ja das sei nur ein Titel. Ganz spezifisch. ;)
 
Zurück
Oben