Test Watch Dogs: Legion im Test: Hohe Anforderungen und etwas viel Raytracing

Ich will ja gar nichts schlechtes zu dem Spiel sagen aber so viel zumindest.

Schon in den 80s und 90s gab es immer wieder mal Spiele die es mit den Anforderungen übertrieben haben und entsprechend mies liefen. Schönes Beispiel, Driver 2 auf der PS 1 im Jahr 2000 glaube ich :(

Wenn ich dann aber im Verhältnis dazu die Preise von guten Grafikkarten sehe wird mir übel.
Grafikporn vom feinsten, Story mehr schlecht als recht (trift auf viele Spiele zu) und so schlecht optimiert das man andauernd mit Framedrops zu kämpfen hat.

Obwohl ich (aufgewachsen) neben 8bit "Konsolen" eher ein Tastatur Junkie bin (Amiga, Commodore etc.) und gerne am PC spiele, zieht es mich die letzten Jahre mehr und mehr zu Konsolen.
  • Konsole + gutes TV = tolles Gaming
  • PC + teure Grafikkarte/teure CPU + Monitor + Speaker/Headset + womöglich Tastatur/Maus für hunderte Euro = vielleicht tolles Gaming

Irgendwie/wo sehe ich die Verhältnismäßigkeit nicht mehr, sorry . . .
 
  • Gefällt mir
Reaktionen: Beg1 und LDNV
Meine Rede. Für ein aus meiner Sicht relevantes Upgrade zu den Konsolen, wo man am PC von einem deutlich besseren Spielerlebnis sprechen kann und was auch die nächsten vier Jahre ausreicht, muss man unterm Strich locker das dreifache einer Konsole bezahlen.

Ich bin auch hin und her gerissen. Eigentlich wäre ich schon bereit, wieder ordentlich was in nen neuen PC zu investieren.
Wenn ich aber dann sehe, wie viel Leistung es diesmal bei den Konsolen gibt, und wie schlecht die neuen Games mit der neuesten PC Hardware umgehen, dann frag ich mich schon, ob man sich als PC Spieler so über den Tisch ziehen lassen muss und ob es den ganzen Aufwand und Stress überhaupt wert ist.

Andererseits denk ich mir. Drauf geschissen, dafür kann ich mit 60+ FPS zocken.

Aber eine angemessene Verhältnissmäßigkeit besteht hier wirklich nicht mehr...
 
  • Gefällt mir
Reaktionen: Beg1
Captain Flint schrieb:
Ich will ja gar nichts schlechtes zu dem Spiel sagen aber so viel zumindest.

Schon in den 80s und 90s gab es immer wieder mal Spiele die es mit den Anforderungen übertrieben haben und entsprechend mies liefen. Schönes Beispiel, Driver 2 auf der PS 1 im Jahr 2000 glaube ich :(

Wenn ich dann aber im Verhältnis dazu die Preise von guten Grafikkarten sehe wird mir übel.
Grafikporn vom feinsten, Story mehr schlecht als recht (trift auf viele Spiele zu) und so schlecht optimiert das man andauernd mit Framedrops zu kämpfen hat.

Obwohl ich (aufgewachsen) neben 8bit "Konsolen" eher ein Tastatur Junkie bin (Amiga, Commodore etc.) und gerne am PC spiele, zieht es mich die letzten Jahre mehr und mehr zu Konsolen.
  • Konsole + gutes TV = tolles Gaming
  • PC + teure Grafikkarte/teure CPU + Monitor + Speaker/Headset + womöglich Tastatur/Maus für hunderte Euro = vielleicht tolles Gaming

Irgendwie/wo sehe ich die Verhältnismäßigkeit nicht mehr, sorry . . .

Exakt, und wirklich 1:1 geht es mir in letzter Zeit auch.
Gerade bei Single Player Spielen jucken mich mögliche 30 FPS nicht mehr dank zwischen Bild Berechnung.
Die Meisten MP Shooter haben eh 60.
Die Optik ist natürlich nicht "PC Ultra" aber in jeden Fall so das es gut aussieht.
Kein Vergleich zu früheren Generationen, gerade zum Ende der jeweiligen Gen hin. (Battlefield 3 auf der 360 sah ja echt gruselig aus ;) )

Kein Launcher Wahnsinn.
Kein in welcher Freundesliste hab ich jetzt wen.
Keine Windows Zicken oder sonstiges.
Screenshots machen und Videos aufnehmen und vll sogar Streamen kann ich auch.
Und immer öfter werden Performance Modis angeboten.

Spiele muss ich nicht mehr doppelt kaufen für meine Frau und mich, da ich dank Heimkonsolen Feature einfach teile.
Spiele käufe ebenso über Stores und VPN möglich.

Und mehr Zeit für das Game an sich statt Stundenlang an den Settings rum zu popeln bis es läuft wie ich will.

Mit Series X wird das alles sogar auf noch ein höheren Level gehoben...

War Jahrzehnte Lang absoluter PC Junky. OC / UV / modden / 144hz dies das, jenes.
Hat sich auch immer gelohnt weil es wirklich Spaß gemacht und was gebracht hat und nicht nur anhand Screenshot vergleiche sondern direkt ins Auge gesprungen ist und das IMMER zusätzlich zu den IMMER möglichen 60 FPS + .

Mittlerweile macht OC kein Spaß mehr weil es kaum was bringt. UV lohnt sich noch hier und da. Modden macht natürlich noch Spaß (daher hab ich meine Shadows auch und für die paar PC Exklusiven Sachen). Aber der ganze Rest wandert immer mehr Richtung Konsole. Und vor allem ich muss mich nicht mit HDR rum ärgern an meinem Oled was ich echt lieben gelernt habe, was am PC immer noch immer wieder gefrickel ist was ich selbst durch leben durfte. Um ein wirklich merklich und sichtlichen Mehrwert zu haben muss ich wesentlich mehr investieren und hab dann immer noch gefrickel hier und da.

Nee nee.
Solange die Konsolen auf jetzt hohen Niveau bleiben das dass Bild Schick ist und alles gut läuft, zieht es mich auch immer mehr dahin. Wie es in ein paar Jahren aussieht, schaun wa mal ob es mich dann wieder zurück zieht.

Früher hat sich das mehr was man ausgegeben hat und was man an Zeit rein gesteckt hat wirklich rentiert. Heute bin ich da eher enttäuscht was am PC bei rum kommt und überrascht was aus den kleinen Kisten kommt... Verhältnis passt null, was es früher aber mal tat . Ob es das jemals wieder wird? Warten wir es ab.
 
  • Gefällt mir
Reaktionen: Beg1, Captain Flint und M@tze
Hier ist ein aus meiner Sicht ziemlich gutes RT Beispiel
Vielleicht werden damit auch einige, die immer noch zweifeln, überzeugt ;)
 
  • Gefällt mir
Reaktionen: Beg1, Captain Flint, .Sentinel. und eine weitere Person
Sieht um einiges besser aus als WDL. Auch wenn es bei Spider-Man plötzlich ebenfalls jede Menge Pfützen gibt... ;)
 
  • Gefällt mir
Reaktionen: Beg1, .Sentinel. und foo_1337
owned139 schrieb:

Wenn man schon nicht den Mund halten kann, dann sollte man Ahnung vom Thema haben!
Das erste Bild ist komplett nachbearbeitet und im dritten Bild kann man -wenn man denn dazu in der Lage ist- genau das erkennen was andere schon aufgezeigt haben: der Untergrund/Hintergrund und das Material der Reflexionsfläche und der Sichtwinkel bestimmen wie scharf/deutlich und in welcher Art/Durchgängigkeit eine Reflexion zu erkennen ist.
Alleine schon Schmutzpartikel im Wasser und ein rauer Untergrund sorgen für eine matte und verzerrte Spiegelung. Ist der Untergrund unterschiedlich hoch, müssen Hohlspiegel Effekte, Wölbungen in der Spiegelung zu sehen sein.
Das alles und noch viel mehr, kannst du selber in deinen Beispielbildern erkennen, nur willst du das Offensichtlich gar nicht sehen, bzw. erkennen.
Von irgend jemanden kam noch ein reales Bild einer Pfütze. Klar erkennbar ist, die Pfütze ist nicht glasklar und deshalb ist die Reflexion auch verschwommen.
Man erkennt Hell und Dunkel, das war es dann aber auch.
Ich habe immer wieder bei diesen RT Diskussion den Eindruck, dass gerade die Fans von RT gar nicht wissen welcher Aufwand betrieben werden muss, damit RT überhaupt natürlich wirken kann.
Das einfachste an RT, ist die Erzeugung der Strahlen!
Das komplizierteste an RT, ist die Erstellung der Materialbeschaffenheit der Oberflächen mit den die Trays interagieren müssen.
Das Rechenintensive ist die Komplexität der Art und Weise wie die Strahlen mit diesen Oberflächen interagieren müssen, damit das sichtbare Ergebnis so natürlich wie möglich aussieht und das aus jedem Winkel und jeder Entfernung und das beinhaltet eine ständige Vervielfältigung der Strahlen ja nach Oberflächenbeschaffenheit und/oder Untergrund (Spiegel).
Bei derzeit allen RT Spielen wird diese eigentlich nötige Komplexität auf ein extremes Minimum heruntergefahren!
Das wiederum bedeutet, dass bei den Pfützen, der Untergrund fast gar keine Rolle spielt, sondern nur die Oberfläche.
Es findet derzeit keine komplexe Brechung der Strahlen an lichtdurchlässigen Oberflächen statt.
Es wird kein Wasser simuliert, sondern ein Spiegel durch den man hindurchschauen kann und deswegen wirken die Spiegelungen vollkommen unrealistisch klar und "vollkommen".
Bei Beleuchtungseffekten, bzw. Schatten wird dies noch einmal sehr deutlich.
Bei Übergängen von drinnen nach draußen (oder umgekehrt), stellt der Spieler schnell fest, dass es keine indirekte Beleuchtung gibt, bzw es keine weichen Übergänge durch indirekte, diffuse Beleuchtung gibt.
Derzeit wird glaube ich 1 Strahl pro Pixel genutzt und die Vervielfältigung der Strahlen, die normalerweise bei der Interaktion mit der Oberfläche auftritt auf eine Minimum reduziert. Nicht jeder Strahl darf sich überhaupt vervielfältigen. Die Die Ausbreitung ist auch extrem Eingeschränkt.
Somit kommt es zu so komischen Situationen, dass zwar Licht durch eine Öffnung in einen dunklen Raum fällt aber schon nach wenigen Metern als stockdunkel ist. In der Realität würde so ein Fenster aber ausreichen den kompletten Raum mit Licht zu fluten.
Damit RT überhaupt eine Chance hätte seine Vorteile in Echtzeit, ohne RZ, in 4k und bei min. 60 FPS auszuspielen, müsste die RT Leistung der aktuellen GPU mindestens um den Faktor 32 anwachsen.
Wenn die RT Leistung sich jedes Jahr verdoppeln würde, wären das mindestens noch 5 Jahre.
Das Problem ist aber, dass die RT Leistung gerade mal im Schnitt um 50% pro Jahr gestiegen ist. Bei diesem "Tempo" wären "echtes" RT Spiele erst in 10 Jahren möglich, wenn überhaupt jedes Jahr eine Verbesserung einsetzen kann.
Viele RT Fans haben leider keine Ahnung über was sie überhaupt reden. Weder von der Technik, noch von den Möglichkeiten und wie lange es noch dauern wird, bist RT die RZ Effekte ersetzen kann, ohne wie aus einer anderen Welt zu wirken.
Das musste mal "gesagt" werden!
 
  • Gefällt mir
Reaktionen: LDNV und .Sentinel.
M@tze schrieb:
Sieht um einiges besser aus als WDL. Auch wenn es bei Spider-Man plötzlich ebenfalls jede Menge Pfützen gibt... ;)

Regnet halt dort viel ;) Insofern fand ich die Wahl "London" als Schauplatz für WDL zu Demonstrationszwecken garnicht so schlecht gewählt.

Und ja- Ich finde auch, dass bei Spider-Man die Spiegelungen der Außenbereiche teils besser, weil etwas dezenter aussehen. Bzw. scheinten da die Reflexionen einfach etwas "dreckiger" zu sein und die Umgebung nicht ganz so "hochglanz- poliert".

WDL würde es gut tun, wenn sie eben ein wenig Schmutz und Refraction auf die spiegelnden Materialien brächten.

Aber es wird ja langsam...

Sind viele interessante Dinge am Laufen und auch der Einsatz von RTRT muss sich erst "eingrooven".

Bin auch auf das Projekt hier gespannt.
Doom 3 Raytraced

 
  • Gefällt mir
Reaktionen: foo_1337
@Zipda weils nicht perfekt ist, ist es scheiße?
Was ist das für eine schwachsinnige Argumentation? Raytracing ist besser/echter als SSR.
Da könnt ihr noch so rumheulen. Dreck in Pfützen hat auch nichts mit der Spiegelung als solches zutun. Das ist ne völlig andere Baustelle.

Zipda schrieb:
Damit RT überhaupt eine Chance hätte seine Vorteile in Echtzeit, ohne RZ, in 4k und bei min. 60 FPS auszuspielen, müsste die RT Leistung der aktuellen GPU mindestens um den Faktor 32 anwachsen.
Faktor 32? Wo haste denn die Zahl her? :freak:
 
  • Gefällt mir
Reaktionen: .Sentinel.
@Zipda @owned139
Es steckt in beidem was Ihr schreibt ein wahrer Kern.

Ja- RTRT ist noch nicht überragend, aber auch ja- es ist inzwischen eine Unsitte geworden, dass man auch von junger bzw. neu eingeführter Technik gleich Perfektion erwartet und letzenendes die Flinte sofort ins Korn wirft mach dem Motto:"Bevor es nicht perfekt ist, will ich lieber garnichts."

Nur ist es halt tatsächlich so, dass das insofern eine fehlerhafte Einstellung ist, als dass man doch im Allgemeinen schon das "Bessere", auch wenn es nicht perfekt ist, vorziehen sollte.

Zum Thema Leistung: Vorteil von RTRT ist quasi eine unbegrenzte Skalierbarkeit, die so weit geht, dass man einen Core pro Pixel verbauen könnte und es damit sauber skaliert.
Wo wir in Sachen Rastertechnik also tatsächlich in einen Engpass laufen, geht die Performance mit RTRT durch Ampere erst in die 2te Runde.
Und da wir die Entwicklung schon kennen und die Hersteller nicht dämlich sind, steigen die alle Stück für Stück auf Chiplet- Designs um.
Mit RTRT kann man also einfach viele Chiplets auf die GPU pressen und sie skaliert perfekt damit.
RTRT hängt im Gegensatz zum Rastern auch nicht so am Takt.
Das heisst, dass theoretisch viele im absoluten Sweetspot getaktete Chiplets vorstellbar sind. Und darüber hinaus auch wieder Multi GPU.

Die RTRT- Leistung um den Faktor 32 zu erhöhen ist im Gegnsatz zur weiteren Steigerung der Rasterleistung ein Kinderspiel.
 
.Sentinel. schrieb:
Bin auch auf das Projekt hier gespannt.
Doom 3 Raytraced

Ich mag es grundsätzlich, wenn alte Games aufgewertet werden mit Mods und Co. aber... würde ernsthaft jemand nochmal Doom 3 heute spielen wollen? Ich meine, die Probleme wie kleine Räume, wild hinter dir spawnende Gegner und schlechte Jumpscares würden mich jetzt nicht reizen, deswegen nochmal diesen Doom Teil anzuwerfen.
 
  • Gefällt mir
Reaktionen: M@tze
@.Sentinel. ich erkläre mir diese Erwartungen so, da die Karten die das alles eigentlich gut können sollten extrem teuer in den Augen vieler sind. Und wenn RT dann nichtmal besonders gut ist wird noch mehr geschimpft da man Geld für etwas gezahlt hat was dann nicht den eigenen Erwartungen entspricht. Verschlimmert wird das dann noch durch unglückliche Marketingaussagen Alla "it just works" das war zu diesem Zeitpunkt glatt gelogen und sowas vergessen die Leute nicht so schnell egal wie viel sich bereits getan hat ^^
 
  • Gefällt mir
Reaktionen: .Sentinel.
PS828 schrieb:
Verschlimmert wird das dann noch durch unglückliche Marketingaussagen Alla "it just works" das war zu diesem Zeitpunkt glatt gelogen und sowas vergessen die Leute nicht so schnell egal wie viel sich bereits getan hat ^^
Wir wissen aber auch, dass diese Aussage aus dem Zusammenhang gerissen und von Leuten mit Bias missbraucht wurde.
Im Präsentationsvideo von Nvidia kann man auch mit viel Gewalt und schlechtem Willen nicht hineininterpretieren, dass es sich um etwas anderes als eine Aussage bezüglich eines zukünftigen Modus für Artdesign gehandelt hat.

Es war im Detail auf RTGI bezogen wo er darauf hinwies, dass man damit eben Lichtquellen platzieren kann und die Szene automatisch "richtig" beleuchtet würde, ohne dass man irgendwie nacharbeiten müsste. Keine Fake- Lichter kein Rim- Lighting und und und...

Leider haben die "Hater" diesen Ausspruch so weit für sich instrumentalisiert und so oft im falschen Zusammenhang ins Internet gestellt, dass dieser unkritisch von der Vielzahl an Usern übernommen wurde.

Im Internet gewinnt leider immer öfter derjenige, der am lautesten schreit.
 
  • Gefällt mir
Reaktionen: PS828
Das ist aber leider überall so. Sicherlich gehören auch immer zwei dazu. Einer der die Vorlage liefert und einer der drauf anspringt.

Nvidia hätte ja auch nicht zum Turing Launch Sagen können "aktivieren geht aber wirklich Gut funtkionierts erst in Zukünftigen Titeln, wartet mal lieber noch" :D aber Spielraum gab es halt für Spekulationen.

Ist aber auch vermessen zu erwarten dass neue Features direkt 100% Funktionieren.

Die Sache wird sich klären sobald sich Entwickler und Hardwarehersteller weiter entwickelt haben. Wenn RT das große Ding ist dann kommt dessen Zeit. Vielleicht nicht jetzt, vielleicht mit Hopper und RDNA3.

Sobald sämtliche GPUs bis zur 75W Einsteigerkarte beider Hersteller sowas eingebaut haben und es Performant Benutzen können sodass es nicht mehr auffällt ob es an oder aus ist, dann kann man anfangen effektiv auf diese Technik zu programmieren. Dann gehören auch die Unkenrufe der Vergangenheit an
 
  • Gefällt mir
Reaktionen: .Sentinel.
Mit RT rutsch das Spiel selbst mit einer 3080 in unspielbar FPS Regionen ab.. Das nenne ich mal Hardwarehungrig. RT off ist da wohl die option der Stunde. Auch unverständlich das die Entwickler da soviel Effekte reinhauen, das es am Ende selbst in 1440p für Top Hardware eng wird.
 
h3@d1355_h0r53 schrieb:
Kommt doch immer auf die Spiele und Anwendungen an. Mit meiner 2070 Super bin ich auf WQHD aktuell gut bedient.

Dirt5 .. Daumen Kino.
Und das interessiert mich momentan.

Mein Monitor hat UWQHD und 120hz da ist alles unter einer 2080ti kein wünschenswertes Upgrade.
 
GerryB schrieb:
Gerade an nem preiswerten 4k60Hz-TV ohne Adaptive Sync wird man mit Graka XYZ aber froh sein über das kleine Helferlein. Da brauchts net ganz soviele Regler links.
(dito Superresi)

Unterhalb von 4k wirds sicher Qualitätsfetischisten geben, die auf DLSS+Co. keinen Wert legen.

btw.
Vor dem Patch war soundso einiges komisch im Luxx-Test: sprich RT+DLSS verträgt sich net
DXRhigh+DLSSbalanced = bremst die RTX 2080Ti+3080+3090 aus!? Nur 3070 geht gerade so.
Erzeugt irgendwie auf AMD ein CPU-Limit?

wer sich nen 4k tv mit nur 60hz und dazu nicht mal gsync/freesync holt ist doch selbst schuld, das ist nicht für gaming gedacht mein freund.
 
Captain Flint schrieb:
  • Konsole + gutes TV = tolles Gaming
  • PC + teure Grafikkarte/teure CPU + Monitor + Speaker/Headset + womöglich Tastatur/Maus für hunderte Euro = vielleicht tolles Gaming
Momentan zocke ich am PC meist 2-3 Jahre alte Titel, die laufen dann mit aktueller Hardware ziemlich gut in UHD und 60+fps, natürlich ist das nicht der eigentliche Sinn von teuren GPUs....

B3nutzer schrieb:
Wenn ich aber dann sehe, wie viel Leistung es diesmal bei den Konsolen gibt, und wie schlecht die neuen Games mit der neuesten PC Hardware umgehen

Ja, es ist teilweise wirklich traurig, was einem da als "fertiges" Spiel verkauft wird, wenn man dann noch die Scalperpreise der 3080 einbezieht wird PC-Gaming echt unattraktiv.
Und dann gibt es ja auch noch bei vielen Spielen einen Performance-Modus mit 60 fps (Spider-Man MM und Demon's Souls).

LDNV schrieb:
Früher hat sich das mehr was man ausgegeben hat und was man an Zeit rein gesteckt hat wirklich rentiert. Heute bin ich da eher enttäuscht was am PC bei rum kommt und überrascht was aus den kleinen Kisten kommt...

Watch Dogs 2... 2 Stunden am PC rumgefrickelt und dann doch entnervt aufgegeben, das Spiel will auf einer RTX 2080 nicht ohne Flackern laufen (gibt auch in Ubisoft und nvidia-Foren Threads dazu).
Konsolen sind wenigstens Plug & Play und wenn ich mir Miles Morales anschaue mit dem RT, bin ich wirklich froh eine PS5 vorbestellt zu haben.



Mein Hauptgründe für einen aktuellen PC sind eigentlich nur noch Mods und Shooter, weil ich diese mit einem Gamepad und unter 100 fps (online) einfach nicht spielen mag.


M@tze schrieb:
Sieht um einiges besser aus als WDL. Auch wenn es bei Spider-Man plötzlich ebenfalls jede Menge Pfützen gibt... ;)

Hey Spider-Man hatte sogar "Puddlegate", die dürfen das!
 
Nochmal was zum Thema Pfützen. Habe ich heute mal im Real Life :D drauf geachtet, wie denn echte Spiegelungen genau aussehen. Ergebnis ist, das es eine absolut glatte Oberfläche ist, wie ein Spiegel. Kommt bestimmt auch auf den Winkel des Betrachtens an, vom Auto aus jedoch wie ein Spiegel ohne Dreck, Unebenheiten oder irgendwas.
 
  • Gefällt mir
Reaktionen: xexex und foo_1337
Immer wieder die gleichen Kommentare und Argumente bei neuen GPU Generationen und Titeln. Ich streite gar nicht ab, dass ein WDL sehr wahrscheinlich noch einige Optimierungspatches erhalten wird, die 10-20% Leistung für die meisten Systeme bringen, aber selbst dann muss man einfach mal realistisch bleiben. Da werden schon wieder zig Äpfel vs Birnen Vergleiche angestellt oder wie kacke doch die neuen GPUs sind und neue Features wie RT die Leistung einbrechen lassen. Das wirkt teilweise wirklich wie Kiddies die sich darüber beschweren, dass sagen wir selbst eine 3080 nicht mit 8K 240FPS bei max. Details und RT läuft (dramaturgische Übertreibung zur Verdeutlichung meines Standpunktes).

Erstmal was allgemeines zur RTX 30xx Serie. Viele von euch haben sich diese auch subjektiv unnötig hoch in den Himmel gelobt. Nüchtern betrachtet haben wir bei Rasterizing Performance einen normalen Sprung wie er eben sein sollte und es z.B. auch beim Wechsel von Maxwell auf Pascal hatten. Auch davor war es eigentlich nicht unüblich, dass die x80Ti alte Gen ähnlich schnell ist wie x70 neue Gen ist. Leistungszuwachs von 50-60% je Watt und Dollar auch. Ein negativer Ausreißer war hier die erste RTX Generation. Sei es vom rohen Leistungszuwachs sowie auch von Preisentwicklung. Das hat Nvidia mit der zusätzlichen Raytracing Hardware verargumentiert.

Lasse ich noch für die erste Gen gelten, aber spätestens bei der zweiten nicht mehr weil sowas nennt sich technischer Fortschritt. Schaut man sich ganz nüchtern 1070 vs 3070 an, so merkt man schnell, dass die Karte objektiv eigentlich gar nicht so der Hit ist. Knapp 100 Euro höhere UVP, 8GB VRAM in dritter Generation (und nur normaler GDDR6), 70W höhere TDP, ... So dolle finde ich die Karte für den Preis gar nicht. Da hat die 3080 ein besseres P/L Verhältnis finde ich.

So, jetzt mal zu WDL selbst. Leute, es ist wie bei den meisten "Grafikporno" Spielen. Man schraubt von Ultra (oder wie auch immer gerade die höchste Einstellung heißt) eine Stufe runter, muss die Unterschiede teils mit der Lupe suchen aber erhält meist sofort 20-30% mehr FPS. Häufig sind es auch nur einzelne Optionen/Regler die brutale FPS Einbrüche verursachen und vom Eye Candy oft gar nichts oder kaum was bringen wenn man nicht gerade überall ständig stehen bleibt und sich aktiv danach umsieht. Im Spielgeschehen geht sowas zu 99% unter. Man nimmt sich einmal diese 20-30min Zeit um das für sein System und Zielvorgaben (z.B. stabiles 1080p/60fps) einzustellen und voila, auf einmal erreicht man diese Werte auch auf einer sagen wir aktuellen 250 Euro GPU.

Wer jetzt kommt mit "aaaaber auf einer XSX/PS5 für 500 Euro kriege ich natives 4K/60fps mit max. Details und RT" ... ihr könnt gerne an solche Märchen glauben, aber nach mehreren Konsolengenerationen und den immer wieder gleichen Diskussionen fühlt man sich langsam wirklich wie in Täglich grüßt das Murmeltier. Selbst ohne explizite Reviews oder Vergleiche zu lesen und mit dem Wissen das es natürlich auf einem System mit einer fixen Hardwarearchitektur und low level API um einiges besser optimiert ist als wenn man >100 versch. PC Konfigurationen, Treiber, usw. beachten muss (wird scheinbar auch jedes mal in den Diskussionen verdrängt/vergessen).

Es wurde ja schon offiziell bestätigt, dass es im Qualitätsmodus auf beiden neuen Konsolen mit 4K/30fps läuft. Ich bin mir auch ziemlich sicher, dass viele Einstellungen/Regler eher vergleichbar mit Mittel oder Hoch auf dem PC sind und Raytracing von Quali/LOD noch unter der niedrigsten PC Einstellung liegt. Ich gehe auch stark davon aus, dass immer wieder dyn. Resolution Rendering auf den Konsolen stattfindet (wie z.B. schon bei Days Gone PS5 Support angekündigt -> Dynamic 4K).

Tja und für solche Settings und (dynamisches) 4K/30fps wird dann vermutlich auch eine 3060/6700 ausreichen (also neue GPU Generation aus dem 300 Euro Segment). So wird ein Schuh draus und das sind dann auch sinnvolle Vergleiche.
 
  • Gefällt mir
Reaktionen: xexex und foo_1337
Zurück
Oben