News Wie spielt ihr eure Spiele?: Grafikeinstellungen, Presets, Bildausgabe und Peripherie

Hate01 schrieb:
Die meisten Artefakte sieht man bei DLSL und FSR2 in dem man Screenshots macht und dann heranzoomt. Hat mehr einen akademischen Wert, beim Spielen fällt das nicht auf.
Schön, dass es für dich funktioniert. Beim MSFS etwa ist dies (noch) nicht der Fall und man erkennt den Unterschied zur nativen Anzeige sofort, ohne deiner Meinung nach "akademischen" Vergleichsart. Aber ich schätze, du hast meinen Part mit "viel GUI" nicht gelesen.
 
  • Gefällt mir
Reaktionen: McTheRipper
Settings immer auf max, RT aktiviert sofern vorhanden im Game. Dlss nutze ich eigentlich nicht, die 4090 sollte alles nativ schaffen und noch geht das auch. In uwqhd+ (3840 x 1600) peile ich in Shootern die 200 FPS an, in Story Games bzw. Allgemein Singleplayer spiele reichen mir auch ~80 FPS, besser sind natürlich 100+, aber dank gsync ultimate kann man auch mit weniger FPS spielen als der Monitor hat.
Sehr interessante Umfrage und danke für die ganzen Artikel diese Woche.
 
Mir fehlten die Optionen, würde ich gerne nutzen, aber unterstützt meine Graka/ Monitor nicht. Ich habe daher für HDR gestimmt z.B. weil ich es gerne nutzen würde, aber keinen passenden Monitor habe.
 
Ich brauche den ganzen Schnickschnack nicht, mir reicht es wenn meine Grafikkarte genug FPS liefert in den jeweiligen Szenarios. Dafür brauch ich nicht auch immer Ultra, sehr hoch oder hoch reichen auch ez aus.
Und das wird auch Alles so bleiben erstmal solange die Kartenpreise so hoch sind.
 
Hier fehlt mir die Option "Kommt drauf an ob es in dem Spiel einen Mehrwert bietet". Die Leistung ist mir weniger wichtig als die Frage, wie Raytracing sich auf das Spiel auswirkt und tatsächlich bemerkbar ist. Hier ist CB 2077 ein gutes Beispiel, da sich die komplette Atmosphere des Spiels in vielen Innenbereichen komplett ändert, während ich bei anderen Titeln keinen Unterschied spüre.

1668408872019.png
 
Singleplayer max Settings, wobei ich auch oft einiges runternehme was ich nicht brauche z.b. Anti Aliasing und Filter (chromatic, blur, grain etc.) generell aus.
Bei God of War z.b. die Atmosphärische Details (Tiefenunschärfe Landscape) auf niedrig. Mag all solche Sachen nicht.
Beim Multiplayer kommts auf die fps an und ob man mit höheren Settings einen visuellen Nachteil hat (Vegetation), dann meist alles was in diesen Bereich fällt auf Low.

RayTracing ist nice aber auch nur solange es gut optimiert implementiert ist, so Sachen wie Hitman (grottig optimiert) interessiert es mich nicht die Bohne. Außerdem kommt mir da einfach viel zu wenig raus, dass ich mich da nachhaltig für begeistern kann. Alle paar Jahre ein gutes RT Game...

Fps bin ich prio im 90-120fps Bereich, hätte aber auch kein Problem wenn ein Singleplayer in den 60fps Bereich geht. Da feier ich mir auch die PS5.
 
Mit einer GTX 1080 Ti und einem Ryzen 1700 X lässt sich auch heute noch erstaunlich gut spielen... Ich spiele in WQHD mit G-Sync compatible und erreiche bei neueren Spielen (z. B. neulich erst Spider-Man) 50 - 60 FPS auf hohen Einstellungen... Völlig ausreichend für mich. Bin mal gespannt, wie lange ich mit dem System noch hinkomme... Vor allem bei den momentan durch die Decke gehenden Preisen bei neuer Hardware.
 
Der wichtigste Punkt wird wie immer unterschlagen, die meisten Spiele sind grottenschlecht optimiert, laufen mit einer veralteter Technik und haben oft eine Menge Bugs. Da lohnt es sich nicht, Unmengen an Geld für Hardware rauszuschmeißen. Besser bei der Hardware ein guter Kompromiss aus Kosten und Nutzen.
 
  • Gefällt mir
Reaktionen: McTheRipper
Warum nutzt ihr die native Auflösung eher?
Ich nehme mittlerweile immer dlss auf Qualität bei 4k. In den cb Tests wird doch immer wieder verwiesen, dass das die Framerate bei mind. gleichbleibender Optik erhöht.
 
Da ich Singelplayer only bin, reicht mir alles ab 25FPS+, ist aber immer mehr bei meiner Ausstattung immer alles in höchsten Einstellungen auf 2160x1440/HDR 144Hz.
Filme laufen idR mit 24p ab 23,976FPS ist es flüssig für das menschliche Auge (Film/Kino)
Bin zufrieden meistens liege ich sogar weit über 60FPS.

Spielereien ala Upscale oder Raygedöns interessieren mich Null.

mfg
 
Ich spiele mit der 3070TI in 3440x1440 und versuche dabei ~100fps zu erreichen.

Meistens läuft das dann auf Hohe Settings ohne Raytracing hinaus.

Intelligente upscaler wie DLSS nutze ich gerne, wenn sie vernünftig implementiert sind.

Ultra Settings und Raytracing kosten meist unnötig viel Leistung und machen optisch kaum einen Unterschied.
 
coral81 schrieb:
Warum findest du das unnötig ? Hast du den Unterschied schonmal gesehen ? Sogar bei Sologames wie Mafia oder Kingdom Come Deliverance sehe ich den Unterschied klar und deutlich zu WQHD/165 HZ . Du hast ja auch kein Free Sync oder ? Das bewegte Bild FHD/60 Hz sieht gegenüber Free Sync Premium Pro 80FPS+ schlicht unscharf aus ,wenn man das mal gegenüberstellt. Ultra oder Hohe Details kommen auf FHD/60 Hz überhaupt nicht rüber weil die Details in der Bewegung sozusagen verschluckt werden. Kommt ja noch hinzu das der Inputlag bei den alten Monitoren sehr hoch ist. Also eine 3060 TI FHD/60 Hz vorzuwerfen ist schon Verschwendung.
Die RTX 3060 Ti habe ich nur wegen eines Spiels gekauft, sonst hätte ich noch eine GTX 1070, die niedrigen FPS liegen aber am Spiel. FHD mit 60 Hz reicht mir halt. Ist auch immer eine Frage des Geldes. Man macht sich da selbst immer etwas zum "Junkie", muss ja nicht sein. Wer meint, er braucht es, kann es ja machen.
 
Hab kaum HDR-Spiele und das Einstellen des Monitores und Windoof ist bei HDR zu kompliziert und bei 350 bis 400 cd lohnt sich der Aufwand nicht. Hoffe mal das die das unter Windoof 11 besser hinbekommen.

Hab noch ne 1070 drin, somit nutzte ich zur Zeit kein upscaling, bis auf Horizon da hat es gut funktioniert. Leider funktioniert der Freesyc Monitor nicht mir der 1070 zusammen --> Flackert in den meisten Anwendungen fies.

Hoffe mal auf RDNA 3 und Navi 32 auf ein gutes P/L-Verhältnis und ordentlich Videospeicher.
Über 500 € gebe für ne Grafikkarte trotzdem nicht aus.
 
Dlss nutze ich nur in äußersten Notfällen. Also sprich Cyberpunk, wenn ich durch grafische Optionen mehr Bildqualität erhalte als ich mit DLSS verliere und die FPS brauche.
Ansonsten bevorzuge ich ganz klar die native Auflösung über DLSS wg der Bildschärfe und damit alle Details der Texturen erhalten bleiben.
Merks halt bspw in Modern Warfare2 wieder, was für ein extrem unscharfes Bild da rauskommt und je größer die Distanz umso matschiger das Bild.

Ansonsten ist mit dem OLED HDR immer an.
 
erazzed schrieb:
Ebenso hat mich überrascht, dass es hier doch so viele Gleichgesinnte mit 3440x1440er Auflösung gibt.
UWQHD Gang reporting in :D
Ich hatte einen 4K Monitor hier und bin bei Ultraweit geblieben. Finde die Immersion nachwievor besser, man sieht einfach mehr.

21:9 Widescreen Format>4K Auflösung

5120 x 2160 bzw. 2160p Ultraweit wäre mein nächster schritt:)
 
  • Gefällt mir
Reaktionen: Schokolade
Konnte mangels passender Hardware bei vielen Fragen nur mit Enthaltung stimmen, die Auflösung 5760x1080 wurde gar nicht aufgelistet, das ist doch Diskriminierung. ;)
 
  • Gefällt mir
Reaktionen: McTheRipper
Radde schrieb:
Je nach Alter und Bubble kann eine GeForce 3xxx ein weit entfernter Traum sein oder eben das Minimum, weil die Kumpels alle jetzt schon auf die 4090 upgegraded haben.
Also seit Mai 22 gab es rtx 3070 für 599€ dauerhaft zu kaufen. Im Gegensatz zu den 1,5 Jahren zuvor ist der Preis moderat. Also was ist daran definitiv falsch? Nebenbei, in meiner Jugend (wie auch bestimmt bei 70% der anderen Menschen) gab es auch Mitschüler oder Freunde wo die Eltern nicht auf das Geld so achten mussten, haben ihren kidz auch immer das beste und neuste gekauft und wir anderen konnten es uns halt nicht leisten. Also ganz normal. Das mit den bubben ist schon sehr weit weg von der Realität. Hier sind denke ich mehr Leute die in Arbeit sind und sich ihr Hobby auch was kosten lassen. Das bubbis mit 14 oder 16 Jahren da nicht unbedingt die Zielgruppe sind ist dir doch wohl klar?. Und die 4090 anzuführen setzt dem nonsense hier die Krone auf.
Also du liegst mit deiner Aussage definitiv falsch.
 
W0dan schrieb:
Das finde ich interessant. Über die Hälfte setzt auf Sehr Hohe oder Maximale Details, aber 3/4 verzichten auf HDR.

Ist für mich ein wiederspruch. Das Grafikupgrade durch HDR übertrifft mMn selbst die meisten Raytracing Features.
Gut, ist nicht direkt vergleichbar, aber z.B. ne 4090 kaufen aber auf HDR verzichten wären aus meiner Sicht z.B. völlig falsch gesetzte Prioritäten.
Das versteh ich bei den meisten "Enthusiasten" auch nicht.
Haben die beste Hardware und dann so ein Schmutz VA/IPS/TN Panel?! Mit HDR400/600 oder auch "richtigem" HDR, was aber bei den Monitoren trotzdem scheiße aussieht.

OLED gehört zu der 4090, fertig aus.
Ansonsten gilt - RT ist sehr gut, wenn gut gemacht, siehe Cyberpunk. Bei Resi z.B. sieht man gar keinen Unterschied. Kommt aufs Game an.
 
  • Gefällt mir
Reaktionen: simosh
Zurück
Oben