News Wie spielt ihr eure Spiele?: Grafikeinstellungen, Presets, Bildausgabe und Peripherie

SI Sun schrieb:
Ich dachte immer OLED wäre das Beste, bis ich (m)einen Samsung TV ohne OLED, aber 2.000 cd/m³ in HDR bei Horizon Zero Dawn gesehen habe.
Der Unterschied ist so enorm, dass ich solche Spiele nicht mehr auf dem OLED spielen möchte, weil die sichtbar schlechter aussehen. Je dunkler die Szenen, desto größer der Unterschied. Und bei Horizon Zero Dawn in der Nacht bei Mondschein und z.B. im Wald, wo das Mondlicht durch die Bäume scheint, ist es ein unglaubliches Bild, welches ich zuvor noch nie erleben durfte. Als wäre man persönlich draußen im Wald!
Auf dem OLED wirkt es dagegen viel zu dunkel. So als wäre der Wald in einer Höhle.
Kann ich nachvollziehen, man muss dazu aber sagen, dass es selbst innerhalb der Oled Serien da nochmal einige Unterschiede gibt, siehe Vergleich C zu G Serie. Aber dunkle Szenen sind noch immer die Oled Stärke, aber es wird besser auch für helle Szenen.

fwsteiner schrieb:
Spannend, das hier 1440p vorherrscht, dazu aber "nur" 60-80 FPS angestrebt werden. Vielleicht hätte man das Spiele-Genre dazu abfragen sollen? Aber ich habe ja selbst erst letztes Jahr von 75Hz auf 165 Hz Monitor gewechselt, möglicherweise haben viele noch die ersten Freesync-Monitore mit 1440p 75 Hz.
Das ist tatsächlich so, sehe ich im Freundeskreis, einer hat bis letztes Jahr noch bei 60 Hz gehangen, einer spielt aktuell noch mit QHD 75Hz und einer mit FHD 144Hz, teils mit völlig op Hardware für die Monitore. Drum wundert mich das Ergebnis nicht, bloß kein Geld in nem Monitor stecken^^ oder das Ding muss erst verrecken.

Was eher schockierend ist, ist das fehlende Verständnis für HZ - FPS - Auflösung, sieht man an dem Kommentar „lieber FHD 144 Hz als QHD 60 Hz.
Eine HZ Begrenzung hat wenig mit der Auflösung zu tun, 144 Hz und mehr gibt es mit jeder Auflösung von FHD bis UHD.

Auch am Verständnis von HDR mangelt es immer noch, es geht nicht darum sich mit vollflächigen 600, 1000, oder mehr Nits die Augen auszubrennen.

HDR finde ich einen der besten Fortschritte in den letzten Jahren.
 

Anhänge

  • 0BF34139-21BF-47B6-B4B4-ABB91B6A8664.jpeg
    0BF34139-21BF-47B6-B4B4-ABB91B6A8664.jpeg
    1,3 MB · Aufrufe: 182
  • Gefällt mir
Reaktionen: SI Sun, fwsteiner und simosh
Radde schrieb:
Ja, die Karten stehen mittlerweile in den Regalen, aber die Preise sind absolut gesehen immer noch wahnsinnig hoch. Was glaubst du, wie viele Monate Taschengeld eine 3070 sind? Da müssen schon noch ein paar Jahre vergehen bis die sich "jeder" leisten kann.

Je nach Alter und Bubble kann eine GeForce 3xxx ein weit entfernter Traum sein oder eben das Minimum, weil die Kumpels alle jetzt schon auf die 4090 upgegraded haben.
Kann dich auch nicht verstehen, mein Vorredner hat das ja schon klar aufgeschlüsselt, eine RTX 4090 ist nicht für die Zielgruppe "Schüler" gedacht, sondern für Leute, die dafür Arbeiten und nicht wenig. Führt natürlich dazu, dass man die Karte wenn man damit zockt nicht ausgiebig nutzen kann, weil man nur am Arbeiten ist um die Kohle dafür zu haben^^.
Ok Spaß beiseite.

Ich glaube ich weiß was du meinst, früher war die Hardware günstiger, wenn ich an meine Anfangszeit 2005-2007 so zurückdenke stimmt das in Teilen sogar, da hat das Flaggschiff 500-600 Euro gekostet und gut war.

Heute sehe ich das aber auch anders, früher war der Markt viel schnelllebiger, früher hat der Sprung von einer zur anderen Grafikkarte "spielbar" oder "unspielbar" bedeutet.
Es gibt keine Blockbuster oder MP Titel, die 2005-2007 auf den Markt kamen, vor allen nach der Ära 8800GTX, welche auf Hardware darunter (Geforce 7000) noch irgendwie richtig liefen, bei dementsprechenden Settings...
Früher musstest du fast jährlich nen Upgrade fahren.
Heute machen wir das hier im CB Forum doch konstant aus Spaß/Bastelei und nicht aus "nutzen".
Natürlich könnte man jetzt sagen "ich brauch aber das Beste, anders läuft es nicht, der Regler muss immer nach Rechts" dass so aber nur wenig denken, zeigt aber auch die Auswertung.

Ich erinnere mich noch an Bioshock anno 2007, das lief mit einer Geforce 7950GX2 wie Krebs, die hatte ich drin. Mit der im Nov 2006 erschienenen 8800GTX Butterweich auf einem 120Hz 1650x1050 Monitor.
Und selbst da musste ich von einem Athlon X2 3800+ auf einen C2D umstellen, da ich sonst im CPU Limit war und von da an gings dann direkt Jahr für Jahr, Schlag um Schlag.

Früher musste man also gerechnet an der Nutzungszeit der Hardware trotzdem mehr blechen.
Was ich an Hardwarekosten in meiner Ausbildung um diese Zeit hatte ist pervers.
Erinnere mich noch irgendwann 2010 an den Release der GTX 580, da hatte ich 3 im SLI davon im Rechner mit Wakü (und da hatte die Wakü einen verfluchten eigenen Tisch dafür^^).
Da hab ich auch 2K für die 3 Grakas bezahlt.

Früher konnte man sich aber trotzdem Hardware auch noch als Schüler oder Student leisten, sofern man gewillt war dafür etwas Jobben zu gehen, von Taschengeld hat man sich früher auch nix ersparen können, die 30 Mark oder Euro sind doch für die Katz in der Woche, die gehen ja fast für Essen oder ähnliches drauf.

Zumal ich meinen Kindern (sofern ich welche hätte) nicht jeden Schund kaufen würde, so wurde ich selbst nicht erzogen, "umsonst" gibt es nichts, so lernen die Kinder von heute auch nicht auf ihre Sachen aufzupassen und Sachen wertzuschätzen, das gilt nicht nur für Hardware, sondern für alles im Leben, nur was man sich selber erarbeitet hat weiß man am Ende wertzuschätzen.

So aber jetzt genug Off-Topic :D
 
  • Gefällt mir
Reaktionen: Roy Schwarz
Bruder_Joe schrieb:
Was eher schockierend ist, ist das fehlende Verständnis für HZ - FPS - Auflösung, sieht man an dem Kommentar „lieber FHD 144 Hz als QHD 60 Hz.
Und das fehlende Verständnis endet nicht bei HDR und RT sondern zieht sich weiter in die Games selbst. Renderdistanz, Texturqualität, LOD, Polygonanzahl etc.

Nur weil man auf HW-Seite viel Leistung/Technik bereit stellt, wird die gesamte grafische Qualität eines Spiels nicht automatisch besser.
Teilweise sehe ich sogar einen Rückschritt, perfekte Spiegelungen per RT z.B. sehen für mich oft viel zu künstlich aus (alles im Wet-Look oder alles perfekt hochglanzpoliert im Chrome-Look) oder eine hochauflösende Textur auf einem Low-Poly Asset... und umgekehrt.... gruselig.

Wenn ich mir BF2042 Gameplay auf einer 4090 maxed out bei YT ansehe, zieht es mir die Schuhe aus, ganz abgesehen von der schlechten Gamemechanik/Balancing, das ist doch keine schöne Grafik.

Bei CP2077 sieht es mir zu durchwachsen aus, manche Elemente sind wirklich super und andere sehen aus wie von vor 10 Jahren, die ziehen dann den Gesamteindruck für mich runter.
 
  • Gefällt mir
Reaktionen: catch 22, rosenholz, McTheRipper und eine weitere Person
Ein paar Regler bedienen ist schon sinnvoll in den meisten Fällen. Leute braindead bezeichnen, weil sie maxed out spielen, finde ich übel. Wenn es die Hardware halt her gibt? Also ich drehe runter, bis es rund läuft. Einen bestimmten FPS Wert habe ich da gar nicht. Bei DLSS ist es ähnlich. Kommt auch aufs Spiel an. Mit Zielauflösung 1440p und auf Quality schaut es aber meistens gut aus und bringt ein gutes Performanceplus.
RT finde ich hin und wieder interessant, aber da knickt die 3060 meistens zu doll ein. Ich bin mir aber aktuell noch unsicher, ob ich das bei der Wahl der Hardware so sehr berücksichtigen möchte. Ich denke die Spiele brauchen da auch noch ein bisschen.
 
  • Gefällt mir
Reaktionen: iWenzi82
Ich nutze die Presets, die drehe ich idr so hoch es geht, dass mir meine RX5700 mehr als 35 FPS auf meinen FHD-Monitor zaubert mit Schwerpunkt Texturen.
 
Ich spiele nur den MSFS, da bewege ich mich auf niedrigeren FPS, aber mit hohen Details.
 
Bin auch so einer: 144 Hz 1440p Bildschirm und 60-80 FPS (zurzeit Valhalla mit 75 FPS Cap). Why not? Spart Strom, System bleibt leiser... ich habe erst dieses Jahr aufgerüstet, momentan eine 6700XT Red Devil im System. Wenn mir das Spiel "flüssig genug" ist, wüsste ich nicht, warum ich unnötig Feuer geben muss. Dafür hab ich bei anderen Games evtl. noch mal Puffer oben raus. Selbst Plague Tale Requiem auf 1440p mit Mod-FSR läuft adäquat und sieht sogar mit <60 FPS noch super aus. Und Freesync regelt zusätzlich. Beim MSFS reichen sogar 30 FPS. Kompetetiv bin ich nicht unterwegs und zocke bei Shootern maximal die Kampagne (wenn die irgendwann mal billig im Sale sind, ansonsten sowieso nicht).

Ich finde, mit dieser Einstellung fahre zumindest ich sorgenfrei. Wenn ich mal durch die Grafikkarten-Themen durchscrolle, was für einen Stress sich manche machen - mal begründet, oft unbegründet - weil irgendjemandes System 2 FPS mehr hat oder irgendeine magische Grenze nicht erreicht wird und Treiber xy besser ist als yz und OC und UV und Co. - ich mach's Spiel an, stelle kurz was ein (zwischen High/Very High und Ultra sieht man meist den Unterschied sowieso nur mit der Lupe) und genieße! Zugegeben: letzteres definiert jeder für sich individuell.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: The_Wizzard und iWenzi82
1440p/G-Sync/144Hz/RTX 3090 Ti. Limitiere die meisten Games auf 60. Spart Strom und zudem mag ich FPS Schwankungen nicht. Online spiele ich nichts. Bin klassischer Singleplayer Gamer, von daher brauche ich keine 120 FPS oder mehr.
 
Wanderwisser schrieb:
Da ich aktuell überlege, von meinem 34" 2560*1080p Monitor auf einen 3440er Monitor umzusteigen: "Lohnt sich die höhere Auflösung"? Also sieht man den Unterschied bei Spielen? Braucht man eine Skalierung unter Windows, oder geht das auch mit 100% klar?...

Ist natürlich alles Subjektiv, aber mich würde deine Meinung interessieren, weil du beides nebeneinander hast :D
Hab dir mal per PM geantwortet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wanderwisser
Bei Raytracing und HDR scheitert es ganz einfach daran, dass keine entsprechende Hardware vorhanden ist. Für Raytracing nicht, da meine Graka schon länger im Eimer ist und für HDR die Displays nicht, obwohl ich gerade auf letzteres sehr Lust hätte 🥲
 
Ich bin echt überrascht das soviele die fps Limitieren , der Großteil sogar bei 60 - 80 fps! Das scheint an den energie Preisen zu liegen, weil die meisten monitore daheim dürften doch 144 hz haben !?
 
iWenzi82 schrieb:
Ich bin echt überrascht das soviele die fps Limitieren , der Großteil sogar bei 60 - 80 fps!
Ich zocke inzwischen auf meiner Notebook-APU mit 30-60 fps in 720p bis 1080p (deren Rohleistung irgendwo in der Mitte zwischen einer GTX 750 Ti und einer GTX 1050 Ti liegt). Also so wie vor zehn Jahren auch schon. Die Energiepreise sind bei 25 W TDP nicht so ausschlaggebend. Das Notebook kommt eben bequem überall mit hin und ich bin nicht an einen Tisch gefesselt.
 
Wie stellst du die Grafikeinstellungen in Spielen ein?
Ich mache es mir einfach und nutze ein Preset
22,8 %
Ich nehme mir die Zeit und konfiguriere alle Einstellungen händisch
70,0 %
Ich übernehme die Empfehlungen von Spielen oder Zusatzprogrammen wie Nvidia Experience
7,3 %

Ich glaube die schlechte Vorauswahl/Fragestellung hat hier das Ergebnis massiv verzerrt.
Ich bezweifle ernsthaft dass 70% der Leser ALLE Einstellungen händisch einstellen.

Ich verwende i.d.R. die Defaultsettings oder das nächsthöhere Preset und passe nach einer kurzen Runde mit eingeblendeter FPS und GPU Last ein paar Werte manuell an. Ich lege z.B. keinen Wert auf Schattenqualität und Wasserreflektionen, finde jedoch dass Rauch realistisch dargestellt werden sollte.
 
iWenzi82 schrieb:
Ich bin echt überrascht das soviele die fps Limitieren , der Großteil sogar bei 60 - 80 fps! Das scheint an den energie Preisen zu liegen, weil die meisten monitore daheim dürften doch 144 hz haben !?

Das liegt nicht an den Energiepreisen. Es ist der "Masse" einfach egal, solange das Bild flüssig läuft. Und dazu braucht es keine 100FPS oder mehr. Was soll ich mit 100FPS in Anno, CIV, Old World, XCom und vielen anderen Spielen? Ist dort einfach egal. Schau die mal die Steam Charts an, was am meisten gespielt wird. Und die wenigstens haben in der Masse einen 144hz (oder mehr) Monitor. Weil die Masse es einfach nicht braucht bzw. es ihnen egal ist.
 
iWenzi82 schrieb:
der Großteil sogar bei 60 - 80 fps! Das scheint an den energie Preisen zu liegen, weil die meisten monitore daheim dürften doch 144 hz haben !?
Ich limitiere bei 144fps, aber setze dann je nach Game die Qualität oftmals lieber etwas höher und lande dann am Ende auch in der der ~75fps Range.
Wichtig ist mir eigentlich nur, dass es nie unter 48fps rutscht.

Ebenso bezweifle ich dass "die meisten" Monitore daheim 144Hz haben.
 
h00bi schrieb:
Ich bezweifle ernsthaft dass 70% der Leser ALLE Einstellungen händisch einstellen.

Ich denke das passt schon. Zumindest bei den Forennutzern. Und oft sind die Einstellungen ja überschaubar und einfach zu verstehen. Nicht immer, aber recht oft. Stelle immer alles Manuell ein. Mir ist z.b. Wasser wichtig, Texturen und Beleuchtung. Schatten weniger und Rauch ist mir völlig egal.
 
ARR - Alle Regler rechts
 
  • Gefällt mir
Reaktionen: Laphonso und Unti
Zurück
Oben