Bericht OLED statt neue Grafikkarte?: Vielleicht ist 2025 ein neues Display die bessere Option

Vielleicht für einen selbst, denn das ist in großem Maße ein subjektives empfinden.
Ich könnte auch sagen, LCDs haben sich erübrigt, weil die Pixel so langsam reagieren.
Da hilft dann auch keine schnellere Grafikkarte.

Es sagt keiner das OLEDs perfekt sind, aber die Liste mit den Mängeln von LCDs wird dabei gerne ausgeblendet.
Man muss halt für sich selbst bestimmte Prioritäten setzen und dann abwägen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: anarchie99 und Blood011
An alle die hier Fragen stellen bzgl. einer Nutzung 80% Office + 20% Medien: Lasst es mit dem OLED-Bildschirm oder macht es wie ich und nehmt einen vernüftiges, zusätzliches VA- oder IPS-Panel als Zweitmonitor, welcher für Office herhalten kann. Hat auch den Vorteil, dass man dann bei regulärer Nutzung immer noch ein Monitor für Pivot etc. hätte. Ein OLED für fast nur Office bringt einfach keinen krassen Mehrwert, weil hier die ganzen Stärken nicht benötigt werden (tiefes Schwarz, Bewegbildschärfe, HDR etc.).

LG

Micha
 
  • Gefällt mir
Reaktionen: Apocalypse
akuji13 schrieb:
Es sagt keiner das OLEDs perfekt sind
Eben, die Vorteile überwiegen bei mir deutlich die paar nachteile wenn man die so nennen kann.

Also wenn ich ganz kleinlich bin, dann ist es der stutter bei low FPS und der leichte Tint den man von der Seite hat.

Mehr hab ich eig nicht zu meckern, Schrift ist ok für mich und HDR Helligkeit könnte zwar an manchen Stellen etwas mehr sein aber ok, soviele Games gibts ja leider nicht mit brauchbaren HDR.

Dafür hab ich ein sattes tiefes Bild, kein Geschmiere mehr, kein Ghosting, kein Grauschleier, fast eine perfekte Gleichmäßigkeit (abweichung bei 2% LCD hat da ab "werk" oft schon 15-25%).

Und wenn ich mir in 5Jahren ein neuen holen muss, mach ich das gerne, dafür hab ich die knapp 3Jahre jetzt deutlich mehr Spaß drann gehabt am zocken und Filme schauen als mit LCD 20Jahre davor^^.

Das OLED Bild begeistert mich heut immer noch stellenweise, leider flacht sowas immer ab und man nimmt das als "normal" war bis ich dann mal wieder vor LCD sitze und mich Frage WTF ist der kaputt?

Am Ende muss das jeder selber wissen, aber ich lebe nur einmal und wieso soll ich auf was verzichten was mir am Ende viel spaß und freude bereitet nur weil er wie alles andere auch verschleißt.

Ob nun schneller oder langsamer als X ist mir da relativ egal.



Ist wie mitn Auto, ich hab mich auch bewusst ein Direkteinspritzer geholt,(wo auch alle jammern ja die gehen zu schnell kaputt etc wie mit OLED hier^^) weil die mir deutlich mehr Spaß machen, das man da mehr aufs Öl achten muss und auch den Lader abkühlen lassen muss etc weil die deutlich mehr pflege brauchen nehm ich da in kauf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: akuji13, aeri0r und Apocalypse
ChrisMK72 schrieb:
Nie passte dieser Smilie (der "ich muss weg smilie") so gut. ^^
Zu meiner Verteidigung, ich hatte den in dem Glauben gekauft das mein aktueller Monitor nicht mehr funktioniert was dieser aber dann wieder tat, aber ich hätte den neuen OLED-Monitor natürlich trotzdem zumindest mal testen müssen. :D
 
  • Gefällt mir
Reaktionen: ChrisMK72
TempeltonPeck schrieb:
Und wieso ist das immer wichtig? Nichts für ungut aber dieses leere Gerede hat nichts mit der Realität zu tun.

1. Ich Spiele hauptsächlich Strategiespiele. Da reichen 60HZ locker.
2. Bei Actionspielen, welche Grafikkarte schafft mehr als 120HZ in 4K. Selbst die High End Karten von Grün gehen dabei in Flammen auf.
3. Es fällt mir selbst schwer einen Unterschied zwischen 60HZ und 120HZ zu sehen. Geschweige denn 120HZ+. Da sind mir stabile 60HZ viel wichtiger.
4. Viel ist nicht immer gut. So finde ich die Zwischenbildberechnung bei 24p Material (BD/UHD) einfach nur störend. Dieser Soap-Effekt nervt.
Nein, das ist kein leeres Gerede, 60Hz sind einfach super träge. Selbst Leute die nur statische Bilder zu Gesicht bekommen haben mittlerweile Bildschirme mit mehr als 60Hz (85-100) im Einsatz.

Zu Punkt 2: Noch im Jahre 2010 unterwegs?? Du brauchst die Hz-Zahl nicht in FPS zu erreichen damit es gut ausssieht. 60fps sehen auf 300Hz besser aus als auf 60.... das ist immer so und wird auch immer so bleiben. VRR gibt's auch noch. Klar sehen 40fps scheiße aus auf 240Hz, aber das tun sie auch mit viel weniger Hz.

Zu Punkt 3: Dann ist das ein "You-Problem". Den Unterschied sehen 98% de Menschen direkt, ca. 2% haben ein Gehirn, dass das einfach net peilt. Habe mich mit dem Phänomen schon auseinander gesetzt.

Zu Punkt 4: Man kann dem entgegenwirken, wenn man den 24p-Modus des Monitors einschaltet (das haben manche).

Selbst Anfang der 2010er-Jahre haben doch alle klugen Gamer diesen 60Hz-Schrott hinter sich gelassen und sind auf 120Hz umgestiegen. Manche haben gewartet bis die Preise etwas humaner wurden.

Wer einmal hohe Hertzzahlen gewohnt ist kann nicht mehr zurück. Bildschirmqualität macht einfach den größten Unterschied im PC-Bereich. Noch vor Audio und Performance. Eher so in Richtung altes Nokiahandy aus den 90ern verglichen mit modernen Smartphones.

ich persönlich bemitleide Menschen die so drauf sind wie du und einfach nicht checken, dass das Gerede schon vor 10+ Jahren überholt war.

Alles was du da geschrieben hast ist einfach nur unwahrer Quark mit Ausnahme des 4. Punktes. Und selbst dagegen kann man vorgehen und wäre mir auch latte wenn nicht. Die Vorteile überwiegen massiv. Filme werden auf meinem PC-Bildschirm eh nicht geschaut.
 
Chismon schrieb:
Ja, wer so etwas (27" kleines) denn noch (neu kaufen) möchte, bei mir würde dann "2009 anrufen".

Bei mir auch .. bei mir geht nix mehr unter 40" 4K ... aber es gibt halt noch anderen Menschen
die in diesem 27" Bereich unterwegs sind von daher is doch cool das diese Gruppe auch bedient wird.


Chismon schrieb:
und die WOLED sind seit Januar 2025 in Produktion (hast Du selber per Folie gepostet), also wohl noch nicht umfänglich auf dem Markt und wie schon zu Beginn erwähnt, um TVs geht es hier nicht.

Die Gen 4 OLED Monitore noch nicht nein .. LG Display is dieses Jahr spät drann das hat man schon
auf der CES 2025 gemerkt da LG dort nur die 45" Monitore zeigte die auf der 2024er Gen 3 basieren.

Aber Samsung Display war fleisiger und brachte schon das 27" 4K QD-OLED Gen 4 Panel auf den Markt
und wir können nun schon Geräte mit diesem Gen 4 QD-OLED Panel kaufen und es gibt schon einige
Reviews von diesen Gen 4 QD-OLED Monitoren.

Daher Gen 4 is im Bereich Monitor schon auf dem Markt seit einigen Tagen und eben auch im Bereich TV

Chismon schrieb:
42"(+) TVs sind keine klassischen Monitore (da technisch - insbesondere für Gaming - deutlich weniger anspruchsvoll spezifiziert), sonst wären diese auch nicht so vergleichsweise günstig im Preis.

Die Technik is die selbe aber TVs werden halt öfters verkauft als Monitore und fallen daher schneller im Preis

Und nunja würd sagen die meisten Konsoleros zocken an TVs

Auch werden die TVs ja mit nem Speziellen Game Mode ausgeliefert der den Input Lag Reduziert
also son OLED TV is schon recht fix was Input Lag und Reaktionszeit angeht und steht Monitoren
da eigentlich seit einigen Jahren in nix nach was Input Lag und Reaktionszeit und Features angeht

Die 2024er und 2025er LG Mid Tier Serie is ja nun bei 144hz und die High End G Serie bei 165hz
angekommen... mir persönlichen reichen aber 100 - 120hz aus da ich meist im Bereich 80 - 110 FPS
unterwegs bin in meinem SP Games die ich ja nur zocke


2022er Asus 42" OLED Monitor ( basiert auf ein 2022er LG 42" C2 OLED TV Gen 2 Panel )


Screenshot 2025-04-15 184644.png



48" ( basiert auf ein 2022er LG 48" C2 OLED TV Gen 2 Panel )


Screenshot 2025-04-15 184739.png




2019 ( basiert auf ein LG 55" C9 OLED TV Gen 1 Panel )


Screenshot 2025-04-15 185757.png




Chismon schrieb:
Der von Dir gepostete Preisverlauf ist bestenfalls irreführend und bisher mit Sicherheit nicht zutreffend für OLED Monitore.

Wo is der den bitte irreführend ?

Das is ein Fakt der schon viele Jahre zutreffend ist für diese Geräte und das nich nur für LG Geräte
wie gesagt


Chismon schrieb:
Zu suggerieren die PC Monitore würden innerhalb eines Jahres um 50% im Preis fallen wie TVs ist ebenso Unsinn bzw. nicht belegt anhand von Daten

Auch die Monitore fallen mit der Zeit im Preis nur halt nich ganz so stark wie die TVs die mehr in Masse Produziert werden als Monitore ... dennoch fallen auch die im Preis



Screenshot 2025-04-15 184522.png





Screenshot 2025-04-15 183631.png



Screenshot 2025-04-15 183753.png




Wie gesagt nicht zum Release kaufen !!!


Und nun machen wa da mal n harken hinter
 
Zuletzt bearbeitet:
Ich kann mit deinen Beiträgen nichts anfangen. LG bringt Ende des Monats MLA+ in 5K2K und das für <1700€ auf den PC-Markt. Verglichen mit dem 38GN950, der ist mit 1400€ auf den Markt, ist der Aufpreis quasi nicht vorhanden. (Inflation). Und klar, jetzt nach ein paar Jahren liegt er bei ~900€ da veraltete Technik. Ich weis nicht wieso du ellenlange Beiträge erstellt für diese Erkenntnis ?!
 
Zuletzt bearbeitet:
MGFirewater schrieb:
ich würde mir die entwicklung aber auch dadurch erklären, dass der Trend zum Zweit, Dritt oder gar 4. TV geht.
Ja, zunehmend amerikanische Verhältnisse, ich bin aber zugegeben auch noch ziemlich traditionell unterwegs was TVs angeht und da würden erst neue angeschafft, wenn die alten den Geist aufgeben.
Im Prinzip reicht mir eigentlich ein TV (für's Gästezimmer) und dann der Beamer für das Wohnzimmer.

Ich nehme eher den Laptop bspw. mit in die Küche oder ein anderes Zimmer, als dass ich mir wenig nachhaltig in vielen Zimmern TVs hinstellen würde, aber es gäbe i.d.R. auch nicht mehrere Personen, die bei mir gleichzeitig individuell TV schauen und alle Ihre eigenen Geräte brauchen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MGFirewater und KitKat::new()
Salamimander schrieb:
Ich weis nicht wieso du ellenlange Beiträge erstellt für diese Erkenntnis ?!

Ja das frag ich mich auch langsam ... macht eigentlich auch kein Sinn mir die ganze Mühe hier zu geben
alles raus zu suchen und einzufügen und zu verlinken und was dazu zu schreiben
weil kommt ja bei euch eh nix an ...

werde mich nun auch wieder hier aus dem Thread zurück ziehen da mir meine Freizeit dann nun zu schade is
 
  • Gefällt mir
Reaktionen: Pro_Bro
Cinquedea schrieb:
Du brauchst die Hz-Zahl nicht in FPS zu erreichen damit es gut ausssieht. 60fps sehen auf 300Hz besser aus als auf 60.... das ist immer so und wird auch immer so bleiben. VRR gibt's auch noch. Klar sehen 40fps scheiße aus auf 240Hz, aber das tun sie auch mit viel weniger Hz.


Ich stimme dir zwar grundsätzlich zu bei allem was du schreibst, aber das ist so nicht ganz richtig.

Erstmal ja, wenn man OHNE VRR spielt, dann sind natürlich mehr Hz immer besser, weil der Monitor ohne VRR mit statischer Frequenz läuft und bei schwankender Framerate bzw. bei frameraten die kein ganzzahliger Teiler der Maximalfrequenz sind, zwangsläufig judder bzw. Microruckeln entsteht, weil sich z.B. 50 FPS nicht sauber auf 120 Hz aufteilen lassen. Das heißt, manche Frames müssen dann einen weiteren Refresh abwarten, bis sie angezeigt werden können. Und ein weiterer Refresh dauert bei 120 Hz nunmal deutlich länger als bei 240 oder 480 Hz.

Also wie gesagt, ohne VRR und mit beliebigen Frameraten sind hohe Bildwiederholraten im Vorteil.


Das ganze trifft aber NICHT zu, wenn man folgedes macht:

1. FPS Limit oder Vsync.

Wenn du ein 60 Hz Display mit 60 FPS fütterst und dabei Vsync aktiv hast, dann hast du mit einem höherfrequenten Display KEINEN vorteil in bezug auf Smoothness. Bestenfalls wären bei einem 240 Hz Display mit 60 FPS limit noch die Schaltzeiten kürzer, was das Bild etwas schärfer macht. Aber flüssiger als 60 Hz mit 60 FPS kannst du 60 FPS nunmal nicht darstellen.

Solange du also sicherstellen kannst, dass sowohl Vsync aktiv ist, als auch die Framerate einem ganzzahligen Teiler deiner Maximalfrequenz entspricht ist das Bild perfekt flüssig. Ob du 60 FPS auf einem 60, 120, 180, 240, 300, 360 Hz etc. Display darstellst, würde also keinen Unterschied bzgl. smoothness machen. Weichst du davon ab, haben wir wieder die vorherige Situation, dass der Teiler nicht aufgeht (z.B. 59 FPS auf 60 Hz oder 59 FPS auf 120 Hz) und du hättest wieder mircoruckeln. Höhere Displayfrequenzen würden das microruckeln vermindern aber nie ganz beseitigen.


2. VRR.
VRR hat die Eigenschaft, dass sich die Bildwiederholrate des Displays an die FPS anpasst, um eben microruckler komplett zu vermeiden.
Wenn du also 60 FPS zuspielst, dann läuft der Monitor mit 60 Hz. Wenn du 59 FPS zuspielst, läuft er mit 59 Hz. Wenn du 134 FPS zuspielst, läuft er mit 134 Hz. Bis eben die maximalfrequenz erreicht ist. Aber bis dahin ist jede Framerate ruckelfrei darstellbar.

Es bringt dir also auch mit VRR absolut gar nichts, wenn dein Monitor z.B. 360 Hz könnte, du aber die meiste Zeit nur 50-100 FPS hast. Ein 120 Hz Display würde hierfür völlig ausreichen und du hättest weder sicht- noch messbare Nachteile gegenüber einem 360 Hz VRR Display.


Soll also heißen. In Zeiten von VRR ist das Argument, dass besonders hohe Frequenzen auch bei geringeren Frameraten nützlich sind völlig überholt und nich mehr relevant.
Das war damals noch richtig, als man ohne VRR spielen musste, aber seit es VRR gibt hat sich das Problem in Wohlgefallen aufgelöst.

Und ich sag es ganz klar: Auf meinem 240 Hz Display empfinde ich nach Jahrelanger gewöhnung an VRR das Spielen ohne VRR als Zumutung. Selbst die 240 Hz reichen noch LANGE nicht, damit z.B. 150 FPS auf 240 Hz auch nur ansatzweise flüssig erscheinen. Ich sehe das Microruckeln mehr als nur deutlich. So deutlich, dass ich wetten würde, dass selbst 480 oder noch mehr Hz nichmal ansatzweise ausreichen um eine ähnliche smoothness zu erreichen, wie mit VRR.

Daher würde ich jegliches Szenario ohne VRR auch gedanklich komplett streichen. Es macht einfach keinen Sinn mehr, mit aktueller Hardware ohne VRR zuspielen.

Und wer tatsächlich noch einen 60 Hz Monitor benutzt, der logischerweise kein VRR kann, der muss eigentlich nur Vsync aktivieren und sicherstellen, dass er durchgehend 60 FPS erreicht. Dann hat man auch damit eine absolut perfekt flüssige Bildausgabe die der Ausgabe eines VRR Displays mit 60 FPS limit in nichts nachsteht - außer dass der Inputlag mit 60 Hz Vsync sehr viel höher ist und die Framerate niemals schwanken darf, sonst gibts wieder microruckler. Aber ich denke jemand der mit 60 FPS auf nem 60 Hz Display spielt wird bzgl. Inputlag nicht sonderlich empfindlich sein, sonst hätte er längst ganz andere Hardware.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pro_Bro, Xalloc und JMP $FCE2
Olcheck schrieb:
"LiebeR ein OLED wie den...."
Sind wir im Rechtschreibkurs? Jeder versteht trotz Fehler, was gemeint ist.
 
  • Gefällt mir
Reaktionen: Olcheck
Stagefire schrieb:
Wo is der den bitte irreführend ?
Alle elektrischen Konsomgüter fallen i.d.R. irgendwann im Preis nach Marktstart ((nVidia) Grafikkarten sind da eher die Ausnahme von der Regel), aber der Preistrend bei TVs vs. Monitore/Beamer ist aktuell zum Marktstart jedenfalls umgekehrt und natürlich ist der Preisverfall nicht so rapide wie bei TVs, weil letztere eher erneuert werden und Massenprodukt sind (siehe von mir vorher gepostete Statista Daten).

Vor ein paar Jahres lag der AW 3423dwf auch noch über 1000 Euro und den gibt es ja jetzt auch schon eine Weile (insbesondere, wenn man das Vorgängermodell mit einbezieht) auf dem Markt (der ist ja erst langsam im Preis gesunken mit Einführung der nächsten QD-OLED Monitor-Generation).

Erst Frühjahr letzten Jahren sind Preise gepurzelt (wie in den von Dir geposteten Diagrammen angezeigt) und das wegen der nächsten OLED Generation (ich kann mich noch an die damaligem Hardware Unboxed Testvideos erinnern, auch wenn der technische Fortschritt m.E. eher mager war, für Produktivität abseits Gaming immer noch zu wenig), aber im Verhältnis zu TVs waren die Monitore immer noch preisstabiler.
 
Zuletzt bearbeitet:
Dark9 schrieb:
Sind wir im Rechtschreibkurs? Jeder versteht trotz Fehler, was gemeint ist.

Ich hab nur nett und höflich darauf hingewiesen, wie es hier auch viele tun. Es war weder bös gemeint, noch denke ich, das die Redakteure dies auch so sehen.

Wenn du dich angegriffen gefühlt hast, ich habe heute ein guten Tag, dann tut es mir leid.

beste Grüße,
Oli
 
Mimir schrieb:
Ich stimme dir zwar grundsätzlich zu bei allem was du schreibst, aber das ist so nicht ganz richtig.

Erstmal ja, wenn man OHNE VRR spielt, dann sind natürlich mehr Hz immer besser, weil der Monitor ohne VRR mit statischer Frequenz läuft und bei schwankender Framerate bzw. bei frameraten die kein ganzzahliger Teiler der Maximalfrequenz sind, zwangsläufig judder bzw. Microruckeln entsteht, weil sich z.B. 50 FPS nicht sauber auf 120 Hz aufteilen lassen. Das heißt, manche Frames müssen dann einen weiteren Refresh abwarten, bis sie angezeigt werden können. Und ein weiterer Refresh dauert bei 120 Hz nunmal deutlich länger als bei 240 oder 480 Hz.

Also wie gesagt, ohne VRR und mit beliebigen Frameraten sind hohe Bildwiederholraten im Vorteil.


Das ganze trifft aber NICHT zu, wenn man folgedes macht:

1. FPS Limit oder Vsync.

Wenn du ein 60 Hz Display mit 60 FPS fütterst und dabei Vsync aktiv hast, dann hast du mit einem höherfrequenten Display KEINEN vorteil in bezug auf Smoothness. Bestenfalls wären bei einem 240 Hz Display mit 60 FPS limit noch die Schaltzeiten kürzer, was das Bild etwas schärfer macht. Aber flüssiger als 60 Hz mit 60 FPS kannst du 60 FPS nunmal nicht darstellen.

Solange du also sicherstellen kannst, dass sowohl Vsync aktiv ist, als auch die Framerate einem ganzzahligen Teiler deiner Maximalfrequenz entspricht ist das Bild perfekt flüssig. Ob du 60 FPS auf einem 60, 120, 180, 240, 300, 360 Hz etc. Display darstellst, würde also keinen Unterschied bzgl. smoothness machen. Weichst du davon ab, haben wir wieder die vorherige Situation, dass der Teiler nicht aufgeht (z.B. 59 FPS auf 60 Hz oder 59 FPS auf 120 Hz) und du hättest wieder mircoruckeln. Höhere Displayfrequenzen würden das microruckeln vermindern aber nie ganz beseitigen.


2. VRR.
VRR hat die Eigenschaft, dass sich die Bildwiederholrate des Displays an die FPS anpasst, um eben microruckler komplett zu vermeiden.
Wenn du also 60 FPS zuspielst, dann läuft der Monitor mit 60 Hz. Wenn du 59 FPS zuspielst, läuft er mit 59 Hz. Wenn du 134 FPS zuspielst, läuft er mit 134 Hz. Bis eben die maximalfrequenz erreicht ist. Aber bis dahin ist jede Framerate ruckelfrei darstellbar.

Es bringt dir also auch mit VRR absolut gar nichts, wenn dein Monitor z.B. 360 Hz könnte, du aber die meiste Zeit nur 50-100 FPS hast. Ein 120 Hz Display würde hierfür völlig ausreichen und du hättest weder sicht- noch messbare Nachteile gegenüber einem 360 Hz VRR Display.


Soll also heißen. In Zeiten von VRR ist das Argument, dass besonders hohe Frequenzen auch bei geringeren Frameraten nützlich sind völlig überholt und nich mehr relevant.
Das war damals noch richtig, als man ohne VRR spielen musste, aber seit es VRR gibt hat sich das Problem in Wohlgefallen aufgelöst.

Und ich sag es ganz klar: Auf meinem 240 Hz Display empfinde ich nach Jahrelanger gewöhnung an VRR das Spielen ohne VRR als Zumutung. Selbst die 240 Hz reichen noch LANGE nicht, damit z.B. 150 FPS auf 240 Hz auch nur ansatzweise flüssig erscheinen. Ich sehe das Microruckeln mehr als nur deutlich. So deutlich, dass ich wetten würde, dass selbst 480 oder noch mehr Hz nichmal ansatzweise ausreichen um eine ähnliche smoothness zu erreichen, wie mit VRR.

Daher würde ich jegliches Szenario ohne VRR auch gedanklich komplett streichen. Es macht einfach keinen Sinn mehr, mit aktueller Hardware ohne VRR zuspielen.

Und wer tatsächlich noch einen 60 Hz Monitor benutzt, der logischerweise kein VRR kann, der muss eigentlich nur Vsync aktivieren und sicherstellen, dass er durchgehend 60 FPS erreicht. Dann hat man auch damit eine absolut perfekt flüssige Bildausgabe die der Ausgabe eines VRR Displays mit 60 FPS limit in nichts nachsteht - außer dass der Inputlag mit 60 Hz Vsync sehr viel höher ist und die Framerate niemals schwanken darf, sonst gibts wieder microruckler. Aber ich denke jemand der mit 60 FPS auf nem 60 Hz Display spielt wird bzgl. Inputlag nicht sonderlich empfindlich sein, sonst hätte er längst ganz andere Hardware.
Ich habe VRR nur erwähnt für Leute, denen das wichtig ist. Ich persönlich benutze weder GSync noch FreeSync (weil mein Monitor das nur rudimentär kann und sich das nicht lohnt) und weil mir hohe Hz sehr wichtig sind. Da muss für mich nichts variabel sein.

Auf 60fps falle ich auch nie, zocke die meisten meiner Games mit ca. 100-200 fps, E-sports-Titel wie LoL (240 max), CS2 (so viel wie halt geht, meist ca. 300) oder auch Quake Champions (fest auf 300 und bleibt da eigentlich auch).

Da helfen die 360Hz meines Monitors ungemein (240 hätten es natürlich auch getan). 150+ fps auf 60Hz sehen einfach nur nach Mist aus.
Ein Display mit hohen Hertz kannst du runterregeln, umgekehrt geht das mit einer 60Hz-Krücke nicht.
Mit einem top 4k OLED-Display welches fortgeschrittenes GSync beherrscht würde ich die variable Refreshrate nur für Grafikmonster mit Path Tracing und maximalen Details einschalten, also Singleplayertitel, wo das bisschen Inputlag zu vernachlässigen ist, damit das Bild sehr ruhig ist trotz FPS von unter 100.

In Zeiten von DLSS Q und MFG sind FPS unter 100 sehr einfach zu vermeiden. Auf FullHD erst recht. Ich zocke auch viele ältere Spiele auf denen ich jede Wunschfps erreichen kann. Einige Regler kann man auch runterstellen und hat dadurch auch viel mehr fps. Die Leute vergessen immer, dass die ganzen YouTuber und Gamingzeitschriften meist mit vollen Details in worst case-Szenarios testen.

Sorry aber wer sich als Gamer im Jahre 2025 noch mit 60Hz begnügt hat den Schuss nicht gehört. Völlig egal was für Umstände herrschen. Da gibt's mMn auch nichts zu diskutieren. 60Hz-Monitore könnten langsam mal vom Markt verschwinden... vermissen würde die niemand. Genau so wie es heute auch keine Mäuse mehr gibt die nur 125 oder 500hz können.
 
NichtExpert schrieb:
Alles gut. In der Zwischenzeit hatte ich ihn auf MyDealz gefunden. Ich denke der Monitor ist aber raus.
Ich glaube ich setze beim nächsten auf PD min 65W und einem KVM-Switch.
Das hat der Dell nicht.
Ja, bin auch am zögern, weil der Text bei dem ja schon etwas unscharf sein soll. Da warte ich auch lieber auf etwas besseres denke ich.
 
Pisaro schrieb:
Lass mich raten: Du zockst alte Kamellen oder ein paar Indy Games?
Ich selbst nutze UW seit knapp 3 Jahren und würde nicht sagen das UW Support heute selbstverständlich ist...leider.

Selbst manche neue AAA Spiele Unterstützen keins oder liebloses UW wo das FoV. z.B überhaupt nicht passt. Stalker 2 war? da vor kurzen ein Prominentes Beispiel wo das Bild einfach gezoomt wurde. Bei RE4 Remake war das FOV in UW auch fürchterlich.

Final Fantasy 7 Rebitrh und FF16 Remake hatten gar kein UW Support ebenso ein Elden Ring (generell mehr Japanische Spielen)

Spiele wo das UW Format Perfekt angepasst ist sind leider keine Selbstverständlichkeit.
 
Cinquedea schrieb:
Nein, das ist kein leeres Gerede, 60Hz sind einfach super träge. Selbst Leute die nur statische Bilder zu Gesicht bekommen haben mittlerweile Bildschirme mit mehr als 60Hz (85-100) im Einsatz.

Zu Punkt 2: Noch im Jahre 2010 unterwegs?? Du brauchst die Hz-Zahl nicht in FPS zu erreichen damit es gut ausssieht. 60fps sehen auf 300Hz besser aus als auf 60.... das ist immer so und wird auch immer so bleiben. VRR gibt's auch noch. Klar sehen 40fps scheiße aus auf 240Hz, aber das tun sie auch mit viel weniger Hz.

Zu Punkt 3: Dann ist das ein "You-Problem". Den Unterschied sehen 98% de Menschen direkt, ca. 2% haben ein Gehirn, dass das einfach net peilt. Habe mich mit dem Phänomen schon auseinander gesetzt.

Zu Punkt 4: Man kann dem entgegenwirken, wenn man den 24p-Modus des Monitors einschaltet (das haben manche).

Selbst Anfang der 2010er-Jahre haben doch alle klugen Gamer diesen 60Hz-Schrott hinter sich gelassen und sind auf 120Hz umgestiegen. Manche haben gewartet bis die Preise etwas humaner wurden.

Wer einmal hohe Hertzzahlen gewohnt ist kann nicht mehr zurück. Bildschirmqualität macht einfach den größten Unterschied im PC-Bereich. Noch vor Audio und Performance. Eher so in Richtung altes Nokiahandy aus den 90ern verglichen mit modernen Smartphones.

ich persönlich bemitleide Menschen die so drauf sind wie du und einfach nicht checken, dass das Gerede schon vor 10+ Jahren überholt war.

Alles was du da geschrieben hast ist einfach nur unwahrer Quark mit Ausnahme des 4. Punktes. Und selbst dagegen kann man vorgehen und wäre mir auch latte wenn nicht. Die Vorteile überwiegen massiv. Filme werden auf meinem PC-Bildschirm eh nicht geschaut.

Überleg mal was und wie du schreibst. Deine Beleidigungen vom hohen Roß kannst du stecken lassen bei dem technologischen Blödsinn den du schreibst.

Zu 2: Wenn du ein 300HZ Monitor mit 60 FPS fütterst sieht nichts besser aus. Im Gegenteil. Es wird ruckeln. Weil der Monitor 5x häufiger sein Bild aktualisiert als an Bildern von der GPU nach geschoben werden. Technologien wie FreeSync würden dann den Monitor runter takten um Display und GPU in Einklang zu bringen. Ergo du hast nichts gewonnen.

Zu 3: Du redest doch selbst vom "You-Problem". Mag ja sein das in deiner Bubbel 98% hohe HZ erkennen. Weißt du was? In meiner Bubbel ist das genau anders rum und ja wir sind alles alte Säcke um die 40.

Mag ja sein das man sich an entsprechende HZ Zahlen gewöhnt und ja auch ich habe hier 120HZ laufen. Aber die reichen mir und im Zweifelsfall reichen mir auch 60HZ. Ich sage auch nicht das 120HZ+ perse schlecht sind, sondern das sie Sinnhaftigkeit selten wirklich gegeben ist. Hierfür muss die Quelle schnell genug sein und das sehende Auge auch das wahrnehmen können. Das sind Fakten! Deal with it!
 
Zurück
Oben