4K oder UWQHD

k_aon1

Cadet 4th Year
Registriert
Mai 2022
Beiträge
90
[Bitte fülle den folgenden Fragebogen unbedingt vollständig aus, damit andere Nutzer dir effizient helfen können. Danke! :)]


1. Wie viel Geld bist du bereit auszugeben?
… 600-650€

2. Wie sehen die Hauptanforderungen aus, die du an den Monitor stellst?
  • Welche Bildschirmdiagonale (Zoll) soll der Monitor haben? ...27 oder 34
  • Was für eine Auflösung soll dieser besitzen? Full HD (1920x1080), WQHD (2560x1440) Ultra HD (3840x2160), oder andere wie z. B. UWQHD (3.440 x 1.440)? ... 4K oder UWQHD
  • Welche Bildwiederholfrequenz (Hz) möchtest du? 60/120/144/240 Hz usw.? ...mindestens 144 besser 160
  • Auf welche Panel-Technologie (IPS, VA, TN...) soll der Monitor setzen? ...IPS
  • Soll der Monitor G-Sync oder FreeSync beherrschen? Wenn ja, welches? ...am besten beides
  • Welche Anschlüsse werden benötigt? (Displayport, HDMI, DVI usw.) ...der 4K HDMI 2.1, UWQHD DP1.4

3. Brauchst du den Monitor für spezielle Programme und/oder professionell? (z. B. Fotobearbeitung) Falls ja, nenne uns Programme und spezielle Anforderungen.
... Nein

4. Nutzt du weitere zusätzliche Monitore? Welches Modell, Auflösung, Hz, Gsync/Freesync und Anschlüsse besitzen diese? (Bitte mit Link zum Hersteller oder Preisvergleich!)
... Samsung Odyssey G7 27 Zoll 1440p 240hz

5. An welcher Grafikkarte soll der Monitor betrieben werden? Modell und Bezeichnung(Bitte mit Link zum Hersteller oder Preisvergleich!):
... RX 6900, eventuell 4090/RX7900

6. Hast du besondere Wünsche bezüglich des Monitors? (Pivot-Funktion, Wandmontage, Farbe, Hersteller, Beleuchtung etc.)

... Nein

7. Wann möchtest du den Monitor kaufen? Möglichst sofort oder kannst du noch ein paar Wochen/Monate warten?
... Dieses Jahr noch





Hallo, ich bin überlegen einen weiteren Monitor zu holen, aktuell besitze ich einen Samsung G7 240hz 1440p und ein AOC 1080p 240hz. Ich spiele hauptsächlich CoD, vielleicht ab und zu Story Games wenn was neues von Witcher oder RE4 Remake kommt.
Ich kriege ca. 220 FPS Average bei high settings in Warzone hin mit meiner RX 6900, aber da ist die GPU Last bei unter 90%. (nur nen 12700 ohne K)
Wenn ich die cappe auf 160, merke ich teilweise keinen Unterschied, 120hz wiederrum merke ich, sogar von 144hz (aber dann nicht so dass ich dadurch schlechter Spiele).
Das Ding ist, in 4K kriege ich auf MAX Einstellungen 150-160 FPS hin, in low Settings an die 200, ich finde jedoch 4K unsinnig um dann die Settings auf low zu setzen.
In der MW2 Beta aber sah das anders aus, da kriegt man auf max 4K Settings 100FPS, auf low ca 125, und da käme eventuell eine RX7900/4090 ins Spiel, ist zwar nur die Beta aber man geht stark davon aus dass die neue Engine deutlich mehr Ressourcen schluckt.
Ich hab aktuell 2 Monitore im Sinn, entweder ein LG GN950 bzw. GP950 mit HDMI 2.1 für 4K144hz (dp soll ja max 4K120 sein) oder ein LG 34GN850 mit 165hz.

Ich hab heute mal auf 21:9 gespielt (aufm G7, musste dann halt viel näher am Monitor sein wegen den schwarzen Balken oben und unten und festgestellt dass man noch größeres Sichtfeld hat bei Ultrawide, dafür bräuchte ich auch keine neue GPU. Hat mir sehr gefallen und ich denke wenn man damit eingespielt ist man noch mehr Vorteil hat. bei CoD kann man ja von 80 bis 120 FOV einstellen und auf Ultrawide sollen es sogar 135 sein.

Die große Frage ist nun, da ich hier oft geteilte Meinungen lese: Ist 4K auf 27 Zoll optisch besser als 1440p auf 27 Zoll ? Die 1440p sehen auf dem G7 wirklich Bombe aus und kann mir nicht vorstellen wie das ganze noch besser sein soll da ich 4K noch nie gesehen habe, und ich sitze aktuell 57cm entfernt vom Monitor, alles näher ist mir zu groß, und viele empfehlen 32 Zoll bei 4K aber ich kann mir Competetive Gaming bei 32 Zoll nur vorstellen wenn ich dann 20-30cm weiter entfernt vorm Monitor sitze und dann wäre es doch wieder das gleiche wie 27 Zoll. Oder lohnt sich der unterschied zwischen den beiden Auflösungen nicht bei 27 Zoll.

Bei 4K müsste ich dann eventuell noch ne neue GPU holen irgendwann, da ich auch versuchen will die GPU unter 95% zu halten wegen besserem Inputlag, mehrere Tests gesehen wo GPU Limit meistens 20-30ms mehr input lag verursacht. Andererseits mit ner 4090/rx7900 hätte man wohl 4K bei 160hz und sogar 240hz ausgereizt und dann würde sich eine neue GPU erst in Jahren lohnen wenn 8K mal der Standard wird, da in Warzone ne 4090 teilweise 240fps in 4K packt.

Ansonsten hatte ich überlegt mir ein UWQHD Monitor zu holen für die 135 FOV und bei 165hz max wird meine rx6900 noch weiter ihre Dienste tun, hatte bei Max Settings in MW2 190 FPS und low Settings 260 FPS und war dann im CPU Limit, heißt wenn ich auf 160 cappe bin ich deutlich unter GPU max ist zwar nur die Beta aber denke nicht dass sich da viel ändert, wenn dann besser wegen besseren Treibern etc... aber sind die oben genannten Monitore viel schlechter als der G7 ? Der G7 ist einer der schnellsten Monitore und sehr beliebt bei solchen schnellen Shootern, hoffe ich mache da kein Downgrade. Andererseits bin ich auf sehr heiß auf 4K Gaming, aber wenn bei 57cm Abstand kaum ein Unterschied festzustellen ist bei 27 Zoll lohnt es sich wohl nicht.
 
GERmaximus schrieb:
Das ist dein Beitrag zu diesem Post?

Ich selbst nutze seit ca 3 Jahren 21:9 mit nem LG 34 850 mit 165hz.
Das Format ist für mich derzeit noch immer der Wahnsinn. Die Farben sind ebenfalls gut, aber kein Vergleich zu Oled.

Breites Format mit viel fps und dafür etwas schlechtere Farben
oder
hohe DPI mit weniger fps und dafür mit super Farben, aber halt "schmales" Format
Also würdest du 4K nur als OLED empfehlen ? Weil der LG GN950 ist kein oled
 
k_aon1 schrieb:
Die große Frage ist nun, da ich hier oft geteilte Meinungen lese: Ist 4K auf 27 Zoll optisch besser als 1440p auf 27 Zoll ?
Ja!, wenn ich in Paint kritzel dann erkenne ich die Pixelabstufungen klar und deutlich, auch in Spielen ist AA zwingend erforderlich.
Selbst 8K wäre noch zu erkennen auf 27".

Ich habe das Panel vom LG 27GN950 im Eve Spectrum (nennt sich jetzt Dough) und bin damit sehr zufrieden.
OLED sieht noch besser aus aber hat auch seine Nachteile weshalb bei mir sowas nie auf dem Schreibtisch kommen wird. Wenn du überwiegend Medien konsumierst könnte OLED für dich aber in Betracht kommen, voraus gesetzt du gibst dich mit TV-Diagonalen ab. In 27" gibts sowas nicht.
 
wtfNow schrieb:
Ja!, wenn ich in Paint kritzel dann erkenne ich die Pixelabstufungen klar und deutlich, auch in Spielen ist AA zwingend erforderlich.
Selbst 8K wäre noch zu erkennen auf 27".

Ich habe das Panel vom LG 27GN950 im Eve Spectrum (nennt sich jetzt Dough) und bin damit sehr zufrieden.
OLED sieht noch besser aus aber hat auch seine Nachteile weshalb bei mir sowas nie auf dem Schreibtisch kommen wird. Wenn du überwiegend Medien konsumierst könnte OLED für dich aber in Betracht kommen, voraus gesetzt du gibst dich mit TV-Diagonalen ab. In 27" gibts sowas nicht.
Das wäre meine nächste Frage, in 1440p hab AA immer auf max im Spiel weil sonst überall Bewegungen zu sehen sind an Kanten Bäumen etc. Quasi als wäre 1440p schon zu „scharf“
Ist das bei 4K nicht der Fall ? Weil das ist ja noch schärfer
 
Das was du störende Bewegungen nennst sind die Pixelabstufungen. Und die siehst du weil die Pixel zu groß sind, selbst in 4k. Einfach mal googeln.
Also ja AA ist auch in 4k nötig aber in etwas geringerer Stufe.
 
Ja, den LG GN950, 144hz mit alter Firmware und 160hz mit neuer Firmware.
Den mit ner 4090 und man ist Safe bis 8K bezahlbar wird.
 
Ja gut, aber dann kannst Du bei dem Budget eigentlich das 34 Zoll streichen, denn Du wird wahrscheinlich nur was mit 27 Zoll bekommen.
Du sollst für Dich im ersten Step erstmal entscheiden, ob Du 16:9 oder 21:9 willst.
 
Zuletzt bearbeitet:
Den LG 34GN850 UWQHD kriegt man für ca 600€
Genauso wie den 27GN950 4K, ich denke aber es wird der 21:9, da ich da wenigstens ein spielerischen Vorteil habe (mehr FOV), 4K würde nur optisch besser aussehen aber ich muss trotzdem mal im Saturn oder Media Markt vergleichen weil soviele Meinungen die ich höre das 4K besser als 1440p aussieht so oft höre ich auch dass es sich auf 27 Zoll nicht lohnt, für 4K bräuchte ich dann auch noch next gen GPU.
 
In 4k siehst du auf Entfernung besser was auch ein spielerischer Vorteil ist;) was in WQHD wie ein Krümel aussieht, sieht in 4k wie ein Mensch mit Armen und Beinen aus.
Vorab selber angucken ist sehr gut, musst dir aber sicher sein dass auch 4k Videomaterial gezeigt wird, weiß nicht ob die das bei Media Markt gebacken kriegen.

Eine 4090 muss es für 4k 144hz nicht unbedingt sein Dank DLSS/FSR, die Technologien sind umso effizienter je höher die Zielauflösung ist.
Ich spiele z.b. mit einer RTX 3070 BF 2042 in 90-110 fps mit mittleren settings und DLSS@Qualität. Reicht mir persönlich von den fps.
 
Ja das ist das Problem um das auf Range etc. zu testen müsste ich eigentlich 4K auf meinem Monitor testen am besten genau die Games die ich spiele.
4k144hz kriege ich auch native mit meiner RX6900 hin, das Problem ist nur dass die 1% lows bei ca 100 sind und sich das Game dann trotz Averages von 144 nicht so smooth anfühlt wie QHD in 144/160 (wo meine lows dann auch 144 sind mit framecap + freesync)
In der neuen Engine ist man viel früher GPU limitiert, ca 100 FPS in Ultra Settings mit 70 1% und average 120 mit 90 1% in low Settings (am 28.10 kommt das fertige Spiel dann muss ich mir mal Benchmarks angucken.
Mit DLSS/FSR kann man das ganze zwar umgehen, jedoch fühlt sich das Game mit den extra generierten Frames nur flüssiger an, aber wenn FSR aus 100FPs dann 150 macht, hat man trotzdem noch den Inputlag von 100 FPS und somit kein spielerischen Vorteil gegenüber Nativ.
Für 4K muss ich wohl oder übel noch auf Zahlen warten, die Benchmarks sehen alle schön und gut aus von der 4090, wenn ich mir aber YouTube Videos anschaue von Leuten die selber mit der 4090 spielen, kommt bei Warzone durchschnittlich immer ca. 170 FPS in 4K raus (98% GPU Limit), wo ich mit der RX 6900 XT auf 2750mhz 150 FPS rauskriege. Ein Creator den ich grade verfolge hat auf den gleichen Umständen mit mehreren Läufen mit der RX6950 199/130 AVG/low und mit der 4090 219/150 avg/low auf low Settings, wodurch sich ein perfromance Unterschied von nur 10% wiederspiegelt (die 4090 war aber Stock und die 6950 max overclock, also lass es mal 20% sein (wenn die 200mhz mehr bei der 4090 überhaupt nochmal extra 10% on top bringen, sind wohl eher 5%)

Mit dem gleichen Setup hat er aber in der MW2 Beta auf Max Settings 4K nur 102/70 hinbekommen, WENN das fertige Spiel genau wie die Beta performt und ich auf beiden Werten 15% extra durch die 4090 dazu addiere, kommt ca 120/85 raus und reicht wohl nicht mal ne 4090 für Native 4K144/160 im neuen Spiel.
 
k_aon1 schrieb:
Mit DLSS/FSR kann man das ganze zwar umgehen, jedoch fühlt sich das Game mit den extra generierten Frames nur flüssiger an, aber wenn FSR aus 100FPs dann 150 macht, hat man trotzdem noch den Inputlag von 100 FPS und somit kein spielerischen Vorteil gegenüber Nativ.
Das ist falsch.
Es gibt keinen Inputlag bei FSR oder DLSS 2.0, wenn die Technologien für 150fps sorgen dann ist auch die Latenz entsprechend.

Was du meinst gibt's ausschließlich bei DLSS 3.0, und ja es ist eher als Boost für SinglePlayerTitel (mit Raytracing) gedacht.

Abseits davon sind das ganz schön viele Zahlen.
Ich hatte in BF3/4 + 1 (tausende Stunden) mit meinem 16:9 60Hz Monitor und ähnlichen fps alles niedergemäht was sich vor mir bewegt hat, mit regelmäßigen ersten Platz und ebenso hoher K/D und Cheater Beschimpfungen. Jetzt spiele ich zwar weniger aber es sieht nicht viel anders aus weit ohne optimalen frametimes.
Ich würde mir von den "spielerischen Vorteilen" also nicht zuviel versprechen. Man hat's drauf oder nicht^^
 
wtfNow schrieb:
Abseits davon sind das ganz schön viele Zahlen.
Ich hatte in BF3/4 + 1 (tausende Stunden) mit meinem 16:9 60Hz Monitor und ähnlichen fps alles niedergemäht was sich vor mir bewegt hat, mit regelmäßigen ersten Platz und ebenso hoher K/D und Cheater Beschimpfungen. Jetzt spiele ich zwar weniger aber es sieht nicht viel anders aus weit ohne optimalen frametimes.
Ich würde mir von den "spielerischen Vorteilen" also nicht zuviel versprechen. Man hat's drauf oder nicht^^
In dem Punkt gebe ich dir recht. Ich hab auf der PS5 mit 60hz Monitor auch schon öfter meine 20-25 Kills in warzone geholt mit festen 80 FOV.
mit PC und 3x soviel FPS + 120 FOV wird man schon besser aber wenn man schlecht ist wird man trotzdem von ps4 Gamern rasiert :) Ich Versuch halt jeden Hardware Vorteil so mitzunehmen was geht, sofern es im Verhältnis steht um halt potenziell noch besser spielen zu können.
Das mit DLSS / FSR ist interessant. Also kann man sich das so vorstellen das DLSS/FSR quasi in 1440p spielen aber den Pixel einfach in 4K hochskalieren, und man somit (fast) die Optik von 4K hat aber den Inputlag von den FPS die man eigentlich in 1440p hätte, während DLSS 3.0 ein Fake Frame genereriert um es flüssiger darzustellen aber nicht den Inputlag verringert?
 
  • Gefällt mir
Reaktionen: wtfNow
genau:daumen:
gibt verschiedene Stufen:
Hier die von DLSS 2

Screenshot_20221018-153539.png

(DLSS 3 = DLSS 2 + "fake Bilder".)
 
Zuletzt bearbeitet:
Zurück
Oben