Full HD vs WQHD für Shooter und RTS?

---Daniel---

Lieutenant
Registriert
Juni 2017
Beiträge
573
Hallo miteinander,

ich bin gerade auf der Suche nach einem neuen Monitor und dachte eigentlich an ein WQHD Gerät, habe aber mittlerweile festgestellt, dass die ganze Angelegenheit doch etwas diffiziler als noch vor ein paar Jahren ist.

Games:
  • Shooter wie BF 6
  • Sword-Fighting wie Chivalry 2
  • RTS wie Beyond All Reason

Ziele / Zielkonflikt:
  • Mehr Übersicht
  • Hohe FPS / Performance
  • nicht in 1-2 Jahren PC wieder aufrüsten müssen

Geplanter PC:
1763133805981.png


Fragen:
  • Gehe ich recht in der Annahme, dass bei Shootern wie BF die Übersicht in die Breite durch WQHD recht wichtig ist, um Gegner früher zu sehen? Oder lässt sich das durch eine angepasste FOV + ggf. alternatives Bildformat auch bei Full HD gut erreichen?
  • Bei Beyond All Reason (geistiger Nachfolger der Total Annihilation Reihe) ist das "Standard"format 8vs8 mit bis zu 32.000 Einheiten, entsprechend ist natürlich mehr Sichtweite in die Breite und Höhe ein erheblicher Vorteil (vermutlich aber auch auf Kosten der FPS):
  • 1763134198627.png
  • Auf wieviel Performance verzichte ich denn grob geschätzt bei WQHD im Gegensatz zu Full HD (vermutlich auch gameabhängig)? Kann ich das bspw. kompensieren, indem ich bei WQHD mittlere Einstellungen im Vgl zu max Einstellungen bei Full HD wähle und erreiche trotzdem eine ähnliche Bildqualität wie bei Full HD (hatte sowas in die Richtung irgendwann mal gelesen)?
    • Oder hängt das vor Allem von den Upscaling Methoden ab? Bringen diese vor Allem bei WQHD oder auch signifikant bei Full HD etwas?
  • Ich habe gelesen, dass sich WQHD ganz schlecht auf Full HD interpolieren ließe. Korrekt?
  • Um das Ganze noch zu verkomplizieren, gibt es ja noch die hz Zahl: Was ist hier der "Sweet Spot" zwischen höherer hz Zahl und höherer Auflösung? Ist es besser auf WQHD zu verzichten und stattdessen die 144 hz (oder mehr?) Grenze zu knacken? Ist das auch bei BF relevant oder eher nur bei kompetitiveren Games wie CS und R6?
  • Macht es bei einer 9060 XT Sinn auf WQHD gehen, wenn ich nicht in 1-2 Jahren wieder aufrüsten möchte? Teils liest man in 2025 auf jeden mind. WQHD kaufen, während manche competitive gamer auf Full HD setzen. Wobei ich ja jetzt einen Monitor für Shooter und RTS gleichzeitig brauche.

BG Daniel
 
Dürften so ca. 20 - 30 % sein und natürlich, kannst du das durch Settings einstellen ausgleichen. Es gibt mittlerweile so viele Tuning Guides zu spielen auf Youtube und co., das lohnt sich eigentlich für jeden Spieler da mal reinzuschauen.
Zum Thema Upscaling - HW Unboxed hat dazu viele Vergleich Videos. Generell bekommst du halt deutlich mehr fps, bei kaum optischen einbußen ab WQHD. Bei Full HD fand ich es vor einigen Jahren nicht so pralle, es scheint heute nicht mehr ganz so schlimm zu sein.
Von mir bekommst du definitiv ein klares Ja für WQHD. Es lohnt sich.
 
---Daniel--- schrieb:
Gehe ich recht in der Annahme, dass bei Shootern wie BF die Übersicht in die Breite durch WQHD recht wichtig ist, um Gegner früher zu sehen? Oder lässt sich das durch eine angepasste FOV + ggf. alternatives Bildformat auch bei Full HD gut erreichen?
entsprechend ist natürlich mehr Sichtweite in die Breite und Höhe ein erheblicher Vorteil
Beides ist 16:9. D.h. du siehst den gleichen Bildausschnitt.
---Daniel--- schrieb:
Oder hängt das vor Allem von den Upscaling Methoden ab? Bringen diese vor Allem bei WQHD oder auch signifikant bei Full HD etwas?
Upscaling kann mit mehr Ausgangsdaten ein besseres Endergebnis erzielen.
---Daniel--- schrieb:
Macht es bei einer 9060 XT Sinn auf WQHD gehen, wenn ich nicht in 1-2 Jahren wieder aufrüsten möchte?
Ja, macht es. Du bist eigentlich sehr spät dran damit :)

Du hast nirgends deine gewünschte Größe angegeben, aber 1440p @ 27" Zoll ist der aktuelle Sweetspot. Das macht auch für deinen Use Case absolut Sinn.
Full Hd mit ultra vielen Hz ist ein absolutes Nischenprodukt und nur "notwendig" wenn man auf jede Millisekunde angewiesen ist und kein allzu scharfes Bild braucht. Für 99% der Fälle macht das heute keinen Sinn mehr.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
---Daniel--- schrieb:
Gehe ich recht in der Annahme, dass bei Shootern wie BF die Übersicht in die Breite durch WQHD recht wichtig ist, um Gegner früher zu sehen? Oder lässt sich das durch eine angepasste FOV + ggf. alternatives Bildformat auch bei Full HD gut erreichen?
In den meisten (aktuellen) Spielen sieht du aufgrund der höheren Auflösung nicht mehr. Es wird nur feiner/detaillierter. Wenn du mehr bei gleichem FOV sehen willst, musst die das Seitenverhältnis auf z.B. 21:9 ändern
---Daniel--- schrieb:
Kann ich das bspw. kompensieren, indem ich bei WQHD mittlere Einstellungen im Vgl zu max Einstellungen bei Full HD wähle und erreiche trotzdem eine ähnliche Bildqualität wie bei Full HD (hatte sowas in die Richtung irgendwann mal gelesen)?
Egal wie hoch du die Einstellungen drehst, du bist limitiert durch die Anzahl der Pixel, wie detailliert du Dinge darstellen kannst.
---Daniel--- schrieb:
Ich habe gelesen, dass sich WQHD ganz schlecht auf Full HD interpolieren ließe. Korrekt?
Jain. WQHD ist kein ganzes vielfaches von FullHD. Das wäre dann UHD.
Aber das ist ein Praxis nicht relevant, weil du immer auf der nativen Auflösung spielen solltest. Dadurch sind HUD etc. immer scharf. Eher dann ingamescaling oder moderne Upscaling-Verfahren wie (DLSS/FSR) nutzen.
---Daniel--- schrieb:
Um das Ganze noch zu verkomplizieren, gibt es ja noch die hz Zahl: Was ist hier der "Sweet Spot" zwischen höherer hz Zahl und höherer Auflösung?
Mehr Hz sind immer besser als weniger Hz. (Bei sonst gleichen Parametern. mehr Hz kosten idR. halt mehr und gehen ggf. auf die Bildqualität)
---Daniel--- schrieb:
Macht es bei einer 9060 XT Sinn auf WQHD gehen, wenn ich nicht in 1-2 Jahren wieder aufrüsten möchte?
Ein Monitor lebt in der Regel länger als eine Grafikkarte. Zumal man WQHD Monitor ab 120 Hz inzwischen fast hinterher geworfen bekommt.
 
Zuletzt bearbeitet:
Du kannst die Qualität des Upscalers verändern. Die Ausgangsauflösung bleibt identisch. Mehr Pixel aus dieser Auflösung dienen "der KI" dazu, dass sie mehr Informationen zur Verfügung hat, um daraus wiederum ein neues Bild zu basteln. Per Annahme der nächsten Bildveränderung wird Leistung gespart.

Hast du keine kaum Pixel, ist die Folgeberechnung ungenau. Monitore können ewig halten.
Ergo: WQHD.

Da du vermutlich noch immer nicht gekauft hast:
Eine RTX 5060 Ti 16GB bietet DLSS 4.0, welches in deutlich mehr Spielen unterstützt wird.
AMDs FSR 4 ist super geworden, hat jedoch mit der Unterstützung zu kämpfen.

---Daniel--- schrieb:
Ich habe gelesen, dass sich WQHD ganz schlecht auf Full HD interpolieren ließe. Korrekt?
Ja, weil der Teiler krumm wird. UHD und Full-HD sind glatt durch 4. (Nein, das ist keine Empfehlung für UHD)

---Daniel--- schrieb:
WQHD kaufen, während manche competitive gamer auf Full HD setzen.
Wenn das so weiter geht, bist du aus dem Alter für Wettkämpfe raus 😇 😘


PS:
Auch hier sage ich, wie damals beim Ram: Sofort kaufen. Kurs: 88€.
https://geizhals.de/sharkoon-sharkoon-rebel-p20-750w-750w-atx-3-1-a3209353.html
 
Zuletzt bearbeitet:
ShowOff schrieb:
Generell bekommst du halt deutlich mehr fps, bei kaum optischen einbußen ab WQHD. Bei Full HD fand ich es vor einigen Jahren nicht so pralle, es scheint heute nicht mehr ganz so schlimm zu sein.
Von mir bekommst du definitiv ein klares Ja für WQHD. Es lohnt sich.
Danke!

Wo bin ich hier schrieb:
Beides ist 16:9. D.h. du siehst den gleichen Bildausschnitt.
Hmmm nur eben mit mehr Pixeln und entsprechend schärfer? Sprich, die Weite würde ich dann -sofern möglich- über das FOV ansteuern?
Ich weiß noch, dass bei Battlefont 2 die Grafik etwas verzerrt war, wenn bei Full HD das FOV zu sehr erhöht hat, das ist dann vermutlich bei WQHD deutlich besser?

Wo bin ich hier schrieb:
Upscaling kann mit mehr Ausgangsdaten ein besseres Endergebnis erzielen.
Sprich, das hängt nicht von der Auflösung sondern vom eingestellten Detaillevel etc. ab? Aber ich vermute, dass ich bei Full HD bei ohnehin hoch eingestellten Settings kaum Details dazubekomme und bspw. bei WQHD dann durch Upscaling bei bspw. mittleren Details ein ähnliches Ergebnis wie mit hohen Details bei Full HD erreichen könnte? Also ist der Effekt degressiv und bei Full HD wäre ich bereits im abflachenden Bereich?

Wo bin ich hier schrieb:
Ja, macht es. Du bist eigentlich sehr spät dran damit :)
Auch lange nicht mehr regelmäßig gespielt, aber leider gerade monatelange Sportzwangspause, brauche eine "kompetitive" Alternative :/

Wo bin ich hier schrieb:
Du hast nirgends deine gewünschte Größe angegeben, aber 1440p @ 27" Zoll ist der aktuelle Sweetspot. Das macht auch für deinen Use Case absolut Sinn.
Danke, dachte auch an 1440p@27" oder eben 1024p@24"

Wo bin ich hier schrieb:
Full Hd mit ultra vielen Hz ist ein absolutes Nischenprodukt und nur "notwendig" wenn man auf jede Millisekunde angewiesen ist und kein allzu scharfes Bild braucht. Für 99% der Fälle macht das heute keinen Sinn mehr.
Alles klar, hatte da irgendeine Analyse von nem Progamer gesehen, aber ich glaube das war eher für R6 oder CS intendiert mit eher linearem Vorgehen. Die spielen da ja teils auch mit ziemlich verrückten Auflösungen und sehr kleinem Bildausschnitt. Kann ich bei CS nachvollziehen, bei BF käme mir das etwas komisch vor. Wobei ich es in dem Format noch nie getestet habe.

Nilson schrieb:
In den meisten (aktuellen) Spielen sieht du aufgrund der höheren Auflösung nicht mehr. Es wird nur feiner/detaillierter. Wenn du mehr bei gleichem FOV sehen willst, musst die das Seitenverhältnis auf z.B. 21:9 ändern
wobei 21:9 wohl eher nicht so sinnvoll / kein Standardformat ist? und dann bei manchen Games wahrscheinlich Skalierungsprobs verursacht?

Nilson schrieb:
Eher dann ingamescaling oder moderne Upscaling-Verfahren wie (DLSS/FSR) nutzen.
Kk

Nilson schrieb:
Mehr Hz sind immer besser als weniger Hz. (Bei sonst gleichen Parametern. mehr Hz kosten idR. halt mehr und gehen ggf. auf die Bildqualität)
Die Hz bringen mir aber nur was, wenn ich auch die entsprechenden fps mit der Graka liefern kann? Oder habe ich mit ~150 fps Vorteile bei einem 240 Hz- gegenüber einem 144 Hz- Monitor?
Bekomme ich Nachteile, wenn ich bspw. mit einem 144 Hz Monitor nur mit ~60 fps spiele? Ähnlich der "Schlierenbildung" wie bei Vsync früher?

Nilson schrieb:
Ein Monitor lebt in der Regel länger als eine Grafikkarte. Zumal man WQHD Monitor ab 120 Hz inzwischen fast hinterher geworfen bekommt.
Ja, ich habe mich ungenau ausgedrückt, ich meinte eigentlich, dass ich die Graka nicht in 2 Jahren wieder direkt wieder aufrüsten möchte und hatte halt Bedenken, dass die 9060 XT bei WQHD dann direkt bei mehreren neuen Games komplett limitiert und entsprechend Full HD besser sein könnte (wobei dem ja eher nicht so ist, wie ich nun weiß).

Genau, das wäre meine Folgefrage, mit einer 9060 XT brauche ich vermutlich ohnehin keinen High-End Monitor kaufen und kann mir einen günstigeren im ~144 Hz (?) Segment kaufen und dann lieber in 3-4 Jahren wieder einen neuen Monitor akquirieren (das scheint ja fast die einzige Komponente zu sein, für die es regelmäßig gute Angebote gibt und wo die Preise immer weiter sinken / größere Technologiesprünge erscheinen)?

Zwirbelkatz schrieb:
Du kannst die Qualität des Upscalers verändern. Die Ausgangsauflösung bleibt identisch. Mehr Pixel aus dieser Auflösung dienen "der KI" dazu, dass sie mehr Informationen zur Verfügung hat, um daraus wiederum ein neues Bild zu basteln. Per Annahme der nächsten Bildveränderung wird Leistung gespart.
Ahhhhhhhhhh das heißt es geht gar nicht um das eingestellte Detaillevel, das dann punktuell verbessert wird, sondern nur um die Anzahl der Pixel bzw. Auflösung?
Sprich, ich könnte low settings machen aber WQHD Auflösung und die KI kreiert dann für jeden Pixel zusätzliche Bilder, um das Ganze höherformatig erscheinen zu lassen? Woher weiß denn die KI bspw. bei low settings was gut aussehen müsste? Gibt das dann bspw. bei Shootern nicht Probleme, in dem vll Pixel generiert werden, die gar nicht da sind und man dann manchmal nicht trifft, weil der Kopf vom Gegner bspw. eigentlich noch ein Stück entfernt ist?

Zwirbelkatz schrieb:
Da du vermutlich noch immer nicht gekauft hast:
Haha, bisher nur Ram und prophylaktisch eine günstige Festplatte, sonst noch keine guten Black Week Angebote gesehen, glaube Black Friday wird nicht sooo viel besser. Und ja, Stand der bisherigen Angebote, hätte ich auch im September/Oktober bestellen können. Juckt mich auch schon die ganze Zeit in den Fingern doch direkt zu bestellen...

Zwirbelkatz schrieb:
Eine RTX 5060 Ti 16GB bietet DLSS 4.0, welches in deutlich mehr Spielen unterstützt wird.
AMDs FSR 4 ist super geworden, hat jedoch mit der Unterstützung zu kämpfen.
Danke ja, habe ich mittlerweile gelesen. Habe die auch auf der Preisalarmliste stehen. Ich wollte eigentlich für max. 600€ nen Gaming Rechner kaufen, mittlerweile bin ich bei 1000€+. Für die Graka wollte ich eigentlich ~250€ ausgeben und in 2 Jahren ne neuen kaufen (weil ich den Gaming Rechner in der Vergangenheit nicht so regelmäßig genutzt habe), geht aber nicht weil ich Minimum 16 GB VRam brauche -> 350€. Die 5060 Ti ist ja nochmal 100€ teurer.
Und ich dachte Gaming ist nach dem Bitcoin Spaß günstig geworden, jetzt gehts weiter mit AI :D

Zwirbelkatz schrieb:
Ja, weil der Teiler krumm wird. UHD und Full-HD sind glatt durch 4. (Nein, das ist keine Empfehlung für UHD)
:D
Zwirbelkatz schrieb:
Wenn das so weiter geht, bist du aus dem Alter für Wettkämpfe raus 😇 😘
^^
Zwirbelkatz schrieb:
PS:
Auch hier sage ich, wie damals beim Ram: Sofort kaufen. Kurs: 88€.
https://geizhals.de/sharkoon-sharkoon-rebel-p20-750w-750w-atx-3-1-a3209353.html
Nice, sogar noch günstiger in weiß für 70€ entdeckt, müsste aber das gleiche sein?
1763143152977.png

Hat das Vorteile ggüber dem Corsair? Werde vor Allem aus dem Punkt Gesamtleistung nicht schlau. Wieso hat denn das Corsair 600W und die anderen beiden 450W, obwohl sie eigentlich 750W haben sollten?
 
---Daniel--- schrieb:
Sprich, ich könnte low settings machen aber WQHD Auflösung und die KI kreiert dann für jeden Pixel zusätzliche Bilder, um das Ganze höherformatig erscheinen zu lassen?
Die Bildqualität und die Settings spielen natürlich trotzdem eine Rolle.

Wie ich es verstanden habe, liefert die KI aber mehr Bilder pro Sekunde, weil sie Rechenaufwand weglässt. Diese "vermuteten" Bilder werden eben nicht per Rohleistung berechnet, sondern extrapoliert.

---Daniel--- schrieb:
Nice, sogar noch günstiger in weiß für 70€ entdeckt, müsste aber das gleiche sein?
Das Weiße hat auch weiße Kabel. Falls das ein Problem ist. Technisch ist es identisch zum schwarzen Netzteil. Die 600w, nur für eine Grafikkarte über einen Einzelstecker, kann ein preiswertes 650w Netzteil wie das RMe gar nicht liefern ...
Das P20 ist etwas stärker und technisch etwas hochwertiger.

---Daniel--- schrieb:
Für die Graka wollte ich eigentlich ~250€ ausgeben und in 2 Jahren ne neuen kaufen (weil ich den Gaming Rechner in der Vergangenheit nicht so regelmäßig genutzt habe)
Stimmt, da war ja was. Bis jetzt wissen wir faktisch nur: Du hast bis auf einzelne Teile gar nichts bestellt oder gebaut. Was kein Vorwurf sein soll.
 
---Daniel--- schrieb:
ch weiß noch, dass bei Battlefont 2 die Grafik etwas verzerrt war, wenn bei Full HD das FOV zu sehr erhöht hat
Wenn du das FOV zu weit erhöhst kommt es zu einem Fischaugeneffekt. Das Ist unabhängig von der Auflösung
---Daniel--- schrieb:
wobei 21:9 wohl eher nicht so sinnvoll / kein Standardformat ist? und dann bei manchen Games wahrscheinlich Skalierungsprobs verursacht?
21:9 ist schon recht weit verbreitet und gut unterstützt, ggf. über Anpassungen in einer .ini Datei. Und wenn es absolut nicht unterstützt wird, spielt man in 16:9 mit einem schwarzen Balken links und rechts.
---Daniel--- schrieb:
Die Hz bringen mir aber nur was, wenn ich auch die entsprechenden fps mit der Graka liefern kann? Oder habe ich mit ~150 fps Vorteile bei einem 240 Hz- gegenüber einem 144 Hz- Monitor?
Bekomme ich Nachteile, wenn ich bspw. mit einem 144 Hz Monitor nur mit ~60 fps spiele? Ähnlich der "Schlierenbildung" wie bei Vsync früher?
Die höheren Hz bringen dir immer was, auch bei weniger FPS, weil ein neue Bild früher dargestellt wird. Tearing ist bei hohen Hz ein geringere Problem bzw. dafür gibt es dann VRR
---Daniel--- schrieb:
Sprich, ich könnte low settings machen aber WQHD Auflösung und die KI kreiert dann für jeden Pixel zusätzliche Bilder, um das Ganze höherformatig erscheinen zu lassen? Woher weiß denn die KI bspw. bei low settings was gut aussehen müsste? Gibt das dann bspw. bei Shootern nicht Probleme, in dem vll Pixel generiert werden, die gar nicht da sind und man dann manchmal nicht trifft, weil der Kopf vom Gegner bspw. eigentlich noch ein Stück entfernt ist?
Umgekehrt. Du stellst eine höhere Einstellungen ein, lässt das Bild aber z.B. nur in FullHD berechnen. Die fehlenden Pixel zu WQHD ergänzt dann die KI. Die wurde vorher trainiert, wie Gras, ein Baum oder ein Gesicht etc. aussehen soll und ergänzt dann entsprechend die Information die fehlen. Das sieht dann besser aus als simples interpolieren. Die Grafik von Nvidia zeigt das recht gut:
1763144790990.png
 
---Daniel--- schrieb:
Werde vor Allem aus dem Punkt Gesamtleistung nicht schlau
Da geht es nur um den 12V-2x6 Stecker ...
 
Zwirbelkatz schrieb:
Das Weiße hat auch weiße Kabel. Falls das ein Problem ist. Technisch ist es identisch zum schwarzen Netzteil. Die 600w, nur für eine Grafikkarte über einen Einzelstecker, kann ein preiswertes 650w Netzteil wie das RMe gar nicht liefern ...
Das P20 ist etwas stärker und technisch etwas hochwertiger.
Danke, super Tipp! Farbe ist mir egal. Gehäuse ist eh zu.

Zwirbelkatz schrieb:
Stimmt, da war ja was. Bis jetzt wissen wir faktisch nur: Du hast bis auf einzelne Teile gar nichts bestellt oder gebaut. Was kein Vorwurf sein soll.
Ja, und das könnte ein potentielles Problem werden, weil der Rücksendezeitraum abläuft - falls doch was defekt ist und ich den Defekt nicht einfach lokalisieren kann. Außerdem habe ich in den nächsten Wochen nicht so viel Zeit für den Zus.bau.

Grundsätzlich ist das -auch wenn es kein Vorwurf von dir sein soll- höchstwahrscheinlich ex-post nicht pareto-effizient, was ich gemacht habe (liegt aber auch mitunter an den steigenden Ram- und SDD-Preisen). Die Alternativen bei den Grafikkarten sind rar gesät, da Minimum 12-16 GB VRAM nötig und das ist der größte Kostentreiber. Für Grakas gibts einige gute Deals, aber leider bisher fast nur Abverkauf der 8 GB Varianten - but we will see.
Sonst wären ggf. mit Graka + Netzteil + Ram + Festplatte vll 120€+ Ersparnis drin gewesen. Wobei man sich bei 120€ natürlich auch fragen kann, ob es den Zeitaufwand wert ist. Wollte aber (einigermaßen^^) im Fun Budget bleiben.

Aktuell fehlen noch:
  • Grafikkarte
  • Gehäuse

Auf jeden Fall Danke für den Tipp mit dem Netzteil, das gleicht schon mal den gestiegenen Ram Preis etwas aus :D

Nilson schrieb:
21:9 ist schon recht weit verbreitet und gut unterstützt, ggf. über Anpassungen in einer .ini Datei. Und wenn es absolut nicht unterstützt wird, spielt man in 16:9 mit einem schwarzen Balken links und rechts.
Das wäre dann auch sinnvoll mit 27"? oder deutlich größer?

Nilson schrieb:
Die höheren Hz bringen dir immer was, auch bei weniger FPS, weil ein neue Bild früher dargestellt wird.
Aber vermutlich auch mit diminishing returns?
Ich verstehe nicht ganz den Zusammenhang zwischen input lag, Reaktionszeit (ms) und Bildwiederholfrequenz (Hz).
Welche Reaktionszeit sollte der Monitor höchstens haben und sind die Angaben der Hersteller da verlässlich?
Wie wichtig ist heute noch der input lag und wie finde ich den raus? Bei idealo/Geizhals sehe ich dazu keine Angebe, geht vermutlich nur über Testberichte?

Nilson schrieb:
Tearing ist bei hohen Hz ein geringere Problem bzw. dafür gibt es dann VRR
Sehr gut, auch VRR hatte ich noch nie gehört ^^. So langsam werde ich wieder up to date :D

Nilson schrieb:
Umgekehrt. Du stellst eine höhere Einstellungen ein, lässt das Bild aber z.B. nur in FullHD berechnen. Die fehlenden Pixel zu WQHD ergänzt dann die KI. Die wurde vorher trainiert, wie Gras, ein Baum oder ein Gesicht etc. aussehen soll und ergänzt dann entsprechend die Information die fehlen. Das sieht dann besser aus als simples interpolieren. Die Grafik von Nvidia zeigt das recht gut:
Anhang anzeigen 1675568
Bitte was :D Das ist ja überhaupt nicht verwirrend ^^. Das ist also quasi wie SSAA, nur dass das supersampled image behalten und nicht mehr downsampled wird? Das heißt, die modernen Grakas haben nebenbei ungenutzte AI Kapazitäten, um das zu bewältigen?
Heißt das, die DLSS etc. Fähigkeiten variieren dann nochmal je nach AI Kapazitäten der Grafikkarte erheblich? Oder fand der "Lernprozess" hauptsächlich vorher statt mit diversen Trainingsdatasets und das ist der Grund weshalb nur ausgewählte Games unterstützt werden und es immer einige Zeit dauert bis neue Games unterstützt werden?
Wie hoch sind denn ggf. diese Kapazitäten? Sprich, macht es in Abhängigkeit der unterstützten Games bspw. grundsätzlich fast immer Sinn mind. einen WQHD Monitor zu kaufen und dann bspw. von Full HD hochzuskalieren (3,7 Mio vs 2 Mio Pixel) oder sind die Kapazitäten da bereits am Limit und ein upscaling von 1024*768 zu Full HD (800.000 vs 2 Mio Pixel) würde einen ordentlichen FPS Boost geben?

PCTüftler schrieb:
Da geht es nur um den 12V-2x6 Stecker ...
Bei dem es vermutlich nicht allzu relevant ist :D
 
---Daniel--- schrieb:
Das wäre dann auch sinnvoll mit 27"? oder deutlich größer?
34" wäre das dann. Dort hast du dann die gleiche Höhe wie 27" 16:9, aber siehst nun wirklich an den Seiten mehr.
1763214767131.png


---Daniel--- schrieb:
Welche Reaktionszeit sollte der Monitor höchstens haben und sind die Angaben der Hersteller da verlässlich?
Die Angaben der Hersteller sind ziemlicher Murks.
Wenn du einen Monitor suchst, nenn uns Budget und Einsatzzweck dann können wir mal schauen was zu dir passt (anstatt diese endlosen Fragen zu beantworten :) ).
Eventuell hast du dir ja bereits über OLED/IPS/VA/TN gedanken gemacht, wobei fürs Gaming/Medienkonsum an sich kein Weg an OLED vorbeiführt.

---Daniel--- schrieb:
Wie wichtig ist heute noch der input lag und wie finde ich den raus?
Input Lag ist die zeitliche Verzögerung deiner Eingabe bis zu dem Zeitpunkt, dass etwas auf dem Bildschirm passiert. Das ist eine End-to-End Zeit, die nicht nur den Monitor betrifft sondern die komplette Kette, weshalb man den gar nicht so einfach herausfinden kann (geht z.B. mit Nvidia LDAT -> https://www.igorslab.de/nvidia-ldat-latency-display-analysis-tool-vorgestellt-und-getestet/).
---Daniel--- schrieb:
Ich verstehe nicht ganz den Zusammenhang zwischen input lag, Reaktionszeit (ms) und Bildwiederholfrequenz (Hz).
Also einfach gesagt:
Reaktionszeit (ms) = wie schnell ändern Pixel ihre Farben. Langsame Werte führen zu einem verschmierten Bild (Ghosting etc.).
Bildwiederholfrequenz (Hz) = wie oft stellt Monitor neues Bild dar. Niedrigere Werte führen zu Ruckeln (und auch erhötem Input Lag).
---Daniel--- schrieb:
Das ist also quasi wie SSAA, nur dass das supersampled image behalten und nicht mehr downsampled wird?
Nicht wirklich mit SSAA vergleichbar. Bei SSAA werden Teile höher als mit der nativen Auflösung gerendert, was den aktuellen Upscalern nicht der Fall ist.
Es wird eine niedgriere Auflösung auf die native Auflösung skaliert.
---Daniel--- schrieb:
Das heißt, die modernen Grakas haben nebenbei ungenutzte AI Kapazitäten, um das zu bewältigen?
Kann man so sagen ja, bei Nvidia übernehmen dass die "Tensor Cores".
---Daniel--- schrieb:
Heißt das, die DLSS etc. Fähigkeiten variieren dann nochmal je nach AI Kapazitäten der Grafikkarte erheblich?
DLSS ist relativ kostengünstig. Bei Raytracing ist das ein ganz anderes Thema (weswegen Grafikkartentests hier ja nun zweigeteilt sind in Raster- und Raytracingtests).

DLSS ist übrigens nur ein Überbegriff. Wir sprechen hier gerade konkret von "DLSS Super Resolution" (aber das ist auch an sich das Wichtigste):
1763215534390.png


---Daniel--- schrieb:
Aber vermutlich auch mit diminishing returns?
Ja. Interessant ist auch wenn man die Hz auf ms umrechnet.
Ein Sprung von 60Hz auf 120Hz spart dir 8,33ms pro Bild. Ein weiterer Sprung auf 180Hz spart aber nur noch 2,77ms mehr.
 
Zuletzt bearbeitet:
Wo bin ich hier schrieb:
34" wäre das dann. Dort hast du dann die gleiche Höhe wie 27" 16:9, aber siehst nun wirklich an den Seiten mehr.
Anhang anzeigen 1675837
Ok bei der Größe bräuchte ich dann 2x 34" + wieder ne Docking Station und hätte auch keinen Platz mehr für meinen Pivot Bildschirm (habe bereits 3x 27" auf dem Tisch stehen). Oder muss noch ne separate Gaming PC Ecke einrichten. Momentan stöpsele ich den nur gelegentlich mal an. Aber wäre auf jeden Fall ne Idee für die Zukunft.

Wo bin ich hier schrieb:
Die Angaben der Hersteller sind ziemlicher Murks.
Dachte ich mir... Es ist auch nicht gerade einfach die Bildschirme als "Laie" zu vergleichen, wenn man nicht weiß, wann bspw. die diminishing returns bei den Hz Zahlen einsetzen, wie hoch die Helligkeit sein sollte, was die wahre Reaktionszeit ist usw. ^^
Wo bin ich hier schrieb:
Wenn du einen Monitor suchst, nenn uns Budget und Einsatzzweck dann können wir mal schauen was zu dir passt (anstatt diese endlosen Fragen zu beantworten :) ).
Eventuell hast du dir ja bereits über OLED/IPS/VA/TN gedanken gemacht, wobei fürs Gaming/Medienkonsum an sich kein Weg an OLED vorbeiführt.
Ich hatte bereits einen Thread geöffnet, aber ohne Angabe von Budget, Größe, Bildschirmauflösung etc. :D Da habe ich gemerkt, dass ich erstmal die "Basics" klären sollte (folglich dieser Thread hier - allein die Full HD vs WQHD Debatte ist ja auch bei reddit recht lang), damit ich nachher klare Anforderungen nennen (bzw. neuen Kaufberatungsthread öffnen) und mir sinnvoll geholfen werden kann.

Wo bin ich hier schrieb:
Input Lag ist die zeitliche Verzögerung deiner Eingabe bis zu dem Zeitpunkt, dass etwas auf dem Bildschirm passiert. Das ist eine End-to-End Zeit, die nicht nur den Monitor betrifft sondern die komplette Kette, weshalb man den gar nicht so einfach herausfinden kann (geht z.B. mit Nvidia LDAT -> https://www.igorslab.de/nvidia-ldat-latency-display-analysis-tool-vorgestellt-und-getestet/).
Danke!

Wo bin ich hier schrieb:
Nicht wirklich mit SSAA vergleichbar. Bei SSAA werden Teile höher als mit der nativen Auflösung gerendert, was den aktuellen Upscalern nicht der Fall ist.
Aber wäre das nicht bei DLSS ähnlich, nur dass es bei DLSS statt der nativen dann die gewählte (?) Ausgangsauflösung ist und auf eine selbst gewählte (?) höhere Auflösung (mit dem Limit der nativen Auflösung) skaliert wird? Oder technisch ganz was anderes (mal abgesehen vom Downsampling am Ende des SSAA Prozesses, durch das wir dann die glatteren Linien bekommen)?

Wo bin ich hier schrieb:
Kann man so sagen ja, bei Nvidia übernehmen dass die "Tensor Cores".

DLSS ist relativ kostengünstig. Bei Raytracing ist das ein ganz anderes Thema (weswegen Grafikkartentests hier ja nun zweigeteilt sind in Raster- und Raytracingtests).
Und die Anzahl / Leistung der Tensor Cores ist dann bei allen Nvidia Karten ähnlich?
Ist jetzt zwar etwas Off-topic, aber ich habe ja nur die Graka (und Gehäuse) noch nicht geordert.

1763219120176.png

200% mehr fps mit DLSS klingt schon heftig. Wobei das dann vermutlich sehr schlecht aussieht. Was wäre denn ein realistischer average fps boost? Und kann da AMD mit FSR einigermaßen mithalten (Geplante Anschaffung 9060 XT)?

Werden dann die zukünftigen AAA Titel überhaupt noch ordentlich optimiert oder sind DLSS und FSR so mächtig, dass dann ggf. die FPS hauptsächlich von den upscaling Methoden abhängen?

Wo bin ich hier schrieb:
DLSS ist übrigens nur ein Überbegriff. Wir sprechen hier gerade konkret von "DLSS Super Resolution" (aber das ist auch an sich das Wichtigste):
Anhang anzeigen 1675842
lol, da blickt der Durchschnittskunde ja gar nicht mehr durch. Aber gut, dass DLSS schon mal das Wichtigste ist.

Wo bin ich hier schrieb:
Ja. Interessant ist auch wenn man die Hz auf ms umrechnet.
Ein Sprung von 60Hz auf 120Hz spart dir 8,33ms pro Bild. Ein weiterer Sprung auf 180Hz spart aber nur noch 2,77ms mehr.
und der Sprung von 180 Hz auf 244 Hz nochmal marginaler. Machen Hz Zahlen von über 500 dann überhaupt irgendeinen Sinn?

Edit:
Kaufberatungs-Thread: https://www.computerbase.de/forum/threads/27-wqhd-gaming-monitor-200-300eur.2257891/
 
Zuletzt bearbeitet:
---Daniel--- schrieb:
dass ich erstmal die "Basics" klären sollte
Teilweise sind wir bereits schon recht weit hinter den Basics.
---Daniel--- schrieb:
Aber wäre das nicht bei DLSS ähnlich, nur dass es bei DLSS statt der nativen dann die gewählte (?) Ausgangsauflösung ist und auf eine selbst gewählte (?) höhere Auflösung (mit dem Limit der nativen Auflösung) skaliert wird? Oder technisch ganz was anderes (mal abgesehen vom Downsampling am Ende des SSAA Prozesses, durch das wir dann die glatteren Linien bekommen)?
Naja es gibt bei beiden Varianten einfach gesagt eine Quell- und Zielauflösung. Das wars dann aber auch schon mit den Ähnlichkeiten.
Bei Downsampling entstehen die Details einfach durch die Berechnung in einer höheren Auflösung.
Beim KI-Upscaling entstehen die Details durch KI-Algorithmen, welche auf die niedrigere Auflösung angewandt werden.

---Daniel--- schrieb:
Und die Anzahl / Leistung der Tensor Cores ist dann bei allen Nvidia Karten ähnlich?
Nein.
Und zur Korrektur: es gibt wohl für Ray Tracing nochmal separate Kerne.

AMD hat anscheinend "Matrix Cores" (als Äquivalient zu den Nvidia Tensor Cores).
Und beide haben separate RT Cores.
Die Anzahl der Kerne sind in den Specs zu finden (diese Specs sind auch kein Murks).
1763222063270.png


---Daniel--- schrieb:
200% mehr fps mit DLSS klingt schon heftig. Wobei das dann vermutlich sehr schlecht aussieht. Was wäre denn ein realistischer average fps boost? Und kann da AMD mit FSR einigermaßen mithalten (Geplante Anschaffung 9060 XT)?
Ich lass einfach mal folgende Zahlen hier (nur um mal die relativen FPS-Gewinne je Qualitätsstufe grob zu umreißen - 200% mehr gibt es jedenfalls nicht...).
FSR wird nicht ganz so umfassend wie DLSS in den Spielen unterstützt und in der Bildqulität hängt FSR auch noch minimal hinterher.
1763221116975.png


---Daniel--- schrieb:
Werden dann die zukünftigen AAA Titel überhaupt noch ordentlich optimiert oder sind DLSS und FSR so mächtig, dass dann ggf. die FPS hauptsächlich von den upscaling Methoden abhängen?
Tja da sprichst du ein heißes Thema an, da die Optimierung von vielen Spielen aktuellen oft vernachlässigt wird (und die schlechte Optimierung nun einfacher mit solchen Technologien "ausgeglichen" werden kann).
Zuletzt Borderlands 4: https://www.computerbase.de/news/ga...orce-und-15-radeon-setzen-auf-ai-tools.94338/

Meine Meinung: wenn ein Spiel von solchen Technologien abhängt, dann ist das die absolut falsche Entwicklung und ein ganz schlechtes Zeichen für die Zukunft. Spiele müssen auch nativ ordentlich laufen.
Auch TAA (https://en.wikipedia.org/wiki/Temporal_anti-aliasing) führt aktuell schon sehr häufig zu schlechten Optimierungen und teilweise zwingen dich Spiele TAA zu verwenden, da sie daraufhin optimiert wurden sind (man überdeckt schlechte Optimierung mit Unschärfe...).

In die Zukunft sehen kann niemand, oft bekommen Spiele mit schlechter Optimierung aber auch schlechte Rezensionen. Mal sehen wann/ob AAA etwas daraus lernt.

---Daniel--- schrieb:
Machen Hz Zahlen von über 500 dann überhaupt irgendeinen Sinn?
Macht ein Ferrari Sinn? :)
Ja, es wird nochmal geringfügig flüssiger/direkter (man kann es wahrnehmen) - wenn dein Spiel auch 500fps schafft, dann wieso nicht? Von 250Hz auf 500Hz spart man nochmal 2ms ein.
Und irgendwann gibts auch die 1000Hz:
https://www.computerbase.de/news/mo...-dual-mode-angeblich-fuer-2026-geplant.94892/
 
Zuletzt bearbeitet:
Wo bin ich hier schrieb:
wobei fürs Gaming/Medienkonsum an sich kein Weg an OLED vorbeiführt.

Daran führen sehr viele Wege vorbei, solange das VRR-Flacker-Problem nicht gelöst ist, und solange die Preise so viel höher sind, als die von IPS.
 
JMP $FCE2 schrieb:
solange das VRR-Flacker-Problem nicht gelöst ist, und solange die Preise so viel höher sind, als die von IPS.
OLED bietet das rundum bessere Gesamtpaket für Gaming/Medien und die Preise sind in den letzten Jahren stark gefallen. Natürlich kann man auch IPS/VA kaufen, da muss dann eben andere technische Nachteile in Kauf nehmen.

VRR Flicker kann man umgehen (FALLS einem das wirklich mal irgendwo ernsthaft stören sollte - ich sehe das hin und wieder in Ladescreens und sonst habe ich das noch nicht bemerkt) - schlechte Schwarzwerte, IPS Glow, HDR-unfähigkeit, schlechtere Responsezeiten kannst du nicht umgehen.
 
Wo bin ich hier schrieb:
VRR Flicker kann man umgehen

Kann man nicht - die "Anti-Flicker-Funktion" schaltet VRR quasi aus. Reiner Schwindel:

https://www.reddit.com/r/OLED_Gaming/comments/1cwgk1c/comment/l4x252k/

Wo bin ich hier schrieb:
die Preise sind in den letzten Jahren stark gefallen.

Der billigste 27"-OLED ist trotzdem doppelt so teuer, wie ein IPS.

Wo bin ich hier schrieb:
schlechte Schwarzwerte, IPS Glow, HDR-unfähigkeit, schlechtere Responsezeiten kannst du nicht umgehen.

Blendendes HDR würde mich eher stören, alles andere ist bei meinem Dell G2724D völlig unauffällig.
 
Wo bin ich hier schrieb:
Die Angaben der Hersteller sind ziemlicher Murks.
Wenn du einen Monitor suchst, nenn uns Budget und Einsatzzweck dann können wir mal schauen was zu dir passt (anstatt diese endlosen Fragen zu beantworten :) ).
Kaufberatungs-Thread habe ich heute Nachmittag aufgemacht.
Wobei vermutlich die meisten im Bereich 200-300€ nicht so viel empfehlen können. Das Segment ist aufgrund der Vielzahl der Geräte komplett unübersichtlich und es fehlen auch diverse Testberichte, ist ja bei Monitoren schlimmer als bei Tablets :/
Deswegen wollte ich auch erstmal verstehen, nach welchen Kriterien ich das selbst einigermaßen filtern kann.

Hardwaredealz rät bis 300€ als "FPS Alternative" zum MSI MAG 274QFDE X24, den gibts aktuell für 200€. Verstehe aber nicht, wie der mit lediglich 250cd/m² solch ein Tipp sein kann. Nur wg. den 240 Hz und Helligkeit ist nicht mehr wichtig?

Der Asus VG27AQ3A ist auf 140€ reduziert, hat aber auch 250 cd/m² und "nur" 180 Hz. Der ASUS VG27AQL3A hätte 100 cd/m² mehr (350 cd/m²) und 180 Hz. Und zusätzlich dynamischen Kontrast - ist dynamischer Kontrast besser als statischer?

Der AOC Q27G4ZR ist ebenfalls reduziert (170€ statt 200€), hat wie der MSI 240 Hz, aber 400 cd/m². Rein von den Daten erscheint der mir am interessanten. Finde aber nicht wirklich richtige Testberichte...

Der Lenovo Legion 27Q-11 ist angeblich auch gerade im Angebot für 179€, der ist aber so neu, dass noch die Vgl.preise fehlen. Außerdem auch wiederum kein Testbericht.
Der hat die höchste Hz Zahl in der Vergleichsgruppe (300 Hz) und 300 cd/m².

Wer soll denn da noch durchblicken :D

Vgl. Liste:
1763238258735.png


Wo bin ich hier schrieb:
Puh ich seh schon, dass ich bei der übernächsten Graka dann erstmal die Tensorkerneanzahl vgl. darf ^^

Wo bin ich hier schrieb:
Krass, 30-55% Steigerung ist natürlich dennoch enorm.

Wo bin ich hier schrieb:
Sympathisch lol, ist natürlich auch super für nen "fairen" Wettbewerb beim Gaming. Wobei das bei Borderlands ja zum Glück eher nebensächlich ist.

Wo bin ich hier schrieb:
In die Zukunft sehen kann niemand, oft bekommen Spiele mit schlechter Optimierung aber auch schlechte Rezensionen. Mal sehen wann/ob AAA etwas daraus lernt.
Solange der Großteil der Community trotzdem kauft, könnte das schwierig werden. Aber glaube gerade im Ausland sind viele nicht so begeistert eine 500-800€+ Graka zu kaufen. Vor Allem da ja viele Gamer auch insbes. in der U20 Zielgruppe sind, wäre das schon ziemlich bitter. Sehe schon Threads mit Fragen kommen, ob sie einen Führerschein machen sollen oder lieber ne Graka kaufen...

Wo bin ich hier schrieb:
Von 250Hz auf 500Hz spart man nochmal 2ms ein.
Und irgendwann gibts auch die 1000Hz:
https://www.computerbase.de/news/mo...-dual-mode-angeblich-fuer-2026-geplant.94892/
Ok das wird meine Graka bei AAA Titeln eh nicht schaffen ^^
 
Zuletzt bearbeitet:
---Daniel--- schrieb:
Helligkeit ist nicht mehr wichtig?
Und wie so oft lautet die Antwort: es kommt darauf an.
Willst du möglichst knallige Farben oder hast ein sehr hell beleuchtetes Zimmer, dann brauchst du entsprechende Helligkeit.

Grundsätzlich sollte die Helligkeit des Monitors zum Umgebungslicht passen, damit es auf Dauer augenschonend ist. Aus meiner Sicht ist hier 120-160 cd/m absolut ausreichend für den 24/7 Alltagsbetrieb.

Da du ja bereits Monitore im Einsatz hast, schau doch mal wie dessen Helligkeit eingestellt ist und was die an maximale Helligkeit haben.
Mein letzter IPS war laut Spec 350cd/m und lief bei mir mit ~25% Helligkeit.

(Beim Thema HDR ist die Helligkeit aber nochmal ein anderes Thema :) )

Von mehr Hz profitierst du immer; mehr Helligkeit braucht man eigentlich selten. Daher wäre für mich Hz deutlich wichtiger als Helligkeit.

---Daniel--- schrieb:
Und zusätzlich dynamischen Kontrast - ist dynamischer Kontrast besser als statischer?
Nein, dynamischer Kontrast ist ein Marketingbegriff und relativ nutzlos.

---Daniel--- schrieb:
Das Segment ist aufgrund der Vielzahl der Geräte komplett unübersichtlich und es fehlen auch diverse Testberichte, ist ja bei Monitoren schlimmer als bei Tablets :/
Ja, das stimmt. Ich würde persönlich nur Monitore kaufen zu denen ich auch einen ordentlichen Testbericht finde - alles andere ist die Katze im Sack.


Ich finde z.B. folgendes Modell sehr interessant. Damit kannst du auch in den Genuss von HDR kommen:
https://www.rtings.com/monitor/reviews/xiaomi/g-pro-27i
https://geizhals.de/xiaomi-g-pro-27i-ela5585eu-a3260154.html
 
Zuletzt bearbeitet:
Wo bin ich hier schrieb:
Da du ja bereits Monitore im Einsatz hast, schau doch mal wie dessen Helligkeit eingestellt ist und was die an maximale Helligkeit haben.
Mein letzter IPS war laut Spec 350cd/m und lief bei mir mit ~25% Helligkeit.
Habe die Helligkeit meist jeweils am Anschlag, vermutlich 250 cd/m² bis 400 cd/m². Aber guter Punkt, hatte den Tisch früher anders stehen mit mehr Sonneneinstrahlung, da war es dann tatsächlich ein Problem, weil der "Gaming" Monitor nur ~250 cd/m² hatte (sofern nicht Rolladen unten / Vorhang zu)
Würde dann vorsichtshalber bisschen mehr nits kaufen, falls ich doch nochmal alles umstellen sollte, aber grundsätzlich mehr Hz präferieren.

Wo bin ich hier schrieb:
Nein, dynamischer Kontrast ist ein Marketingbegriff und relativ nutzlos.
Alles klar.

Wo bin ich hier schrieb:
Ja, das stimmt. Ich würde persönlich nur Monitore kaufen zu denen ich auch einen ordentlichen Testbericht finde - alles andere ist die Katze im Sack.
Jep und das ist im 200-300€ Bereich fast bei allen Geräten der Fall. Hätte nicht gedacht, dass wir im Jahr 2025 so wenige Monitortests haben bzw. kommen die vermutlich auch nicht hinterher, weil ständig was neues rauskommt mit leicht unterschiedlichem Namen.

Was ist denn mit Adaptive Sync - brauche ich da noch zusätzlich FreeSync oder GSync oder ist Adaptive Sync ungefähr genauso gut? Bspw. haben die meisten AOC Monitore nämlich nur Adaptive Sync.
 
Zurück
Oben