News Acer Nitro XV252QF: 390-Hz-Monitor mit FreeSync statt 360 Hz mit G-Sync

Ulmb ist so ne Sache.. mir macht es den Monitor zu dunkel..
 
0ssi schrieb:
Aber was hat No Sync mit V-Sync zu tun ? :confused_alt:

PS: 60Hz V-Sync mit weniger als 60FPS dropt nur mit Double Buffer auf 30FPS. ;)
Wenn du weniger als 60 FPS an einem 60 Hz Panel ohne VRR hast, müssen Frames doppelt angezeigt werden, egal ob V Sync an ist oder nicht. Da sind wir uns wohl einig, nehme ich an?
 
cosmik83 schrieb:
Kannst uns bitte beide exakten Monitor Modelle nennen damit wir dir sagen können dass es nicht an der Hz zahl liegt sondern an der Reaktionszeit? ;-)

iiyama Prolite GB2488HSU-B1 war mein alter 144 Hz Monitor.
Asus VG259QM ist mein aktueller @ 280 hz.

Für mich ist aber die hohe Bildwiederholrate in Kombination mit Gsync der "gamechanger" und nicht die Reaktionszeit ;)
 
  • Gefällt mir
Reaktionen: Tenchi Muyo
Etymotic schrieb:
iiyama Prolite GB2488HSU-B1 war mein alter 144 Hz Monitor.
Asus VG259QM ist mein aktueller @ 280 hz.
Auf die Schnelle kann ich leider bei beiden Modellen die CtC Werte nicht finden auf der Herstellerseite.
(War ja auch klar, wird von den OEM's ja schon seit eh und jeh so gemacht - so rutschen Leute wesentlich schneller über den Tisch, wenn man an den Armen zieht) :D
Mit etwas Zeit lassen sich die Werte aber von den eigentlichen Panelherstellern ermitteln, die mir grade fehlt deswegen enthalte ich mich mal lieber zumal auch der Asus wesentlich mehr Filter aktiv hat die blur/tearing/ghosting reduzieren im Gegensatz zum iiyama. Ich glaub dir schon, dass der Asus da einfach das bessere Panel mit besseren Filtern hat aber das alleinig nur an der Bildwiederholrate auszumachen bleibt jedoch imho ein Trugschluss.
Wäre jetzt interessant zu wissen was passiert, wenn du den Asus IPS auf 144Hz runter stellst und die Filter ausmachst und das dann mit dem Iiyama TN vergleichst.
 
0ssi schrieb:
Und diese Einschränkung gibt es bei BenQ mit DyAC+ nicht ? Wie viel cd/m² schaffen die denn mit BFI ?
Jeder Gamer weiß doch, dass BFI ein Kompromiss ist. Mehr Bewegungsschärfe aber weniger Helligkeit !?
Hättest du meine vorangegangenen Post wirklich aufmerksam gelesen müsste ich es dir jetzt nicht nochmal erklären. Dyac+ also die Weiterentwicklung von dem normalen dyac geht eben NICHT mit dem Nachteil der helligkeitsreduktion einher. Genau DAS ist auch die Essenz meiner Frage warum eben dies so ist.
Deine arrogante Art kommt wirklich nicht gut an.
 
cosmik83 schrieb:
@Justin's
"Bewegungsunschärfe verschwindet ab 1000Hz?" Belege? Lies bitte den Thread inbesondere meine Kommentare nochmal durch!
Was Microstuttering/framdrops betrifft den/die du wahrnimmst, liegt das mit sehr hoher Wahrscheinlichkeit nicht an deinem Monitor ;-) Das hängt von anderen Faktoren ab in deinen PC Komponenten. Welche genau? Kein Plan, kenne dein PC leider nicht. Inwieweit Antivirenscanner und andere Hintergrundprogramme Einfluss auf deine framedrops haben, auch kein Plan... Frametimes ist da auch no so eine Sache aber lassen wir das lieber :-/
Ich weiß nicht, was du da heruminterpretierst an meiner Aussage. 1000hz sind das Minimum für eine optimale visuelle Ausgabe.
https://blurbusters.com/blur-buster...000hz-displays-with-blurfree-sample-and-hold/
 
Buddy219 schrieb:
... geht eben NICHT mit dem Nachteil der helligkeitsreduktion einher.
Quelle ?

Erklärung: https://www.tomshardware.com/reviews/benq-zowie-xl2546k-240-hz-gaming-monitor-review/2

tomshardware schrieb:
The XL2546K is rated at 320 nits by BenQ and exceeded that in Standard mode with a 368.1392-nit value. Interestingly, in the default FPS1 picture mode, we only measured 268 nits. If you engage DyAc+, light output peaks at around 240 nits. But the monitor equalizes brightness across the DyAc+ modes so you see the same output at the same brightness settings, very nice.

Also wie vermutet, Standard Helligkeit nur 270 nits (vermutlich 60) und mit BFI schaltet er einfach auf 100
wovon 240 nits übrig bleiben was ich für ein vom Hersteller mit 400 nits beworbenes Panel normal finde !
Vorteil ist also, dass mit BFI automatisch auf 100 gestellt wird und man es nicht mehr selbst machen muss.

blurluminance.JPG


Eizo FG2412 ist von 2013 und Asus PG258Q von 2016 also 250nits+ mit BFI gab es schon vor langer Zeit.
 
Zuletzt bearbeitet:
Kimble schrieb:
Und was bringt das, wenn OLED richtiges Schwarz darstellen kann und einen viel größeren Dynamikumfang hat? Ein höherer Kontrast ist auch nicht wichtig?
Ich hab auch einen Zaun um meinen Garten.
Ergänzung ()

Blackfirehawk schrieb:
Dann bist du echt gut.. ich hab hier n 240hz Monitor und ab 120hz seh und merke ich keine Unterschiede mehr.

Nö, ich hatte halt CRTs, und habe die in dieser Beziehung immer als Nonplusultra gesehen. 240 Hz ist sehr nah dran an CRT. 120 Hz ganz sicher nichtmal ansatzweise.
 
cosmik83 schrieb:
Auf die Schnelle kann ich leider bei beiden Modellen die CtC Werte nicht finden auf der Herstellerseite.
(War ja auch klar, wird von den OEM's ja schon seit eh und jeh so gemacht - so rutschen Leute wesentlich schneller über den Tisch, wenn man an den Armen zieht) :D
Mit etwas Zeit lassen sich die Werte aber von den eigentlichen Panelherstellern ermitteln, die mir grade fehlt deswegen enthalte ich mich mal lieber zumal auch der Asus wesentlich mehr Filter aktiv hat die blur/tearing/ghosting reduzieren im Gegensatz zum iiyama. Ich glaub dir schon, dass der Asus da einfach das bessere Panel mit besseren Filtern hat aber das alleinig nur an der Bildwiederholrate auszumachen bleibt jedoch imho ein Trugschluss.
Wäre jetzt interessant zu wissen was passiert, wenn du den Asus IPS auf 144Hz runter stellst und die Filter ausmachst und das dann mit dem Iiyama TN vergleichst.

Ich hab zwar salopp gesagt, dass ich mit 280 Hz besser zocke als mit 144 Hz jedoch kann ich dies ganz gut anhand meiner Statistiken im Spiel festmachen. Die Präzision einzelner Waffen ist gestiegen seit dem upgrade. Genauer genommen profitiert mein favorisiertes "tracking aim" von 280 Hz.

Großartige Vergleiche mit meinem alten Monitor brauche ich nicht vornehmen, da mir die Reaktionszeiten oder Schaltzeiten der Monitore in erster Linie nicht sonderlich wichtig sind. Unterschiede sind zwischen den verschiedenen High Refresh Monitoren vorhanden - das ist mir bewusst - aber diese bewegen sich innerhalb KLEINSTE MILLISEKUNDEN. Die wichtigste Erkenntnis meinerseits: Schnelle Shooter machen einfach mehr Spass auf 240 Hz aufwärts.
 
0ssi schrieb:
@4.48min
ich muss mich korrigieren, der Monitor ist nicht gänzlich verlustfrei .

aorus kd25f von 400 nits auf 170 peak = 57,499% helligkeitsreduktion

zowie xl2546k von 361 auf 345 nits peak = 4,432% helligkeitsreduktion
 
  • Gefällt mir
Reaktionen: cosmik83
Justin's schrieb:
1000hz sind das Minimum für eine optimale visuelle Ausgabe.
Nur im Zusammenhang mit equivalent hoher framerate, so steht es auch dort auf Blurbuster. Nur alleinig mit den 1000Hz leider nicht. Gut lassen wir das, führt nur zu offtopic Grundsatzdiskussionen und will auch nicht als Korintenkacker abgestempelt werden. Sorry!
 
  • Gefällt mir
Reaktionen: Buddy219
mastakilla91 schrieb:
Für Handys ist alles über 1080p sinnlos.
Aber auf meinen 24 Zoller 1080p merkt man die niedrige Pixeldichte schon, da alle anderen Geräte bessere Bildschirme haben
Nein. Der Sinn hängt vom Zweck ab.

Mehr ist besser. ( Siehe Displays von 3D Brillen)

Sachen die entscheidend sind Pixeldichte DPI , Auflösung, Bittiefe, Hz. Panel Technologie.

Auch 8K auf einem 32 Zoll kann Sinn machen.
Die Schrift schärfer mehr Arbeitsfläche. Mehr Desktop. Kostet aber sehr viel💰

kommt alles auf das Einsatzgebiet an.

( ich persönlich würde aber auch heute einen Fernseher als Monitor ersatz immer noch bevorzugen. P/L)
 
Finde die Hz Diskussionen immer wieder interessant. Soll uns egal sein wie schnell die Geräte sind? Nein, denn je schneller desto besser für die anderen Geräte. Wie will ein Hersteller ein 144 Hz Monitor teuer verkaufen, wenn es bei der Konkurrenz für das ähnliche Geld dann bereits ein 800 Hz Monitor gibt?

Bis um die 800Hz kann das menschliche Auge wahrnehmen, darüber wird es wohl nicht mehr wahrnehmbar. Ich hätte kein Problem damit, wenn in 10 Jahren Monitore 800 Hz und mehr schaffen würden.
 
  • Gefällt mir
Reaktionen: DaBa
S.Kara schrieb:
Naja, sollte der Monitor 500€ kosten, ist der Sprung von 240Hz zu 390Hz schon logischer und besser als von 240Hz zu 360Hz, wenn der 360Hz Monitor mindestens 700€ kostet. Es spricht ja absolut nichts gegen mehr und mehr Hertz, aber klar 360Hz zu 390Hz ist kein riesiger Unterschied, ist ja aber auch kein neuer Standard, nur ein OC, um den Monitor besser zu vermarkten, gabs ja mit dem LG GN950 mit 4K und 160Hz OC auch. Es wird für mich darauf ankommen wie hoch Inverse Ghosting von 60-390Hz sind, wenn Overdrive aktiviert ist. Also ob man auch Spiele mit wenig Inverse Ghosting spielen kann, wenn das Spiel bei einem nur 60-100 fps hat. Aber denke, die meisten die einen solchen Monitor haben, werden CSGO, Valorant, R6, Rogue Company und was auch immer welche Esports-Titel mit nem High-end Rechner und niedrigen Grafiksettings spielen. Finde auch 1440p 240Hz interessanter, aber sollte dieser Monitor hier für unter 500€ eine gute Leistung zeigen, kriegt er von mir eine Empfehlung.
Ergänzung ()

cosmik83 schrieb:
Ist doch aber immer und überall so, daran können wir wenig ändern. Wenn LinusTechTips jetzt sagen würde, dass Intel im Moment bessere CPUs macht, dann würden das auch viele glauben. Aber sollte dieser 390Hz Monitor gut sein, was spricht dagegen ihn zu empfehlen? Jeder, der mal auf einem 240Hz Monitor gespielt hat, wird einen spürbaren Unterschied zu 144Hz wahrnehmen, über 360Hz im Vergleich zu 240Hz gibt es halt sehr wenige Tests, deswegen ist da auch weniger bewiesen. Aber ich bin mir sicher, dass der Unterschied kleiner ausfällt als bei 240Hz zu 144Hz, aber das man ihn trotzdem spüren kann. Dann schaut man sich die Preise an und sieht, dass die meisten guten 240Hz Modelle über 350€ kosten. Wenn dieser Monitor hier 390Hz bietet und das für unter 500€ und man einen guten PC hat um diese Hertz auszureizen, spricht wenig dagegen sich den Monitor zu kaufen, da 150€ für ein (deutlich) besseres Modell nicht super viel Geld ist, da viele einen Monitor kaufen, um darauf Jahre lang zu spielen.
 
Zuletzt bearbeitet von einem Moderator:
SI Sun schrieb:
@catch 22
Das glaube ich nicht, weil FreeSync Premium nichts besonderes ist.
Die gibt es haufenweise und zu jedem Preis.
https://geizhals.de/?cat=monlcd19wide&xf=11992_AMD+FreeSync+Premium
Anhang anzeigen 1072628

Etwas anderes wäre es, wenn es GSync Ultimate wäre. Das ist im Gegensatz zu FreeSync Premium nicht nur viel seltener, sondern auch viel "besser", weil es nicht erst ab ca. 50 Hz beginnt.
https://geizhals.de/?cat=monlcd19wide&xf=11992_NVIDIA+G-Sync+UltimateAnhang anzeigen 1072627

Wenn man schon sehr gute Hardware hat und das Spiel mit über 100 FPS läuft, ist G/FreeSync nicht so wichtig.
FreeSync / GSync macht aber bei wenigen FPS einen sehr großen Unterschied!
Wenn es erst ab bspw. 48 Hz beginnt, ist es fast wieder sinnlos.

Hallo erstmal,
um die Aussage ein wenig zu relativieren ein kleiner Auszug aus der AMD FreeSync FAQ:

"Die Kompensation niedriger Bildraten (Low Framerate Compensation – LCF) macht es möglich, dass die FreeSync Technologie dann arbeitet, wenn die Bildrate unter die Mindestbildrate des Monitors fällt. Fällt die Bildrate unter die Mindestbildrate des Monitors, werden Bilder (Frames) dupliziert und mehrfach angezeigt, sodass sie der Bildrate angeglichen werden, die im Bereich des Monitors liegt. Wenn ein Monitor beispielsweise eine Aktualisierungsrate zwischen 60 und 144 Hz hat, könnten die Bilder in einem Spiel mit 40 Bildern pro Sekunde (BpS) verdoppelt werden. Sie werden dann mit 80 Hz dargestellt, sodass der Monitor synchronisieren kann. Ein Monitor mit LCF beseitigt im Endeffekt die Grenze der Mindest-Aktualisierungsrate. Alle Monitore der FreeSync Premium und FreeSync Premium Pro Reihen sind auf die Einhaltung der verpflichtenden LCF-Anforderungen zertifiziert."

Ich hoffe geholfen zu haben! :)
 
Den Unterschied zwischen 120 - 144 - 165 Hz. konnte ich Definitiv feststellen auch wenn er natürlich nicht so eklatant ist wie von 60 aufwärts. Viel mehr geht es für mich um das Gefühl des "verlängerten Arms" und nicht nur um das reine Sehen. Den Blindtest im Freundeskreis haben übrigens 3/4 Leuten bestanden ;). Die Zielgruppe für 300+ Hz Monitoren ist natürlich auch eine ganz andere. Hier geht es um Spieler die Ihr Geld damit verdienen. Die Spielen zum Teil auch mit Blackbars in 4:3. WQHD 165Hz ist für mich persönlich vorerst das Maß der Dinge. Ich verdiene mit dem Kram allerdings auch kein Geld.
 
manche hier vergessen immer wieder, dass das cb-forum nicht die reale welt ist.
die durchschnittliche hardware, die ihr so verbaut habt, hätte der 0815 spieler gerne.
1080p ist weltweit immernoch die mit abstand meistgenutze auflösung zum zocken und wird es auch noch lange bleiben. und 400 fps musst du auf 2k erstmal hinbekommen.
und nur weil manche hier ein alter erreicht haben wo sie den unterschied zwischen 144hz und 390hz nicht mehr wahrnehmen können, heißt das nicht das es keinen gibt und es andere (welche übrigend die zielgruppe von solchen dingern sind) nicht können.
 

mkbftw


1080p war glaube ich 2005. In dem Dreh gabe es schon 30 Zoll dann. Aber ich denke wohl das die meisten wohl WQHD haben.

Meine mein Sohn zockt auch am Alienware 2310 mit 120Hz aber Full HD ihm reicht es auch erstmal. So jetzt bei den Preisen der RTX 3070 oder 3080 so oder so Eingeschränkt.

Aber habe selber viele Kumpels die jetzt aufgerüstet haben sogar auch RTX 3080 oder auch 3070 obwohl bei den Preisen. Manche schrecken auch davor nicht zurück.

Wenn ich die RTX 3080 Mining sehr bei Ebaykleinanzeigen für 11.000€ usw also das weiss ich auch nicht ob ich lachen oder heulen soll.
 
1080p sind wir noch in der Steinzeit?
 
  • Gefällt mir
Reaktionen: Adolf Kowalski
Zurück
Oben