Test ViewSonic XG3240C im Test: 32"-Monitor mit WQHD, 144 Hz und HDR10 für Spieler

Wonder Boy schrieb:
Das lohnt nicht wirklich, da viele eh nur maximal 27" wollen, wozu da so einen Firlefanz veranstalten...

Am besten bei Smartphones demnächst 12k mit HDR200000...

Macht auch keinen Sinn. Dann lieber erst ab 43" einige Raffinessen.

Sicher würde es sich auszahlen.. Ich hatte bei einem 17 Zoll Notebook ein 4k panel drin und hab testweise bisschen auf dieser Auflösung gezockt. Das Bild war hammer mässig scharf. So wie wir es von handy Display kennen. Wir sind 7 Jahre bei full HD stecken geblieben. Die Handys haben sich sinnloserweise extrem im Punkt Auslosung weiter entwickelt. Mir persönlich wären vom 27 bis 32 alles recht. Wenn das Windows 10 ihre auflosungs Skalierung perfekt in den Griff bekommt hätte ich ein Traum Bild. Mehr also 8k würde ich mir gar nicht wünschen vorerst dann. Eher in Richtung mehr Hz aber das ist zu weit weg.
 
slashchat schrieb:
Samsung C32HG70 mit 10bit einfach besser, auch wenn nur hdr600
Ist die Tage angekommen. Ist schon ein Klasse Dingen der Monitor. Schön an die Wand angebracht. Bin sehr begeistert.
 
Wer brauchbares HDR möchte, muss sich einen TV kaufen. Oder 2000€ für einen PC Monitor ausgeben. Da wird sich auch in naher Zukunft nichts ändern.
Ergänzung ()

S.V.K. schrieb:
Ein Anfang...
Jetzt braucht der Bildschirm nur noch ein vernünftiges Panel, 4K und GSync. Dann wäre ich zufrieden...
Aber z.Z. werden eher die Kinder bedient, die FPS über Bildqualität setzen. Vielleicht kommt ja bald mal ein umdenken. 144 Hz oder mehr können eh nur mit einer potenten Graka und auf niedrigeren Auflösungen realisiert werden.
Als HQ Gamer hätte ich gerne auch mal einen guten Bildschirm. :)
S.V.K. schrieb:
Evtl. habe ich mich unglücklich ausgedrückt; Ich wollte damit sagen, dass einem solch ein Monitor keine Vorteile bringt, wenn die Graka nicht mithalten kann.
Es wird nicht besser, wenn man zwar hohe Bildwiederholungsrate aber keine hohen FPS hat. Der Unterschied ist mir schon klar; ich sehe nur eben keinen Vorteil dadurch. Mehr ist immer besser, may be, aber eben kein direkter Vorteil, solange man auch mit 60 Hz zurechtkommt.
So ich da etwas übersehe; nur zu, erleuchtet mich
Du musst dir nur mal den GSync Test von CB anschauen, da wird das ziemlich gut erklärt:
Es gibt eine Alternative zu G Sync – Monitore mit viel Hz. Der Vorteil: proprietäre Technik ist nicht erforderlich.
Und wenn du einen guten Bildschirm suchst, solltest du dir die 2019er OLED Generation anschauen. Dann musst du aber zwangsläufig zum "HQ Couch Gamer" werden, sollte aber machbar sein ;)
 
Blood011 schrieb:
Wo gibts UHD mit 75Hz?^^

https://geizhals.de/lg-electronics-27ud58-b-a1495783.html?hloc=at&hloc=de

Die LG nutzen sehr ähnliche Technik und die panels sind sowieso super, vor allem für den Preis.
Mit einer geänderten inf bekommst Du die nahezu alle auf 70-75Hz. Macht in der Praxis keinen Unterschied da es eigtl nur darum geht die freesync range zu erhöhen. Ich habe seit Jahren den MU67 am laufen und wenn mir etwas fehlt im Vergleich zu meinem Eizo, dann ist es der Helligkeitssensor.
Aber ja, wenn die Kinder nicht wären würde ich dennoch immer wieder Eizo nehmen. Wenn es nicht für Eizo reicht, sind die LGs aber wirklich klasse für das Geld, egal ob Office, Gaming oder BIld-Videobearbeitung.
Wenn man den Kram beruflich macht ist es wieder etwas anderes, aber da kann man das Equip auch absetzen ;)

Und bevor jemand meckert, die panels bekommt man auch bei CS:GO kaum ins schmieren. Latenz der Elektronik ist auch so gut wie in den meisten "gaming"-Kisten. Solange man nicht professionell Q3A spielt oder ähnliches...
Ergänzung ()

Wonder Boy schrieb:
Das lohnt nicht wirklich, da viele eh nur maximal 27" wollen, wozu da so einen Firlefanz veranstalten...

Am besten bei Smartphones demnächst 12k mit HDR200000...

Macht auch keinen Sinn. Dann lieber erst ab 43" einige Raffinessen.

Sorry, aber egal ob Windows, Office oder gaming, UHD ist das BESTE was im Monitorbereich seit Jahren passiert ist. Gefolgt von Adaptive Sync - weil man damit nicht an exorbitant teure GPUs gebunden ist.
Egal ob ich knackscharf drei Textblätter in Word nebeneinander wirklich bearbeiten kann - wer mal längere essays schreibt freut sich dass er nachlesen kann um im Fluss zu bleiben, ohne scrollen etc - riesige Exceltabellen bearbeite oder Literaturrecherche betreibe. Spiele in UHD sind sowieso die Wucht, was haben wir all die Jahre mit MSAA, FXAA, temporalem Bums und AI versucht die Bilder schärfer zu bekommen... und mehr Details gibt es auch noch! Wer auf 27" in FHD spielt, hat das Ding 3m von sich wegstehen - oder eine Sehschwäche.
 
  • Gefällt mir
Reaktionen: McTheRipper
TenDance schrieb:
Mit einer geänderten inf bekommst Du die nahezu alle auf 70-75Hz. Macht in der Praxis keinen Unterschied da es eigtl nur darum geht die freesync range zu erhöhen.
Na das muss man aber auch dazuschreiben.
Von sich aus 75Hz UHD gibt nämlich keinen.

Dann ist die Frage ob er nicht skippt.
Die UHDs von LG die ich hatte,hat man kein Hz höher bekommen.
 
Mal abgesehen davon machen 75 Hz natürlich einen großen Unterschied, wenn das Panel schnell genug ist. Je höher man geht, desto geringer wird der Unterschied dann.
 
Das lustige ist ja der Q3279VWF reicht selbst für CS noch sehr gut. Andere 60/75 Hz Panel kannst du dafür total in die Tonne treten.
 
Botcruscher schrieb:
Ich hab 200% sehstärke. Danke der Nachfrage. Ich hab auch keinen Bock das hier für jeden noch mal vorzurechnen. Der Mensch hat ein Sehvermögen bis 0,4 Winkelminuten. In Situationen mit mehr Kontrast auch besser. Eine Winkelminute sind bei der Ortsauflösung 1,5mm auf 5m!
Deswegen liegt der Schnitt der Handydisplays inzwischen auch bei über 450ppi. Die Leistungsdiskussion ist mir erst recht zu blöde.

Viel klein klein und Theorie. Die Praxis sieht anders aus. Deiner Meinung nach mussten die Menschen ja schrecklich leiden beim Röhrenfernseher. Und die Leistungsdiskussion ist wichtiger als dein Theoretischer Kram. Beim Gaming ist Leistung gefragt und keine Standbilder.
 
DeltaPee schrieb:
Ich glaube du verwechselst VA mit TN. Ich hab hier eine VA stehen und der ist sehr Blickwinkelstabil...

Nein ich verwechsel da nichts.

TN hat zwar schlechtesten Blickwinkel, Kontrast und Farben. Hat dafür aber einfach die besten Schaltzeiten.

IPS hat gute Farben und einen herforragenden Blickwinkel. Ist aber nicht so schnell wie TN und hat nicht den Kontrast von VA.

VA wiederum hat sehr gute Farben, einen sehr guten Kontrast. Ist dafür tendenziel langsam und nicht ganz so Blickwinkelstabil wie IPS.

Hat sicher auch immer etwas mit der Qualität zu tun. Aber gerade Breitbildmonitore sind bei VA ohne Wölbung ein Problem. Selbst bei meinem 27" Zoll WQHD IPS sehe ich in den Ecken aufgrund des Winkels schon Farbverfälschungen. Deshalb macht halt gerade bei VA wie auch TN Curved sin.
 
Bullz schrieb:
Sicher würde es sich auszahlen.. Ich hatte bei einem 17 Zoll Notebook ein 4k panel drin und hab testweise bisschen auf dieser Auflösung gezockt. Das Bild war hammer mässig scharf. So wie wir es von handy Display kennen. Wir sind 7 Jahre bei full HD stecken geblieben. Die Handys haben sich sinnloserweise extrem im Punkt Auslosung weiter entwickelt. Mir persönlich wären vom 27 bis 32 alles recht. Wenn das Windows 10 ihre auflosungs Skalierung perfekt in den Griff bekommt hätte ich ein Traum Bild. Mehr also 8k würde ich mir gar nicht wünschen vorerst dann. Eher in Richtung mehr Hz aber das ist zu weit weg.
Das Problem ist halt der Abstand. Ein Smartphone hält sich auch keiner 3m weg, vielleicht sind es da maximal 30cm, wenn überhaupt, außerdem bekommt man auf kleiner Fläche HDR zb so gut wie gar nicht mit, im Vergleich zu einem 65" Sony A1. Wo mehr Fläche ist, ist es natürlich sofort sichtbar und bei der Auflösung sowieso, daher sind 8K doch machbar bei 27" aber es wird gar nicht mehr wahrgenommen, zudem man ja darauf spielt und sich kein Standbild anschaut.
Selbst 720p zu 1440p sehe ich kaum einen Unterschied bei knapp 7" eines Smartphone, das Problem ist aber, je höher die Auflösung desto mehr müssen diese Pixel auch verarbeitet werden und zwar nicht nur vom TV oder Monitor. Bei 27" von 1440p zu 2160p mag es auf dem Blatt Unterschiede geben, diese kann man aber kaum erkennen bei dieser geringen Diagonale und niemand kann behaupten er sitzt gar 20cm von 27" entfernt... Den richtigen Abstand finden, ist ja bald ne Wissenschaft für sich selbst. Aus Jux erfindet den Abstand wohl niemand.

Ich denke auch, dass 27" auch zu klein sind, wenn es auch um das jeweilige Genre geht.
Warum kann man als Gamer von PC nicht auch auf 65" wechseln? Da gibt es immer einen Aufschrei und selbst bei 1080p ist es doch angenehm zu spielen, wenn der Rest eben wirklich flüssig läuft. Einen Shooter würde ich immer noch auf 24" spielen wollen, es hat ja seine Vorteile und wo die Vorteile bezüglich HDR auf so geringer Diagonale sein sollen, erkenne ich nicht.
Das ist ja so, als wollte ich nen Ferrari fahren, komme aber mit nem Micra daher.

PS: Vielleicht herrscht auch deswegen Stagnation. Bringt ja nicht wirklich was, ein kleines Feuerwerk auf einem kleinen Display.
 
Zuletzt bearbeitet:
Bei 27" von 1440p zu 2160p mag es auf dem Blatt Unterschiede geben, diese kann man aber kaum erkennen bei dieser geringen Diagonale [/QUOTE]

Sry aber man merkt das du nur liest... Aber das nie in der Praxis gesehen hast. Ich hab selber mit meinen eigenen Augen 4k @ 17 Zoll gesehen. Das Bild hat war einfach nur übergeil scharf.. Kein pixel haufen mehr wennst ingame in die Ferne siehst. Es war auf einem Notebook und ich saß vl einen halben Meter vom Notebook weg.

4k beim Desktopc macht sehr wohl Sinn.. Das Auge ist sehr gut darin an einem sehr kleinen Punkt sehr scharf zu sehen. Beim fernseher gibt es die Formel die 1.5x Höhe wären bei 100 Prozent Augen der ideale Abstand wo man 4k komplett wahrnimmt. Bei dem 65 Zoll Fernseher meines Bruders.. Glaube seine Höhe sind das 81.1*5 sind das rund 125... ;) ich habs probiert. Kannst vergessen so einen Film zu sehen.

Wie gesagt ausprobieren und falls du normale Augen hast wirst den Unterschied merken. Was aber stimmt der Unterschied wird immer schwerer wahrnehmbar... An den kanten des spiele Charakters merkst du es schwerer wie ingame am Horizont. Da fehlen oft die Pixel bei niedrigen Auflösungen deswegen schaut der dann immer aus wie Pixelbrei in einigen Spielen.
 
@Wonder Boy
Du scheinst da einfach ziemlich krassen Denkfehler zu haben. Obwohl du die ganze Zeit von "Abstand" redest, begreifst du nicht, was das für einen Effekt auf die optische Größe des Bildes hat.

Um mal bei deinem Smartphone Beispiel zu bleiben: 7" auf 30cm hat die selbe optische Bildgröße wie 65" auf 2,8m Entfernung. Das ist ein simpler Dreisatz und das sollte jeder ausrechnen können, der in der 6. Klasse in Mathe aufgepasst hat.

Wenn du auf deinem 7" Smartphone also nicht den Unterschied zwischen 720p zu 1440p siehst, wirst du auf deinem 65" TV auch keinen Unterschied zwischen 720p zu 1440p sehen, außer du setzt dich sehr viel näher dran als 2,8m. In dem Fall solltest du mal zum Augenarzt.

Genauso ist es auch bei HDR. Warum
bekommt man auf kleiner Fläche HDR zb so gut wie gar nicht mit, im Vergleich zu einem 65" Sony A1
?
Das macht bei den üblichen Seh-Abständen überhaupt keinen Unterschied. Schau dir doch mal VR Brillen an. Die arbeiten mit 3 oder 4" Displays pro Auge. Füllen damit aber einen Großteil deines Sichtfelds. Und obwohl das Display so klein ist, benötigt man eine riesige Auflösung (8K+?), um keine einzelnen Pixel mehr zu sehen. Eben weil das Display direkt vor dem Auge sitzt.
 
Zuletzt bearbeitet:
Um mal sicher zu gehen:

Ich sitze nicht 1m vor einem 65" und auch hier hast Du einen Denkfehler, oder lässt Dich leider von der Industrie lenken. Diesen Auflösungswahn lasse ich mir jedenfalls nicht einreden, zudem viele Tests diesbezüglich mit der Lupe und Zoom zu finden sind, Tatsache und da hört es doch auf, oder? Sitzt Du mit Lupe und Teleskop vor einem Display? Ok...

Ebenso HDR, was willst Du mir erzählen? HDR wirkt prächtig auf 7" oder 24":freak:

Anders bei VR, denn da ist der Abstand wirklich wichtig, denn hier wird die Auflösung leider wirklich wahrgenommen, aber nicht bei 7" oder 24" sei es auch 65".

Es gibt tausende von Menschen, die 4k überhaupt nicht erkennen, lediglich Oled in Verbindung mit HDR wird als "Wow" wahrgenommen. Aber gut, ich muss mich wohl mehr von Werbung berieseln lassen um zu glauben was Du glaubst...

ottoman schrieb:
Unterschied zwischen 720p zu 1440p sehen, außer du setzt dich sehr viel näher dran als 2,8m. In dem Fall solltest du mal zum Augenarzt.

Totaler Quatsch. Seriöse Seiten bewerten das gar und halten 1440p bei 7" auch als Unsinn, was nur den Verbrauch nachhaltig beeinträchtigt.

Zudem es es doch nicht verwunderlich ist, warum man jetzt diese Verfahren nutzen will. Damit wirkt es erst wirklich homogen.
Komischerweise soll es ja nicht möglich sein, in den Genuss davon zu kommen, wenn man keine Karte hat, die 4K unterstützt, wo 4K gar eine Voraussetzung ist. Warum wohl... Damit man wenigstens mit der Lupe ein "Aha" Erlebnis hat.

2-1260.jpg
 
Zuletzt bearbeitet:
Zocke etwa zwei Monate auf dem XG3240C und bin sehr zufrieden bisher. Die geringe Bildschirmhelligkeit begrüße ich sogar sehr und HDR brauche ich am PC nicht. Das macht der TV um Welten besser.

Mich würde allerdings schwer interessieren wie er sich mit G-sync verhält, da ich noch eine GTX980Ti verbaut habe und über ein Upgrade nachdenke um G-sync nutzen zu können.
 
Zuletzt bearbeitet:
@ComputerBase Super Test, vielen Dank. Wäre Klasse wenn ihr in Zukunft die G-Sync Kompatibilität bei Free-Sync Monitoren mit testen könntet. :)
 
  • Gefällt mir
Reaktionen: Hademe
@Wonder Boy
Du scheinst die Sache immer noch nicht verstanden zu haben. Ich versuch es mal noch etwas einfacher:
Setz dich mal auf 2,8m Entfernung vor deinen 65" TV. Dann zückst du dein 7" Handy und hältst das auf 30cm Entfernung vor deine Augen. Wie von Zauberhand hat das Bild jetzt auf beiden Geräten die gleiche Größe.

Wenn du jetzt behauptest, dass du auf deinem Smartphone von 720p zu 1440p bei 30cm keinen Unterschied erkennst, gilt das genauso auch für deinen 65" TV auf einer Entfernung von 2,8m. Und spätestens da würde ich behaupten, dass du schlechte Augen hast. Da hilft es auch nicht, dass du mich als Opfer von Hersteller-Werbung bezeichnest.

Das hat alles irgendwo eine wissenschaftliche Grundlage. Das Sehvermögen eines durchschnittlichen Menschen ist nämlich bekannt. Und darauf basierend lassen sich Empfehlungen definieren, die Bildgröße, Sitzabstand und Auflösung des Contents in Abhängigkeit setzen können. Beispiel:

optimal-viewing-distance-television-graph-size.png

Quelle: https://www.rtings.com/tv/reviews/by-size/size-to-distance-relationship

Was sogar du hier erkennen könntest, ist die Tatsache, dass man höhere Auflösungen umso besser erkennt, je größer der Bildschirm ist und je näher man den Bildschirm vor sich hat. Wer hätte das gedacht. Was man auch sagen muss: üblicherweise wird bei solchen Schaubildern das Sehvermögen des Durchschnitts genommen. Es gibt dementsprechend auch Leute, die (wesentlich) besser sehen können. Von daher sind Aussagen wie "4K braucht kein Mensch" oder "8K kann doch keiner mehr erkennen" ziemlich fehl am Platz.

Wonder Boy schrieb:
Ebenso HDR, was willst Du mir erzählen? HDR wirkt prächtig auf 7" oder 24":freak:
Ja genau das will ich dir erzählen. Es hängt immer vom Betrachtungsabstand ab. Und je nachdem kann das Bild eines 7" Smartphone oder eines 24" Monitors eben schon mal sehr viel größer sein, als das Bild eines 65" TVs. Denk mal drüber nach.

PS: Deinen letzten Absatz musste ich 3x lesen und versteh trotzdem nicht, von was du sprichst. Was für "Verfahren" denn? Was soll das Bild?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Everlast, jonjoe und Hademe
Das schöne an UHD+ ist doch das man skalieren kann und das Bild trotzdem knacke scharf ist.
Z.b 27" full HD sind die icons so groß wie auf UHD@200% skalierung nur das es auf dem UHD deutlich schärfer ist.

Bei Handys ist das doch genauso bin vom S5 FullHD zum S8 @2960x1440 gewechselt und das ist bildlich und schärfemäßig nochmal eine andere Welt.

Schon beim S5 war jedes andere phone unter FullHD einfach unscharf.
Das nächste wird UHD werden aufm Phone bei mir.

Beim Monitor genauso unter 110ppi will ich bei einem neukauf nix mehr sehen.
 
sicherlich sind hohe auflösung und helligkeit mit entsprechender farbabdeckung (mitsamt hdr) sehr nice, aber bis man ohne einen gehobenen einsatz von geld entsprechend potente hardware kaufen kann..

selbst eine 2080ti schafft es nicht durchgehend aktuellere titel in hohen fps bei uhd zu rendern und bis eine entsprechende rechenpower halbwegs in der breiten masse verfügbar ist, dauert wochl noch 2-3 jahre.

auch ohne ein konsolero zu sein, bin ich dementsprechend gespannt wohin die reise mit der nächsten generation an konsolen hingeht, da diese solche technische entwicklung maßgeblich mit beeinflussen...

stand jetzt empfinde ich wqhd als einen sehr guten kompromiss, da sowohl brauchbare monitore als auch grafikkarten verfügbar sind.

ps: ich glaube das selbst die steam hw survey die verbreitung von uhd im unteren einstelligen prozentbereich listet...
 
Also ich hab den Viewsonic XV3258 VA curved 1440p , 144Hz als Ersatz für nen 29"LG VA mit 75 Hz geholt( könnte mich nie richtig an die fehlende Höhe gewöhnen )

*Clouding aus der Hölle
*Blacklightbleed je nach Helligkeit stark bis mittel
*Schmiert schlimmer als der LG trotz doppelter Herzzahl und gleicher Panel tec
* Gsync über adaptiv sync fehlerhaft "brighness flickering"

Kurzfazit:
Hätte ich ihn nicht Sau billig bekommen wäre er direkt zurück gegangen .
 
Zurück
Oben