Suche 4k monitor zum zocken mit der energiesparklasse A

PowerAnimal90 schrieb:
Dieser 4K-Marketing Hype geht echt auf den Sack. Zum Gamen ist 4K einfach mal noch nicht wirklich geeignet außer man hat zwei RTX 2080ti
Dieser 144Hz Marketing-Hype auf Mini-Monitoren geht echt auf den Sack, zum Gamen ist 4K wunderbar, denn ob nun WQHD und 144hz oder 4K und 60hz .. das ist in etwas das gleiche, was die Graka leisten muss. Aber der geneigte Gamer ist zu blöd das zu raffen^^

2560x1440x144 = 530.000
3820x2160x60 = 500.000

Oy .. da schaut aber einer blöd aus der Wäsche^^

Und ich dachte der geneigte "schnelle Shooter-Zocker", der auch noch was reißen will, spielt sowieso in "LOW", weil er den Gegner ja sehen möchte, und nicht das ganze Brimborium drumrum.


Das Problem ist doch nur das jeder irgendwas von "musste auf Mittel setzen" labert. Da haben die Leute wohl nur keinen Bock sich mit den Reglern auseinanderzusetzen.
Hat die Graka genug VRAM, lässt man den Texturen-Regler z.b. auf Ultra. Kostet keine Leistung, sieht aber geiler aus durch den zusätzlichen Schärfe-Eindruck.
Und Anti-Aliasing kann man in 4K meistens gleich ganz aus lassen, weil es weniger zum Flimmern neigt, wie die ganzen Mini-Auflösungen wo jede Linie nur noch 1 Pixel dick ist und jeder Bogen aus dicken Klötzchen besteht, die NATÜRLICH flimmern wie sau. Setzt ne ganze Menge Graka-Leistung frei. Meistens reicht es schon diesen Regler auf AUS zu stellen (Nein, nicht auf Mittel, das braucht man in 4K nicht so sehr wie in Mini-Auflösungen^^).


Und selbst BF1 läuft in 4K/Ultra ohne Anti-Aliasing auf fast 100 FPS mit einer 1080Ti .. was ja für den ESL-Profi natürlich zu wenig ist, nur das der wohl nicht (wie schon erwähnt) in Ultra zocken wird.

Gott. Echt. Kommt mal wieder runter von der Pauschalkeule. Ist echt kaum auszuhalten.

Das einzige Problem das es gibt, ist das Ego der USER.
Ich habe es doch in der Hand ob ich so oder so game:

gta5_2017_06_22_17_50lyuan.jpggta5_2017_06_22_17_54p2up5.jpg
Das ist nämlich die Doppel-Moral daran.
Hey ... reicht nicht für 4K .... reicht nicht mal für FHD jungs, wenn man alle Regler unreflektiert nach rechts dreht. DAS ist nämlich das eigentlich Problem. Der User will einfach zu viel. Blos keinen Regler bewegen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mordeos
Also entnejmhme ich das den Kommentaren jetzt richtig das die gtx 1080 ti mit 11gb 4k Spiele mit ordentlichen fps wiedergibt?
Und das wenn ich nicht 7tsge die Woche 24/7 zocke das auch b reicht als EEK? Ohne groß strom zu verbrauchen?

Und was ist nun besser 60hz bei 4k oder 144hz bei WQHD?
 
Du hast die Graka? Benutze DSR und Du weißt ganz genau wie viele FPS übrig bleiben, in DEINER Software mit DEINEN Settings.
Ganz ohne das Forum, das nur raten kann was Du wie zocken willst.

Und wenn Du das herausgefunden hast, dann teile es mit. Dann braucht es diese unglaublich schäbige Diskussion darum nicht mehr. (Und nicht vergessen bei Testen das AA abzuschalten).

Und nicht vergessen: Der Monitor überlebt drei Grafikkarten.
Also lieber den Monitor jetzt zu fett kaufen, als bei der nächsten Graka zu kotzen, warum Du "zu klein" gekauft hast^^
 
^^
Sorry wenn ich manchmal etwas harsch klinge, aber hier ist echt Windmühlenflügel angesagt^^
 
  • Gefällt mir
Reaktionen: Streched
HisN schrieb:
Und selbst BF1 läuft in 4K/Ultra ohne Anti-Aliasing auf fast 100 FPS mit einer 1080Ti ..

Auch in Massenschlachten ? Außerdem hat man von den 100 fps nur wenig, wenn man wegen der 60 Hz nur 60 fps zu sehen bekommt, die aus je 2-3 Streifen von den 100 fps zusammengestückelt sind. Und sich jeder Flickenteppich auch noch 16,7 ms lang in die Netzhaut einbrennt statt 6,9 ms bei 144 Hz.
 
@JMP $FCE2 Deswegen aktiviert man dort dann ja auch FastSync oder VSync. Dann bleibt das System kühl und leise und man hat schöne ganze Frames. Natürlich dann mit den ganzen anderen Nachteilen, die mit 60hz auftreten können (siehe unten).
Problematisch wird's halt wenn man unter die 60fps Grenze fällt. Dann erhält man entweder vereinzelte doppelte Frames oder schaltet dann runter auf 30fps und hat gleichmäßige doppelte Frames. (Natürlich nur wenn man kein GSync hat. Aber das ist hier ja preislich ausgeschlossen - bzw. ab 500€ mit 4K machbar: https://geizhals.de/acer-xb1-xb281hkbmiprz-um-px1ee-001-a1320508.html?hloc=at&hloc=de ).
In dieser Situation ist dann ein 144Hz Monitor von Vorteil, weil man dann - wenn ein Frame mal etwas länger als 17ms braucht - keine 33ms Frames hat, sondern evtl. nur 21ms oder 28ms. Die Frames sind dann wesentlich näher an der (ich nenne es jetzt mal:) "Realzeit" des Spiels.
Und umgekehrt gilt das natürlich auch, wenn ein Frame nur 10ms braucht, dann ist er schon nach 14ms sichtbar und nicht erst nach 17ms, wodurch man auch wieder näher an der "Realzeit" ist.
Das klingt jetzt alles nach unvorstellbar winzigen Zeitspannen, aber man merkt es. Speziell die Framedoppler wenn man einige Sekunden lang bei 40-50fps rumgurkt.

EDIT: Aber vielleicht wäre der oben genannte 500€ Bildschirm ja tatsächlich DIE Alternative. 4K und GSync. Dann sind die 60Hz auch nicht mehr so tragisch. Die Rezensionen kommen zwar seltsamerweise alle von Mediamarkt, aber sind durchgängig positiv.
Wenn man mal davon absieht, dass sich Leute bei einem 500€ 4K GSync Bildschirm über die integrierten Boxen beschweren und das zu kurze DisplayPort Kabel. Bei dem Preis kann man überhaupt froh sein, dass das Bild gut ist.
 
Zuletzt bearbeitet:
Vsync erhöht den Input Lag, und bei 60 Hz ist das dermaßen übel, dass es selbst einem Amateurspieler wie mir sofort auffällt. Bei Quake Live hatte ich das neulich durch eine Fehlkonfiguration - spielt sich wie Kaugummi. Ganz abgesehen davon, dass 60 fps deutlich sichtbar ruckeln, wenn man besseres gewohnt ist.

Fast Sync ist auch nicht so toll, das "stolpert" bei fps > Hz ähnlich wie Vsync im umgekehrten Fall, weil berechnete Frames dann ausgelassen statt verdoppelt werden.

benneque schrieb:
Aber vielleicht wäre der oben genannte 500€ Bildschirm ja tatsächlich DIE Alternative. 4K und GSync.

Der wäre eine Alternative unter der Voraussetzung, dass alle gespielten Shooter einen einstellbaren Framelimiter haben. Wenn man den dann auf z.B. 58 fps stellt, ist der Input Lag auf Vsync Off-Niveau:


Ich würde für Shooter trotzdem von 4k Abstand nehmen, und auf WQHD/144 Hz setzen.

HisN schrieb:
Und nicht vergessen: Der Monitor überlebt drei Grafikkarten.
Also lieber den Monitor jetzt zu fett kaufen, als bei der nächsten Graka zu kotzen, warum Du "zu klein" gekauft hast^^

Das erfordert leider eine leichte Aufstockung des Budgets:

https://www.computerbase.de/news/monitore/acer-predator-xb273k-nitro-xv273k-ifa.64768/
 
HisN schrieb:
Dieser 144Hz Marketing-Hype auf Mini-Monitoren geht echt auf den Sack, zum Gamen ist 4K wunderbar, denn ob nun WQHD und 144hz oder 4K und 60hz .. das ist in etwas das gleiche, was die Graka leisten muss. Aber der geneigte Gamer ist zu blöd das zu raffen^^

2560x1440x144 = 530.000
3820x2160x60 = 500.000

Oy .. da schaut aber einer blöd aus der Wäsche^^

Ich sage ja nicht, dass WQHD mit 144 herzt immer möglich ist. Aber 4K in in 60 fps ist schon ne Monster aufgabe für eine 1080ti, wenn man nicht gerade alles auf low stellen möchte.
 
HisN schrieb:
2560x1440x144 = 530.000
3820x2160x60 = 500.000

Nebenbei ist das sowieso eine Milchmädchenrechnung. Es geht nicht darum, 144 fps zu halten, sondern generell um höhere Frameraten, besonders in Massenschlachten.

Bei Vsync off sieht der 144 Hz-Monitor immer besser aus, auch noch bei 40 fps. Vsync ist (s.o.) für Shooter Müll, somit ist ein 60 Hz-Monitor höchstens mit G-Sync/Freesync überhaupt konkurrenzfähig. Und das auch nur bei eher gemütlichen Spielen, bei denen die fehlende Darstellbarkeit höherer Frameraten nicht stört.

Und zum Thema "Hype": schon vor >10 Jahren war mein Röhrenmonitor bei Quake 3 auf 120 Hz bei 1152x864 eingestellt, weil es einfach noch flüssiger aussah als die bei Röhren ohnehin zwecks Flimmerfreiheit üblichen 85 Hz.

60 Hz sind einfach nur unglaublich schlecht, und das Thema ist viel zu lange totgeschwiegen worden. Der erste 120 Hz-Flachbildschirm wurde in jedem Test nur als Zubehör für die 3D-Vision angepriesen.
 
Is doch kein Problem. Wenn die 144Hz so wichtig sind, es gibt 4K Monitore mit 120 oder 144Hz. Will blos keiner bezahlen.
Von mir aus soll doch jeder machen was er will. Wenn die Kohle nicht reicht, muss man einen Tod sterben. Du hypst 144hz und ich hype 4k.
Und gut ist. Aber dieses "ohohoho meine armen FPS" ist echt erbärmlich, nur weil man die Regler nicht bedienen möchte.

Der TE scheint bis jetzt keinen 144hz Monitor besessen zu haben, also wird er diesen Hype auch nicht vermissen.
Und jetzt komm blos nicht mit "einmal 144hz, nie wieder zurück". Das sagt auch praktisch jeder von 4K. Null-Argument.

Denn wie gesagt .. wenn einem die Massenschlachten so wichtig sind, nimmt man sowieso die Regler zurück, damit die Gegnerortung besser funktioniert.
 
  • Gefällt mir
Reaktionen: iNFECTED_pHILZ
Was hat man von 4k, wenn die detailreduzierte Grafik sch... aussieht ? Auflösung kostet nun mal sehr viel Leistung, und die auszugleichen, erfordert entsprechend große Opfer.

Nebenbei gibt es bei der Auflösung einen guten Kompromiss (WQHD), den ich bei den jetzigen Preisen auch angenommen hätte. Bei der Bildwiederholfrequenz gibt es den nicht - in 4k hat man die Wahl zwischen 60 Hz-Müll und Mondpreis - Kompromisse mit vielleicht 100 Hz sind nicht verfügbar.
 
Was hat man von 144hz wenn die Mini-Auflösung sch.. aussieht? Zumal man den Unterschied zwischen Ultra und High schon bei gleicher Auflösung meistens sowieso mit der Lupe suchen muss. Und mittel braucht er mit seiner Graka nun mal nicht einstellen, dazu ist sie stark genug.
Dir ist schon klar das wir uns hier endlos im Kreis drehen?
Vor 10 Jahren hab ich mir 2560x1600 geholt als 30". Das war vor 10 Jahren der Knaller. Heute holte es mich nicht mehr hinter dem Ofen vor :-)
Als ich vor 4 Jahren auf 4K gewechselt bin, da waren die Grakas gerade mal so stark wie eine 1070er. Und ihr heult heute immer noch rum^^

Und klar .. mir ist ein 120Hz 4K-Monitor für 1.3K bekannt... ist doch ein guter Kompromiss^^
 
Zuletzt bearbeitet:
HisN schrieb:
Zumal man den Unterschied zwischen Ultra und High schon bei gleicher Auflösung meistens sowieso mit der Lupe suchen muss.

Den Geschwindigkeitsvorteil auch. Das reicht nicht ansatzweise, um den Verlust durch die 4k-Auflösung auszugleichen.

HisN schrieb:
Und mittel braucht er mit seiner Graka nun mal nicht einstellen, dazu ist sie stark genug.

Definitionssache. Mir würde die Framerate nicht ausreichen, jedenfalls nicht für Shooter. Bei Witcher 3 schon eher, allerdings wäre dann G-Sync Voraussetzung, um das fürchterliche 60 Hz-Tearing loszuwerden.
 
Das coole am großen Monitor ist doch: Du kannst ihn im Notfall auch klein aufgelöst betreiben (also mit Balken oder Fenstermodus, und wenn einem das Bild egal ist auch interpoliert) ... beim kleinen Monitor geht es nur interpoliert, aber mehr wird er nie darstellen können^^

Und wer wo was ausreicht .... da bist Du bitte kein Maßstab. Lass das jeden selbst entscheiden.
DSR anwerfen, ausprobieren. Entscheiden. Nicht 100 Leute auf der Straße fragen, die keinen Plan haben davon, was man selbst spielt, wie man es einstellen möchte und wo man mit den FPS ankommen will.
 
HisN schrieb:
Das coole am großen Monitor ist doch: Du kannst ihn im Notfall auch klein aufgelöst betreiben (also mit Balken oder Fenstermodus, und wenn einem das Bild egal ist auch interpoliert) ... beim kleinen Monitor geht es nur interpoliert, aber mehr wird er nie darstellen können^^

Na toll. Dann hat man weder 4k noch 144 Hz, da kann man auch gleich einen 100€-Monitor kaufen :D

Wenn es wenigstens umschaltbare Monitore gäbe, die wahlweise 4k/60 oder FHD/144 können (ähnlich wie Röhren) - aber nein...

HisN schrieb:
Und wer wo was ausreicht .... da bist Du bitte kein Maßstab. Lass das jeden selbst entscheiden.

Gebe ich postwendend zurück, denn Du hast entschieden, was für mich oder den TE ausreichen soll, weil ohne diese Nebenbedingung die Milchmädchenrechnung mit der Detailreduktion nicht aufgeht, siehe oben.
 
JMP $FCE2 schrieb:
Den Geschwindigkeitsvorteil auch. Das reicht nicht ansatzweise, um den Verlust durch die 4k-Auflösung auszugleichen.
crysis3_2015_03_28_00broaf.jpgcrysis3_2015_03_28_10n1ujd.jpg
Bitte erkennen sie den Unterschied.
Bilder entstanden vor 4 Jahren als ich zu 4K gewechselt bin.
Da ist übrigens kein Regler auf Mittel :-)
Und die Graka "nur" 1070er Klasse.
Man bewundere den "enormen" und "unglaublichen" FPS Verlust, den man "erleidet".
 
Zuletzt bearbeitet:
BlueGhosts99 schrieb:
Und was ist nun besser 60hz bei 4k oder 144hz bei WQHD?
Was besser ist muss jeder für sich entscheiden und wie Hisn schon sagt ist das alles eine Einstellungssache.
Eine gewisse GPU Leistung muss aber denn schon vorhanden sein um das man den Regler Joker nutzen kann.
Wenn man ne GPU hat die gerade so 4k befeuern kann dann helfen auch keine Regler mehr.

MMn ist WQHD und 144Hz der beste sweetspot man hat auch ein scharfes Bild viel weniger treppchen ohne AA und noch die smoothheit und die direktheit von 144Hz auch unterhalb von 144fps.

Also ich habe beides lange getestet und so lange nix in 4k und 144Hz gibt und das in bezahlbar bleib ich dabei das WQHD und 144Hz das bessere Erlebniss ist vorallem wenn dir auch was am flüssigen bildablauf liegt.
Da kommt keine 60Hz kröte ran auch nicht mit sync.
 
Ich bin auch der Meinung, dass eine Kombination aus WQHD und 144 Hz für die meisten Leute der beste Kompromiss ist.

Ich zocke schon seit Jahren auf einem 144 Hz-Monitor und würde niemals auf 60 Hz zurück wollen - noch nicht einmal für 4K.

Gerade bei schnellen Shootern wie z.B. Quake Champions sind 144 Hz-Monitore enorm wichtig.

Jeder hat allerdings seine persönlichen Präferenzen. Der eine möchte unbedingt 4K haben und ist dafür bereit, auf FPS zu verzichten oder die Grafikeinstellungen deutlich runterzuschrauben. Der andere braucht unbedingt 144 FPS, möchte allerdings auch die maximalen Grafikdetails haben.

Wie wäre es, wenn man in seiner Beratung einfach auf die Präferenzen des TE eingeht, anstatt seitenweise sinnlose Diskussionen zu führen? :)
 
Du kannst ja mal seine "Präferenzen" für uns zusammenfassen :-)
Ich sehe da: 4K, schnelle Shooter, 400 Euro. Energiesparklasse A. Wurde mehr genannt?

Muss sich dann jetzt jeder der WQHD und 144Hz genannt hat an die eigene Nase fassen, weil er die Präferenzen des TE ignoriert hat? @DarthFilewalker Also nur weil Du es so hervorhebst :-)
 
Zuletzt bearbeitet:
Zurück
Oben