News Gaming-Monitore: AUO zeigt „5K“ und 360 Hz sowie FHD und 540 Hz

Phoenixxl schrieb:
Ich weiß nicht...ich glaube bei so einer Refresh-Rate würden die Grafikkarten selbst im Standby übertrieben Strom ziehen.

Ich persönlich habe 4k auf 32'' mit 144 Hz, wobei die auf 120 Hz eingestellt sind und werde frühestens dann wechseln, wenn sich Oleds mit G-Sync und ebenfalls 4k auf 32'' mit 120 Hz in Preisregionen begeben die drei-, oder knapp vierstellig sind.
Sag Bescheid wenn es soweit ist. Genau das was ich suche
 
Wann ist man denn auf den Quatsch gekommen das „5K“ zu nennen?
Ergänzung ()

Leon_FR schrieb:
ich glaub ich werd zu alt für den scheis 😅 ist das wie mit den auflösungen 8k fern im wohnzimmer bei 4 mwter abstand ? merkt doch jetzt schon keiner nen unterschied
Du kannst ernsthaft den Unterschied von 1080p zu 4K auf 3-4 Meter bei bspw. aktuell üblichen 77 Zoll nicht sehen? Von 8K Fernsehern spricht meine ich überhaupt niemand.

Bei einem Monitor (mit unter einem Meter Abstand) darf es dann auch gerne etwas mehr sein, allein zwischen 1080p 1440p und 2160p liegen bei 27 Zoll Welten wenn man keine Tomaten auf den Augen hat - vor allem was Text etc. angeht.

Und ich bin auch nicht mehr der Jüngste, das ist nur eine ewig alte Ausrede, wer im Alter schlechter sieht benötigt evtl. eine Brille - bin selbst davon betroffen, dann sieht man auch wieder einen Unterschied :rolleyes:
Ergänzung ()

Darklordx schrieb:
Wir kommen doch gerade erst im 4K Bereich an.
:lol: :lol: :lol: :lol: :hammer_alt:
Ergänzung ()

fox40phil schrieb:
Die Pixeldichte hier ist Murks! Ja wie bei 4K auf großen TVs^^..
Nur dass es da selbst auf 77 Zoll aufgrund des üblichen Sitzabstands überhaupt nicht juckt ob 4K oder 8K. 1080P oder 4K - klar.
Beim Monitor wieder eine andere Geschichte.
Ergänzung ()

lazsniper schrieb:
der eine kanns, wer mehr gewohnt ist, kanns definitiv nicht ;)
4K 32 Zoll sind doch gerade einmal 137ppi? Im Vergleich zu 27 Zoll 4K (163ppi) sind das schon wieder wenig, damit könnte ich nicht arbeiten :rolleyes:

Ist natürlich Schwachsinn und kommt völlig auf den Beruf an. Weit über 90% in Deutschland arbeiten an <27 Zoll <=1080p - und so unproduktiv ist unser Land meine ich nicht :rolleyes:
Ergänzung ()

Armadill0 schrieb:
Du MÖCHTEST vielleicht nicht. Aber ich bin mir absolut sicher, dass du es könntest. ;)
Amen.
 
Zuletzt bearbeitet:
Shakyor schrieb:
Mein C2 als Monitor.
Begeistert mich auch jeden Tag aufs neue.
Oled ist einfach > alles andere in Sachen Bildqualität :)
ne Oled als Monitor würd ich mir nie hinstellen. von sämtlichen Oled Monitoren sind die Reddit Threads nach gerade mal 3 Monaten voll von burn in bei dem neuen Alienware 21:9 ua. Ich blätter keine Summe hin um nach paar Monaten dann das zu sehen:
https://www.reddit.com/r/ultrawidem...3dw_experiencing_burn_in_after_just_4_months/
https://www.reddit.com/r/Monitors/comments/x3mjqo/aw3423dw_burn_in_after_2_months/
lass meinen Monitor oftmals an, halbe Std. + um was auch immer zu machen (Kaffe, Essen, Tür).
Da warte ich auf Mini LED wenn sie es endlich mal geschissen kriegen, kein Problem mit LED 24/7.
 
Auf beiden Screens erkennt man es nur auf Nachfrage und zudem wissen wir fast nichts über die Nutzung. Ich hab jedenfalls keinen burn in und hab durchgehend darkmode drin.

Und ich folge beiden subreddits und von voll kann man im Zusammenhang mit burn in nicht reden.

Hab das damals auch intensiv verfolgt, jedoch gab es weniger Fälle als gedacht. Auch bei LG TVS usw.
 
Die Jagdt nach immer höheren Refreshraten erinnert mich an den Megapixel Hype bei Kameras. Es hat längst einen Punkt erreicht wo man keinen Unterschied mehr merkt, aber über Marketing lassen sie sich noch verkaufen.
 
Alles unter 1kHz ist für mich eh Standbild. Und Alles unter 8k sowieso nur Pixelmatsch. Also 1000Hz und 8k. Da sind wir eventuell in 15 Jahren.

Die Entwicklung finde ich gut. Aber merkt man wirklich einen Unterschied zwischcen 144 und 360Hz?
 
beckenrandschwi schrieb:
Unterschied zwischcen 144 und 360Hz?
Merken wird man es definitiv, eher ist die Frage, lohnt sich der Mehraufwand?
Imo nein. Geschenkt nehm ichs trotzdem :)

Mir ist der Unterschied zwischen 90 und 120 oder 400(FPS) schon egal.
 
  • Gefällt mir
Reaktionen: Daggy820
cruse schrieb:
Auf beiden Screens erkennt man es nur auf Nachfrage und zudem wissen wir fast nichts über die Nutzung. Ich hab jedenfalls keinen burn in und hab durchgehend darkmode drin.

Und ich folge beiden subreddits und von voll kann man im Zusammenhang mit burn in nicht reden.

Hab das damals auch intensiv verfolgt, jedoch gab es weniger Fälle als gedacht. Auch bei LG TVS usw.
wo soll man auch hinschauen wenn man ein Bild mit einer tonne Inhalt ohne Hinweis sieht, dafür sieht man es umso mehr (beim Red Dead bsp) wenn man weiß wo der fette Balken oben eingebrannt ist.
oder hier:
https://www.reddit.com/r/Monitors/comments/10gm0fv/another_qdoled_alienware_aw3423dw_added_to_the/
https://www.reddit.com/r/Monitors/comments/10jiss2/aw3423dw_burn_in_another_one_bites_the_dust/
https://www.dell.com/community/Alienware-Desktops/AW3420DW-image-burn-on-new-monitor/td-p/7548505
oder der schöne Artikel
https://www.tomsguide.com/opinion/i-didnt-fear-burn-in-on-my-oled-gaming-monitor-until-i-got-burned

Burn In kann man nicht weg reden, dass ist ein technisches Problem, was man bei unvorsichtiger Nutzung und mit voranschreiten der Zeit immer hat. Und genau hier liegt für mich das Problem, ich werde keinen Monitor wie ein rohes Ei behandeln um etwas hinauszuzögern. Das denk ich mir jedes mal wenn ich den Monitor auf´m Desktop einfach stehen lass, weil ich zur Tür muss und dann wieder komme wenn er in den Standby ist nach 45 Min. oder wenn ich ihn anlasse beim Musik abspielen. bei mir hält da kein Oled lange und "schalt ihn halt aus" ist keine Option, zudem vergisst man es ists ein teures Ärgernis.
Drück dir die Daumen mit deinem ;)
 
ich spiele in WQHD auf einen 34“ 165hz Monitor mit limitierten 120fps auf Details von Hoch bis Ultra.

Das ist für mein Empfinden sehr angenehm.

Aber momentan ist die Leistung von bezahlbaren Grafikkarten nicht mal annähernd dran, das Verhältnis in 4K mit vielen FPS und hohen Details wiederzugeben.

Also noch paar Jahre auf die 6080 oder die 9900XT warten!
 
  • Gefällt mir
Reaktionen: Vitec
@JahJah192 Ist das jetzt speziell QOLED oder sind WOLED gleich schlimm?
 
Armadill0 schrieb:
Du MÖCHTEST vielleicht nicht. Aber ich bin mir absolut sicher, dass du es könntest. ;)
ich WÜRDE nicht, und das weiß ich definitiv.
 
Immer gut wenn oben rum weiter gepusht wird, denn das hebt auch den standard unten und wir sehen bald keine 120hz Gamermonitore mehr, sondern mindestens 240hz.
Wobei ich schon bei 144hz zu wenig pro gamer bin um irgendwas zu merken. Allerdings seit ich 60fps gelockt zocke, merke ich spürbar, wenn ein Game die 60fps nicht hält oder darunter liegt.
Kann also sein, dass man sich auch an 240hz oder 120fps gewöhnt und dann die Unterschiede noch spürbar merkt.
 
hubertus1990 schrieb:
Kann mir jemand erklären, welche Vorteil 540Hz gegenüber z.B. 144Hz noch bringen?
Keine Ahnung, für mich bringt es auch keine Vorteile mit 540 Hz. Und ohnehin kann die moderne Spiele sowieso keine 540 FPS liefern, bis die Grafikkarte glüht. Ich kann zwischen 120 und 144 Hz keine Unterschiede bemerken. Alles was mehr als 144 Hz läuft, macht es für mich keinen Sinn. Ich cappe meist 120 FPS, weil es mir ausreichte. Für reine Storygames die ich spiele, braucht man keinen 165+ Hz Obergeile Monitore 😂

Bin wohl dafür zu alt um Unterschiede zu bemerken. 😂

Und Ultrawide-Trend kann ich somit auch nichts anfangen, sind mir viel zu breit. :mussweg:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bluna
Und ich zock meist immer noch auf 21:9 2560x1080 mit 60Hz, Gott werd ich alt. :daumen:

Aber die Kiste läuft, und läuft, und läuft.....
 
-=[CrysiS]=- schrieb:
Finde diesen Formfaktor schrecklich, da kann ich gleich mit Opa Tennis von links nach rechts gucken.

Wird aber wahrscheinlich immer noch nicht ausreichend gut sein, selbst mit 10K und 1000 Hz. Wie schön sind die einfachen, normalen Dinge des Bedarfs :heilig:

Mir persönlich reichen FHD und 60Hz, leider gibt es davon noch kaum neue Fernseher…

Welches Tennis wird denn bitte in 32:9 übertragen? Damit kannste höchstens nen Tennis Spiel spielen, wenn du das meinst...
 
bad_sign schrieb:
@JahJah192 Ist das jetzt speziell QOLED oder sind WOLED gleich schlimm?
naja generell die Oled Technik wie sie halt funktioniert. organisch beschichtete leuchtdioden. Die organische Beschichtung nutzt sich halt ab bzw. altert (hitze), je heller desto schneller :D
Es heißt ja jedes Jahr "gibt kein Burn In mehr weil immer weiter verbessert" can´t beat nature, selbe wie die Baby kriegenden Männer, geht nicht technisch bzw. in dem Fall biologisch :lol:.
Aber der QOLED scheint da noch mehr Probleme zu haben, weil er ordentlich hell ist und die Pixelshift Sachen scheinbar nicht so gut als wie bei aktuellen TV (die kompensieren das etwas). So hab ich´s gelesen, wollt mir den auch zulegen, aber ich lass es am PC.
 
540hz~! <3
hoffentlich kommen davon langsam mal mehr! aber bitte in wqhd! und mit gsync!
 
Hate01 schrieb:
Die Jagdt nach immer höheren Refreshraten erinnert mich an den Megapixel Hype bei Kameras. Es hat längst einen Punkt erreicht wo man keinen Unterschied mehr merkt, aber über Marketing lassen sie sich noch verkaufen.

In Kombination mit Gsync/Freesync kann man die 540 Hz voll ausschöpfen @ 1080p. Die entsprechenden Spieletitel wie z.B. Valorant und eine Gaming CPU wie der neue 7800x3D sind dafür prädestiniert. Ich zocke einen shooter in dem ich zwischen 1000-1500 FPS habe. Wie immer der Ottonormal User hat seine ausgelutschte Meinung und ist nicht in der Lage über den Tellerrand zu schauen. Und ja ich merke noch einen Unterschied selbst zwischen 500 FPS oder 1000 FPS...

mfg ein Schwitzer Enthusiast.
 
Wenn mich mein unnützen wissen nicht trügt, liegt der menschliche Rekord bei der Wahrnehmung um 238 Bilder pro Sekunde und der Proband war Kampfjetpilot. Gut der Inputlag ist dann statt 2ms dann 1ms aber in den meisten Fällen würde ich z.B. kein Unterschied mehr sehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bluna und Hate01
Zurück
Oben