News AOC Agon 3: Neue Gaming-Monitore mit G-Sync HDR und FreeSync 2

Bin mal gespannt ob die Bildqualität mit einem "normalen" IPS Bildschirm mithalten kann.
Ich persönlich würde mir dann wahrscheinlich einen 4k IPS mit 144 Hz kaufen sofern die Reationszeit in Ordnung ist.

Wird aber noch eine Weile dauern bis das Ganze halbwegs leistbar wird.
2000€ sind mir dann doch zuviel für einen Bildschirm.
1000€ fände ich in Ordnung zu beginn scheinbar keine konkurrenz haben. (Zumindest ist mir bis jetzt keine bekannt)
 
Sind wohl eher Miner die Vega kaufen, und diese Karten bekommen höchstens nen 1080p60 Schirm zu Gesicht wenn überhaupt.

Aber Vega ist doch nicht das letzte Kapitel, Hawaii und Polaris sind immer noch schnell genug für 1080p Gaming und Navi kommt auch irgendwann.
 
Schonmal daran gedacht, dass man einen Monitor viele Jahre hat und IDE Grafikkarten in Zukunft locker 1440p auf 144hz bei den jetzt aktuellen Titeln raushauen?
 
2.000,- für nen monitor mit nem panel von AUO? nein - da bin ich nicht böse, dass es den nur mit g-sync gibt :lol:

ok, nochmal ernsthaft: was die sich bei den 27" IPS wqhd 144hz geleistet haben, könn' se sich eigentlich nicht nochmal erlauben, sonst brauchen die da auch nix mehr auf den gamer-markt schmeißen. von daher sollte sich vieles bessern. in anbetracht der fülle an problemen kann ich mir aber kaum vorstellen, dass die nun alles auf einmal in den griff bekommen werden. vermutlich wird wieder munter retourniert werden, diesmal aber auf einem deutlich höheren quali-niveau.

der_Schmutzige schrieb:
Sieht denn Quantum Dot wirklich so viel besser/schwärzer/schärfer aus?
"schwärzer" nicht, da quantum dot keinen einfluss auf den kontrast nimmt, da brauchste VA statt IPS. durch quantum dot wird der farbraum erweitert und zwar richtung rot und grün, was eigentlich etwas positives ist. problem an der geschichte ist nur, dass dieser erweitete farbraum durch keine norm unterstützt wird und die farben daher nicht so dargestellt werden, wie sie sollten.

bei rot ist es leider tatsächlich nicht so doll, bei grün find ichs allerdings ganz schick. der grund liegt darin, dass der sRGB farbraum den bereich "rot" schon zu einem ordentlichen teil abdeckt, den bereich "grün" jedoch zu einem großen teil nicht.

hier z.b. kann man sich zumindest ein theoretisches bild von machen:
sRGB = grünes dreieck
quantum dot = rotes dreieck
C24FG70-colour-gamut-test.png
weil nun im grünen bereich eben dieser große teil fehlt, könnte man sagen, dass grün sowieso schon oft nicht dargestellt wird, wie es vlt. sollte, weil es eben nicht möglich ist. hier tut der zusätzliche teil "grün" mmn oft gut, auch wenn die darstellung (immer noch nicht) korrekt ist.

Bärenmarke schrieb:
Bei den TVs kam man von dem Curved Trend weg, wieso muss am PC jetzt aufeinmal alles curved sein :mad::mad::mad:
vorm tv heißt meistens auf dem sofa und dort wirste die optimale position nicht so leicht hinbekommen, wie vorm schreibtisch, wenn der monitor in kurzer distanz steht und mit nem gescheiten standfuss auch ausgerichtet werden kann.
 
Oha, das ist aber sehr spät für die neuen Modelle. Die Modelle von ASUS und ACER sollten doch schon in diesem Jahr kommen noch. Außer die UHD-Modelle zumindest, die wurden ja nochmal ins nächste Jahr verschoben. Die sollen langsam mal hin machen!
 
omg endlich geht es vorran. ich hatte bis 2013 einen röhren monitor sony 24" 16:10 720p@154hz und bin dann auf ein 27" FHD(:freak::freak::freak:) 120hz lightboost umgestiegen 81ppi :( nie wieder, jetzt kotzt mich die grobe pixelauflösung nur noch an.

freue mich das es super weitergeht endlich. ich tendiere zwischen den 35" UWQHD 21:9 200hz:freaky: 109ppi und den 27" UHD 144hz mit 163ppi. 2018 kommen neue grafikkarten bestimmt raus und mein 2013er wird dann 5 jahre alt. Das heist ich kaufe einen monitor für die zukunft und bis dahin wird UHD gut laufen.

Aber will gern mehr ppi als mein 800p 13.3" notebook der hat 113ppi und das bild sieht besser aus als der FHD 27"
Mal sehn evt. macht dann der UHD bei mir das rennen. Aber ich liebäugel mit einem 21:9 wegen geilerer immersion.

ich fang dann schonmal an zu sparen. :king::evillol:

und vielleicht gibt es bis dahin eine ankündigung für 21:9 und höhere auflösung.
 
boncha schrieb:
Die Zombie-Kundschaft (404 Brain) wird natürlich zum proprietären G-Sync Modell greifen
und damit wäre eine weiterer Kunde die nächsten Jahre an Nvidia gebunden.

Naja, die 404 Brainer hatten wenigstens das Glück, auf das richtige Pferd gesetzt zu haben.
Seit einem Jahr ist die 1080 schon ne tolle Karte und mittlerweile die Ti noch besser.

Volta ist im Grunde schon fertig. Kommt dann Anfang nächsten Jahres. Aber wozu den Launch überstürzen, denn AMD ist ja keinerlei Konkurrenz in High-End Bereich.

Vega kann man ja voll knicken.

Also mit G-sync doch richtig entschieden.
AMD kommt leider bei den GPUs überhaupt nicht aus dem Quark und ist längst nicht mehr Preis-/Leistungssieger.



edit: Und dann tut AMD noch so, als wären sie auf der Seite "der armen Gamer" und würden gegen die pösen Nvidias und Miner kämpfen.
Nee. Die bringen dann noch für's Mining optimierte Treiber raus und verschleiern die tatsächlichen Preise, durch Sponsoring mancher Händler, für ein begrenztes Kontingent an Karten.

https://youtu.be/5sPOEjQWJlE?t=527



Also: G-sync gewählt ? Alles richtig gemacht ! :daumen:
 
Zuletzt bearbeitet:
Endlich bewegt sich was, das sind techn. Spezifikationen die einen das Wasser im Mund zusammen laufen lassen.
Aber vorerst für mich noch zu teuer...
 
Ich habe mehrere AOC Monitore getestet.

27 Zoll UHD finde ich zu klein, wenn dann 32 Zoll UHD

32 Zoll WQHD ist mir zu unscharf gewesen, wenn WQHD dann 27 Zoll.

Ich habe mich für AOC 32 Zoll UHD entschieden.
 
der_Schmutzige schrieb:
Ich muss mal (wirklich unwissend) fragen:
Sieht denn Quantum Dot wirklich so viel besser/schwärzer/schärfer aus?
Oder ist das nur wieder so ein in den Markt gepumptes, künstliches must-have?

Habe es wirklich noch nie selbst gesehen.

Ich habe einen Sony mit erweitertem Farbraum vor einigen Jahren gekauft (Triluminos), ist eigentlich das, was Samsung dann paar Jahre später als Quantum Dot verkauft und bin recht begeistert davon. Die Farben sind natürlicher und intensiver mit mehr Abstufungen. Das ist einfach so und das merk ich eben in allen Fällen. Normal TV, zocken, Animes etc. Im Handel sind die TVs meist ohnehin falsch eingestellt, also übersättigt, daheim kann man sich das natürlich einstellen.
 
Bin ich der einzige, der es einfach nur schön findet, dass sie es Freesync 2 genannt haben ?
Ich weiß nicht was man heute dagegen hat, seine Versionen noch brauchbar durchzunummerieren. In fünf Jahren gibt es dann Freesync3(?) und G-Sync HDXX2theMAX(?) und zumindest bei einem weiß ich dann wo ich bin..
 
Moriendor schrieb:
Nein. Das gibt es leider überhaupt nicht, denn sonst hätte ich schon einen WQHD mit G-Sync hier vor mir stehen :) . Bei allen Kandidaten, die auf dem Papier in Frage kämen (z.B. Asus PG279Q) kommt dasselbe katastrophale AUO Panel zum Einsatz, das berüchtigt ist für BLB, Pixelfehler en masse und Staubeinschlüsse.

Das ist Panellotterie pur und selbst wenn man ein vernünftiges Panel geliefert bekommen würde, heißt das noch lange nicht, dass das auch so bleiben muss, denn es gibt zahlreiche Berichte, wonach Pixelfehler erst nach einigen Wochen/Monaten plötzlich auftreten.
Diesbezüglich vermute ich, dass die Ursache darin begründet liegt, dass die qualitativ miserablen Panels mit 144Hz oder sogar 165Hz schon am absoluten Anschlag (= Übertaktung) operieren.

Es gibt leider wirklich nichts ernsthaft Kaufbares in dem Bereich, weshalb ich mich sehr über die Ankündigung des LG 32" gefreut habe. Der hat auf dem Papier erst mal alles, was ich mir wünschen würde... 1440p, G-Sync, 144Hz und hoffentlich ein nicht-AUO IPS/PVA Panel, sondern ein IPS LG-Panel. Zum Panel wurde ja leider noch nichts gesagt.

Diese AOC Monitore hier haben -wie die angekündigten Asus und Acer Displays auch- mal wieder AUO Panel. Wenn sich da die QA nicht um einige tausend Prozent verbessert hat, dann gute Nacht. Das wäre schon krass, wenn die €1500 bis €2000 für absoluten Elektroschrott haben wollten. Man darf da auf die ersten Userberichte (nicht Testberichte... die werden perfekte Geräte an die Presse liefern) gespannt sein und ob es da wieder dieselben Retoure-Orgien geben wird.

Bin deiner Meinung, hatte mir deshalb den Samsung CF791 bestellt und gehofft das es bei denen besser ist, aber leider stehen zurzeit der 2. und 3. bei mir Zuhause. Der 1. ging zurück wegen einem dauernd rot leuchtenden Pixel.
Der 2. hat ein Staubeinschluss (oder Druckstelle) und der 3. hat 2 tote Pixel (Dauernd schwarz).
Muss mich wohl jetzt zwischen toten Pixel oder einem grauen Fleck entscheiden. :mad:
 
MeisterOek schrieb:
Ich habe einen Sony mit erweitertem Farbraum vor einigen Jahren gekauft (Triluminos), ist eigentlich das, was Samsung dann paar Jahre später als Quantum Dot verkauft und bin recht begeistert davon. Die Farben sind natürlicher und intensiver mit mehr Abstufungen. Das ist einfach so und das merk ich eben in allen Fällen. Normal TV, zocken, Animes etc. Im Handel sind die TVs meist ohnehin falsch eingestellt, also übersättigt, daheim kann man sich das natürlich einstellen.

Ja die Technik nutzt Sony seit Jahren aber Samsung hat es im Marketing einfach wirklich drauf. Jetzt denkt fast jeder Quantum Dots wäre eine Erfindung von denen. Zumal richtige Quantum Dots was ganz anderes wären. Irreführung par ex*cel*lence.

Der Trend zum Local Dimming finde ich persönlich sehr gut. Habe das seit Jahren bei den TVs und so lange es keine OLEDs gibt ist das die beste Lösung. Das die Monitore nur für G-Sync kommen ist doch wohl keine Überraschung. Wer 800€ für ne TI ausgibt gönnt sich auch einen 2000€ Monitor. Für die LowCost 480/580 Käufer lohnt sich sowas halt nicht.
 
SKu schrieb:
Solange es keine GPUs gibt, die UHD und 144Hz rechtfertigen, interessieren mich solche Produkte auch nicht. Und selbst 2018 wird keine GPU auf dem Markt sein, die dazu in der Lage sein wird.

wieder einer der G-SYNC nicht versteht.
 
graysson schrieb:
Intel verhindert mit illegalen Geschäftspraktiken, dass AMD CPU's von OEM's bzw. in den Elektronikketten nicht verkauft wird...

Das ist doch dann aber sehr löblich von Intel, oder?! :p :D

@BTT
Klingt soweit mal ganz gut, aber eine Ankündigung zum jetzigen Zeitpunkt für ein Gerät was bei uns wahrscheinlich erst Ende 2018 auf den Markt kommt halte ich für etwas sehr weit vorgezogen. Curved finde ich mittlerweile ganz gut bei einem Monitor, obwohl ich es bei TV's für vollkommen sinn befreit halte. Dafür sitze ich viel zu weit vom TV weg und die Rundung sieht auch ziemlich dämlich aus, wenn man das gute Stück an die Wand hängt...
 
Powell schrieb:
wieder einer der G-SYNC nicht versteht.

Ich nutze kein Sync. Und wenn du mir erzählen willst, dass 30fps mit GSYNC nicht ruckeln, dann glaube ich eher an den Weihnachtsmann.
 
30fps mit GSync ruckeln nicht. Sag ich jetzt auch mal ganz dreist :D Ruckeln ist das eine, nicht supersmooth das andere. 60fps werden besser aussehen, keine Frage, aber 30fps mit GSync sehen tatsächlich flüssiger als ohne aus, zumindest so flüssig, dass ich nicht mehr von ruckeln reden würde.
 
Sync hat doch nix mit Ruckeln zu tun.
Du hast kein Tearing.
Dazu mit g-sync halt mit weniger Input lag, als mit V-Sync.

Jedenfalls hatte ich den Hauptnutzen von G-sync so verstanden.
Unter 40 fps empfinde ich nicht als flüssig, egal ob mit oder ohne sync.
Aber das ist natürlich ein persönliches Empfinden. Der eine hat die Schmerzgrenze erst bei unter 28 FPS(siehe Playstation Pro usw. ) , der Andere spielt nicht unter 60 fps.

Angenehm empfinde ich die FPS ab ca. 45-55. Da ist so meine Minimum-Wohlfühlgrenze.
Daher finde ich auch die Minimum FPS viel wichtiger, als die Durchschnitts-FPS(100 Hz/FPS reicht mir als Maximum).
Dazu halt g-sync an und man hat auch kein Tearing im Bereich 60 FPS.
Und halt weniger Input-Lag als mit v-sync.


Naja, muss halt jeder für sich selbst checken, was einem wichtiger ist.
Manche wissen gar nicht was input-lag ist, bzw. sind froh, wenn das Spiel überhaupt irgendwie läuft ;)
Da hat man's im Grunde dann einfacher. :D Kommt halt auf die Ansprüche an.
 
Ein anderer Hauptnutzen von Gsync / freesync der oft übersehen wird ist meiner Meinung nach das "perfekte Framepacing".

Nehmen wir den 30fps Fall auf einem 60Hz Monitor, wenn die 30 frames wirklich alle gleich lange dauer/renderzeit (frametime = 33,333ms) haben dann kann der 60Hz Monitor in Vsync ein Frame für jeweils 2 refresh perioden zeigen, das wäre ein fehlerfreises Framepacing (alle gerenderten Bilder werden genau so lange gezeigt wie sie aktuell sind).

Aber die Realität sieht anders aus (zumindest in vielen anspruchsvollen Spielen und ähnlichen Anwendungen): erstens ist die Renderzeit von frame zu frame meistens verschieden (fps = statistischer Durchschnitt über eine Sekunde, bei einem Wert von 30fps können ein paar sehr schnelle wie auch sehr langsame Frames dabei sein, das sagt alleine noch nicht genug über die Qualität /Flüssigkeit der dargestellten Bewegung aus, nur aus Beispiel : 30fps die aus gleichmässig gerenderten Frames bestehen sind flüssiger als 60 fps wo immer ein paar langsame Frames/ruckler drinnen sind)

Egal der Punkt ist, Monitore mit statischer Refresh rate können sich nicht wirklich an unterschiedlichste Framezeiten anpassen, um es zu verdeutlichen: du willst Inhalte mit 29 oder 33 oder eben mit varierenden Framezeiten auf einem normalen 60 Hz Monitor wiedergeben. Ja das geht natürlich aber nicht mit richtigen Framepacing, weil 29 oder 33 nicht ohne Rest durch 60 teilbar ist. Wenn du also kein tearing sehen willst und somit eine Vsync varieante benutzt, dann werden manche frames 2 refreshperioden am Monitor gezeigt und andere nur eine Periode. Dadurch wird die Bewegung unregelmässiger / jeder ist unterschiedlich empfindlich auf framepacing fehler, manche nehmen sie als micro ruckler war.

Langer rede kurzer sinn... freesync gsync beseitigt alle diese Probleme, weil du (solange in der sync range) immer perfektes framepacing hast, jedes gerederte Frame wird sobald es fertig ist sofort wiedergegeben und genau nur solange gezeigt bis das nächste neue fertig ist, das ist der wesentliche Unterschied der in vielen Bereichen einen deutlichen Unterschied zu Monitoren mit statischer Refreshrate ausmachen kann (vor allem wenn die Framezeiten variieren)
 
Zuletzt bearbeitet:
Zurück
Oben