News G-Sync-Monitore: Details zu PG348Q, PG279Q und PG27AQ von Asus

spezialprodukt schrieb:
wat soll an denen gut sein? solang ulmb nicht parallel zu gsync läuft, ist es doch nix halbes und nix ganzes. aber kauft ruhig :D

Da hast du leider Recht, aber irgendwie scheint sich dessen ja kein Hersteller anzunehmen. Gibt es so etwas denn im Freesync-Bereich? Wobei - beim PG279Q steht ja nicht explizit, dass sich die beiden Technologien ausschließen. So richtig daran glauben mag ich aber nicht.
 
Also ich raff noch immer nicht den Sinn von den 165Hz in 2k!?!? Ich hab ne OC Titan X und schaffe @ 2k fast nie Frameraten über 100fps.
Meiner Meinung nach ist es nach wie vor zu früh schon voll auf 2k oder 4k zu setzen. Ich habe noch einen FHD mit G-Sync und erreiche in BF4 z.B. fast durchgehend 120fps. Das fühlt sich dann bei 120Hz fantastisch an! Und wenn es doch mal runter geht, kommt G-Sync ins Spiel. Also für was die 165Hz @ 2k, wenn ich diese niemals erreiche? SLi ist kein Argument und lediglich Nische...
 
zig*zag schrieb:
Also ich raff noch immer nicht den Sinn von den 165Hz in 2k!?!? Ich hab ne OC Titan X und schaffe @ 2k fast nie Frameraten über 100fps.

Wie schon geschrieben, so einen Monitor behält man normalerweise wesentlich länger als nur eine Grafikkartengeneration. Es ist zu hoffen, dass in 2 oder 3 Generationen/Jahren Karten auf dem Markt sind, die mindestens doppelt so leistungsfähig sind, wie eine Titan X. Wer heute so viel Geld für einen Monitor ausgibt, sollte zumindest so weit voraus planen.

Nur als Beispiel: Mein letzter Monitor (23", IPS, 1920x1200) hing zuerst an einer Radeon 9800XT und zuletzt an einer GTX580. :)
 
@zig*Zag

Zukunft? Son Monitor für 700,- werden die meisten wohl länger als 5 Jahre behalten. Und bis dahin packen die Karten deutlich mehr Leistung. den jeweiligen Grafikkracher des Jahres wirste ohnehin nie in solchen Auflösungen mit solchen Frames zocken. Weder heute noch in 5 Jahren.

nochmal die Frage: Der PG279Q hat kein Free-Sync an Board oder?
 
Mustis schrieb:
nochmal die Frage: Der PG279Q hat kein Free-Sync an Board oder?

Nein. Warum auch. Den Monitor gibt es Baugleich als MG279Q, den ich mir nach dieser Vorstellung wohl zulegen werde. Da verzichte ich lieber auf Gsync bevor ich so viel Geld in die Hand nehme.
 
Was viele immer nicht begreifen, man benötigt keine 165fps um 165Hz zu nutzen. Selbst wenn du nur 40fps hast aktualisiert der Bildschirm aller 6ms den Bildschirminhalt und nicht aller 16,67ms.

Schafft es die Grafikkarte nicht rechtzeitig bis zum nächsten Refresh ein Bild zu liefern, halbiert sich die Framerate. Denn da vergehen 33ms bei einem 60Hz Panel. Bei dem 165Hz Panel sind dann nur 12ms vergangen. Das Ergebnis ist, die Ausgabe der Bilder erfolgt somit zeitnaher und das ist auch in einer direkteren Steuerung fühlbar.
 
Sehen gut aus, aber nicht zu den Preisen. :(
 
Mustis schrieb:
nochmal die Frage: Der PG279Q hat kein Free-Sync an Board oder?

Nur um der Klarheit willen:

Es gibt keine Monitore mit FreeSync.

Die Schnittstelle auf der Monitorseite heißt AdaptiveSync und ist ein optionaler Teil des DisplayPort-Standards.

FreeSync hingegen ist AMDs in GPU und Grafiktreiber integrierte Sync-Technologie, die wiederum AdpativeSync zur Kommunikation mit dem Monitor benutzt.

Bei Nvidias G-Sync liegt die Sache etwas anders. Das umfasst sowohl die Sync-Technologie in GPU und Grafiktreiber, als auch eine spezielle, Nvidia-spezifische Erweiterung von Displayport im Monitor.

Es gibt also auf der Monitorseite entweder AdaptiveSync oder G-Sync und auf der Grafikkartenseite entweder FreeSync oder G-Sync.
Theoretisch könnten auch andere GPU-Hersteller als AMD eigene Sync-Technologien entwickeln, die den offenen Stadnard AdaptiveSync zur Kommunikation mit dem Monitor benutzen. Das ist bisher aber nicht der Fall.
 
Ist es überhaupt möglich G-Sync in ULMB gleichzeitig zu benutzen? Oder geht das auch erst mit DP 1.3?

Und bzgl. 4k 144Hz: Könnten die Hersteller nicht einfach zwei DP 1.2 Anschlüsse an die Monitore einbauen, um dafür genug Bandbreite zu haben?
 
Zuletzt bearbeitet: (ULMB nicht ULBM ;-))
Vanilla2001 schrieb:
Was viele immer nicht begreifen, man benötigt keine 165fps um 165Hz zu nutzen. Selbst wenn du nur 40fps hast aktualisiert der Bildschirm aller 6ms den Bildschirminhalt und nicht aller 16,67ms.

Schafft es die Grafikkarte nicht rechtzeitig bis zum nächsten Refresh ein Bild zu liefern, halbiert sich die Framerate. Denn da vergehen 33ms bei einem 60Hz Panel. Bei dem 165Hz Panel sind dann nur 12ms vergangen. Das Ergebnis ist, die Ausgabe der Bilder erfolgt somit zeitnaher und das ist auch in einer direkteren Steuerung fühlbar.


Ich bin da nicht so ganz drin in der Materie, aber soll die Aufgabe von AdaptivSync und GSync nicht sein, die FPS mit den Hz abzugleichen?
 
Sid6581 schrieb:
Da hast du leider Recht, aber irgendwie scheint sich dessen ja kein Hersteller anzunehmen. Gibt es so etwas denn im Freesync-Bereich? Wobei - beim PG279Q steht ja nicht explizit, dass sich die beiden Technologien ausschließen. So richtig daran glauben mag ich aber nicht.


leider nich. aktuell kann man nur nen 120hz monitor nehmen, der sich motion blur annimmt und versuchen, auf 120 fps zu kommen. sieht aber dann auch top aus, verhindert bei den meisten games aber ultra-einstellungen und oft gehen die farben ziemlich ein. ich denke mal, dass es mit 2.0 kommt. das wird dann als brandneues feature teuer verkauft.
 
Chismon schrieb:
Zum eigentlichen Thema:

Es ist eher erstaunlich, dass noch 3 Modelle mit G-Sync nach der gegenteiligen Intel Bekundung erscheinen, aber vermutlich waren diese schon längere Zeit geplant und es bleibt abzuwarten ob/wann G-Sync Monitore auf dem Markt zukünftig rarer werden.

Warum sollten sie? Nvidia wird weiter auf G-Sync setzen. Es gibt für Nvidia eine Notwendigkeit etwas anderes zu tun. Viele verschiedene Monitore brauchts da auch nicht. Zielgruppe sind ganze klar Gamer und die sind informiert.
 
Zuletzt bearbeitet:
@Herdware

Deswegen hab ich ja nochmal gefragt. Da FreeSync/Adaptive Sync ja quasi auf Monitorseite bei Display Port immer mit an Board ist, wundere ich mich halt, warum der Monitor nicht beides hat bzw. theoretisch wärs ja möglich, dass soweit jeder Monitor mit Display Port an einer AMD Karte Free Sync fähig ist. Das scheint aber dann ja eben doch nicht der Fall zu sein.

Wird mir notgedrungen dann doch mal den MG279Q anschauen. Soll ja Probleme mit Lichthöfen zu haben und leider kein ULMB sowie im Free Syn max 90Hz. -.- An sich äußerst unbefriedigend, wenn man bedenkt, dass das Ding auch 550,- Öcken kostet. Warum die überhaupt solche "Krüppel" auf den Markt bringen...

Gibt's weitere Alternativen? ULMB, 120Hz aufwärts, FreeSync (unbeschnitten), 27 Zoll, 2560er Auflösung und kein TN Panel wären so die Eckpunkte.
 
Mustis schrieb:
Deswegen hab ich ja nochmal gefragt. Da FreeSync/Adaptive Sync ja quasi auf Monitorseite bei Display Port immer mit an Board ist, wundere ich mich halt, warum der Monitor nicht beides hat bzw. theoretisch wärs ja möglich, dass soweit jeder Monitor mit Display Port an einer AMD Karte Free Sync fähig ist. Das scheint aber dann ja eben doch nicht der Fall zu sein.

Theoretisch wäre es möglich. Praktisch leider nicht, weil die meisten in Monitoren verbauten Scaler bisher kein AdaptiveSync beherrschen. Es ist wie gesagt nur ein optionales Feature, kein fester Bestandteil von Displayport.

Der Idealfall wären Scaler, die sowohl G-Sync als auch AdaptiveSync beherrschen. Dann hätte man als Kunde die freie Wahl, an was man den Monitor anschließt, ohne auf variable Refreshraten zu verzichten.

Das gibt es aber wie gesagt bisher nicht. Die meisten normalen Monitore beherrschen weder G-Sync noch AdaptiveSync. Und die speziellen Gaming-Monitore, die eines von beiden beherrschen, unterstützen das andere nicht.

Das ist eine blöde Situation für die Kunden, die Wert auf diese Sync-Features legen, weil man sich mit dem Kauf eines Monitors auf einen Grafikkartenhersteller festlegt und umgekehrt.
 
Rios schrieb:
Ist es überhaupt möglich G-Sync in ULBM gleichzeitig zu benutzen? Oder geht das auch erst mit DP 1.3?

ULMB lässt die Hintergrundbeleuchtung in einem bestimmten Takt aufleuchten, mit G-Sync ändert sich der Takt des Panels aber permanent. Man müsste den Takt des ULMB dynamisch mit anpassen können um flackern und Helligkeitsschankungen zu unterbinden, das ist im Moment offenbar nicht möglich. Wenn man das möglich machen wollte müsste man wohl mit mindestens 1 Frame Lag leben, denn das ULMB kann ja nur auf G-Sync reagieren und nicht vorhersehen wie sich die Bildwiederholfrequenz verändern wird.
 
Richthofen schrieb:
Es gibt für Nvidia eine Notwendigkeit etwas anderes zu tun.

Spätestens wenn Scaler mit einer ausreichend großen FreeSync-Range zur Verfügung und den Markt mit vergleichsweise günstigen Preisen durchdrungen haben werden, wird Nvidia reagieren müssen. Warum sollten Gamer dann noch einen Preisaufschlag von 100 bis 150 Euro für eine Technologie, die nicht nur nicht mehr kann als der offene Standard, sondern auch noch im Funktionsumfang eingeschränkter ist als Adaptive Sync? Man muss schon ein eisenharter Fanboy sein, um dann noch G-Sync zu kaufen, wenn man für mindestens 100 Euro weniger die gleiche Leistung mit einem größeren Funktionsumfang haben kann.

Das ist jetzt schon ein Problem: Wer als Gamer neben dem PC eine Docking Station oder eine Konsole am gleichen Monitor betreiben oder schlichtweg auch mal ernsthaft arbeiten möchte, kann mit den meisten G-Sync-Monitoren nichts anfangen und wird wahrscheinlich zu AMD greifen müssen (an dem Punkt stehe ich derzeit, nachdem ich mir eigentlich fest vorgenommen hatte, eine effizientere Geforce-GPU zu verbauen). Und das Problem wird nicht kleiner, sondern stetig größer werden, je besser Adaptive Sync integriert wird. In einem Jahr wir es wahrscheinlich keinen Grund mehr geben, noch zu G-Sync zu greifen.
 
Zurück
Oben