News G-Sync-Displays: Asus PG348Q mit 34", PG279Q mit 165 Hz und PG27AQ mit UHD

moquai schrieb:
Stimmt das wirklich? Ich meine, man kann alle Karten mit allen Bildschirmen verwenden, nur eben ohne G-Sync oder FreeSync. Was ja auch nicht schlimm ist, denn angeblich ist doch G-Sync gar nicht so toll. Erst recht nicht mit einer teuren Grafikkarte (teuer = viel Leistung = G-Sync unnötig). Und was hat es mit diesem dummen Gesülze "G(ay)-Sync" am Hut? Ist dann FreeSync für Lesben? Ich bin Hetero, trotzdem verwende ich G-Sync.

Man kann alle Karten verwenden, aber ohne G oder Free sync. Ja Glückwunsch, wozu diese Technik überhaupt noch verbauen, wenn man eine Leistungsstarke Graka hat. Das ist deine Aussage. Es geht ja gerade darum diese Technik zu verwenden, ansonsten können wir bei der Technik von heute bleiben.

Auch brauch man keine teure Karte um diese Technik verwenden zu können... Deine Beispiele treffen einfach nicht zu, oder sollen direkt dein Gegenüber in Bedrängnis bringen.

Das die meisten hier mittlerweile nicht mehr in der Lage sind beim Thema zu bleiben, ohne gleich persönlich zu werden ist extrem schade. Kaum hat ein Artikel was mit gaming zu tun, benehmen sich alle wie eine Horde Kinder ohne Aufsicht.

Der 27 sieht gut aus, das ganze dann nochmal mit free sync und beide Seiten sind glücklich. Hat doch garnet weh getan, oder.
 
Zuletzt bearbeitet:
the_ButcheR schrieb:
Weil es seit Mai 2014 einen freien Standard gibt, Adaptive Sync der ist Teil der Version 1.2a des DisplayPort-Standards. G-Sync ist nur ein proprietär Müll von nVidia, den kein Mensch braucht.


MfG

Der "Müll" ist aber derzeit technisch überlegen. Z.B. was low-fps Bereiche angeht. Solange da bei free-sync nicht nachgebessert wird gibt es keinen Grund nicht weiter auf die bessere Technik (wenn auch einen höheren Preis) zu setzen.
 
Lars_SHG schrieb:
Aber dieser Hz-Wahn bei riesigen Diagonalen verblüfft mich!
Für was sollen die gut sein? CS spielen bei niedrigsten Einstellungen und dann vielleicht 1.024 x 768 pixel um bei 27" oder noch größer damit die 165 oder 200 Hz zu schaffen sind? Das muss doch aussehen wie Minecraft?

Du wirst lachen, aber genau mit dieser Einstellung befeuern viele CS Profis ihren 144Hz Monitor mit schwarzen Balken links und rechts!
 
BeezleBug schrieb:
... wozu diese Technik überhaupt noch verbauen, wenn man eine Leistungsstarke Graka hat. Das ist deine Aussage. Es geht ja gerade darum diese Technik zu verwenden, ansonsten können wir bei der Technik von heute bleiben. Auch brauch man keine teure Karte um diese Technik verwenden zu können...
Du musst das als Ironie sehen, dann ergibt es Sinn, weil viele User so denken. Und wenn Du meine Beiträge durchstöberst, dann findest Du auch Aussagen, in denen ICH manchen Usern begreiflich machen möchte, dass gerade die schwächeren Karten von G-Sync profitieren.
 
Ich werde mir, trotz meiner beiden 970, einen FreeSync Monitor holen. Warum ? Weil ich es nicht einsehe, für einen proprietären Standart von Nvidia 200€ extra zu bezahlen, für ein Feature, was zwar gut ist, aber niemals 200€ wert ist. Zu dem Herrn der meinte, es wäre doch praktisch beide standarts in einem Gerät zu vereinen, hier ein kleines Problem: Warum soll ein AMD Nutzer den Aufpreis für Gsync zahlen ? Das kauft dann doch keiner.
Ausserdem: Warum stellt sich überhaupt jemand einen 144Hz Monitor auf den Schreibtisch und will dann mit weniger als 60FPS zocken, weil erst dort bringt Gsync/Freesync ja wirklich was. Egoshooter wie CS oder COD laufen bei so einem Monitor mit passender GraKa sowiso mit mehr als 100FPS, dann hält sich sowiso das Tearing in Grenzen.
Naja, ich bin eher schon ein Verfechter von Freesync bzw dem AdaptiveSync standart. Standart ist für den User halt doch in 99% der Fälle besser als Proprietär. Und ob der monitor jetzt mit 30Hz funktioniert oder 35Hz macht in meinen Augen keinen allzu großen Unterschied.
 
Wolfsrabe schrieb:
Es geht einfach darum, daß man sich wünscht, daß nvidia den freesync-standard unterstützt, also daß Besitzer von nvidia-Grafikkarten auch freesync-Monitore verwenden können!
nVidia hält es aber nunmal für vorteilhafter das ganze in Hardware zu lösen als per Software und ich persönlich auch. Zum Beispiel benötigen adaptive Refreshraten auch besondere Overdrive-Algorithmen, die die Framerate mit berücksichtigen und das kannst du halt nunmal nur direkt in Hardware machen und nicht per Treiber.

Mit DP 1.3 wird sich das aber auch alles wieder ändern. Dann wird nVidia auch keine Module mehr verwenden (tun sie ja auch bei Laptops mit eDP 1.2 nicht) und man wird DP 1.3 Monitore sicherlich auch herstellerübergreifend nutzen können. Die Notwendigkeit des Hardwaremoduls besteht ja nur beim DP 1.2 Standard.

Wenn die sich also eine schöne Hardwarelösung ausgedacht haben, die deren Qualitätsstandards entspricht, warum sollen sie jetzt noch jede Menge Arbeit in die Treiberentwicklung investieren um einen AdaptiveSync fähigen Treiber zu erstellen und zu pflegen, zumal dieser Treiber immer wieder an neue Monitore angepasst werden muss, sobald diese auf den Markt gebracht werden.
Der umgekehrte Weg ist doch viel simpler. Nicht der Treiber hat die monitorspezifischen Settings zu beinhalten, sondern der Monitor selbst.


EDIT: Es darf einfach nicht sein, daß einem als Besitzer eine teuren Grafikkarte nur der halbe Monitormarkt offensteht, weil die eine Hälfte nur Freesync und die andere Hälfte nur G(ay)-Sync hat. :freak:
Und demnächst verlangst du noch, dass du mit deinem iPhone auch Android Apps ausführen kannst, mit deinem Bahnticket Taxi fahren kannst oder mit McDonalds-Gutscheinen beim Subway ein Sandwich bestellen kannst, oder was?

Natürlich ist es Unternehmen erlaubt ihre eigenen Lösungen für Dinge anzubieten und zu implementieren. Es ist nicht nur erlaubt, sondern absolut gang und gäbe.
 
Lars_SHG schrieb:
Hmm, große Diagonale bei Ultra HD kann ich mir ja noch halbwegs interessant vorstellen - auch wenn keine derzeitige Graka das vernünftig schafft dazustellen!

Aber dieser Hz-Wahn bei riesigen Diagonalen verblüfft mich!
Für was sollen die gut sein? CS spielen bei niedrigsten Einstellungen und dann vielleicht 1.024 x 768 pixel um bei 27" oder noch größer damit die 165 oder 200 Hz zu schaffen sind? Das muss doch aussehen wie Minecraft?

Erschließt sich mir nicht......aber es wird wohl eine Käuferschaft geben, sonst gäbe es diese Geräte ja wohl nicht!?!

Gibt Menschen so wie ich es einer bin, der längst der platten 2D Welt entflohen sind.

Und genau wir freuen uns, wenn durch +120 Hz endlich auch bei großen Monis 3D Vision rein technisch gesehen möglich wäre.
 
Schade, dass die wenigstens Leute hier Ahnung von der Marktwirtschaft haben, denn dann wüssten sie, was NVidia da eigentlich treibt.

Was wissen wir?
Der PC Markt, ist zumindest im Bereich "Spiele" am sinken, ergo gehen die Verkäufe runter.
Was tut der Markt?
Vor allem Nvidia ist eben seit Jahren darauf bedacht, ihre Waren so hochpreisig wie möglich anzubieten, um generell die Marktpreise so hoch wie möglich zu halten.
Deshalb gibt es überhaupt Gsync.
Würde es nur FreeSync geben, würde es nur einen lächerlichen Aufpreis geben, gegenüber Monitoren mit älteren DP Versionen.
Außerdem würde es eine breitere Auswahl geben.
Durch GSync kann Nvidia die Preise eben oben halten, was auch Einfluß auf die FreeSync Geräte hat.
Denn eigentlich haben diese ja lediglich eine neue Version eines Standardanschlusses, was normalerweise nur einen marginalen Aufpreis bedeutet.

Das Problem an der Sache ist, dass sich Nvidia dadurch ihren eigenen Markt langfristig zerstört, da beim Hochpreisverfahren auch sehr viele Leute "abspringen", und dann eben auf Alternativen überspringen.
Sieht man ja gut an den aktuellen Spielen auch, dass Nvidia's Eigenentwicklungen fast nur noch marginal eingesetzt werden bei Nvidia Games.
Mit Batman wurde ja sogar ein Spiel vorläufig vom Markt genommen, weil es nicht lief.


Auf gut deutsch:
Für die Kohle, wie so ein GSync Monitor kostet, kaufe ich mir einen fetten TV, aus dem gehobenen Segment, und eben eine Konsole dazu.
 
Tronx schrieb:
Komisch, egal welche neutralen Test ich mir so anschaue, nie gewinnt einer der beiden Techniken, wie auch, sind ja fast identisch. Wenn, dann klingt deine Aussage nicht logisch.

Zumindest im Blintest kommt G-Sync besser weg -> Blindtest von Tomshardware

Da kann man natürlich auch wieder dran rumnörgeln. Ich finds aber gut, dass sie endlich mal nicht irgendwelche Messgeräte im Labor befragt haben, oder Software die irgendwelche Zahlen misst, sondern den Spieler selbst und dass sie den Eindruck bewerten, den die beiden Techniken auf den Spieler machen.
 
Zuletzt bearbeitet:
Wow habe mir zwar gerade erst den Acer Predator IPS mit Gsync gekauft und nach mehreren Versuchen kam dann auch endlich ein funktiontstüchtiges Modell an, aber der 34" könnte mal echt ein Hammer werden. Wandhalterung habe ich zum Glück nur bei
der Spannweite von knapp 88 cm wirds eng ... dafür aber schöööön :)
 
moquai schrieb:
Ach so, ich ging davon aus, dass Du auf meinen Beitrag von 10:23 Uhr geantwortet hast, dass nicht jeder Kunde Kundengängelung / Kundenbindung möchte. :p

äh, ich weiß ja nicht
aber ich kann mir nicht wirklich vorstellen, dass das überhaupt jemand mag^^
 
noxon schrieb:
nVidia hält es aber nunmal für vorteilhafter das ganze in Hardware zu lösen als per Software und ich persönlich auch. Zum Beispiel benötigen adaptive Refreshraten auch besondere Overdrive-Algorithmen, die die Framerate mit berücksichtigen und das kannst du halt nunmal nur direkt in Hardware machen und nicht per Treiber.

Diese Aussage wäre mir neu. Quelle die das widerlegen? Nvidia hat sich selbst verraten indem sie es indirekt zugegeben haben, sie könnten, aber sie wollen - vorerst - nicht.

noxon schrieb:
Wenn die sich also eine schöne Hardwarelösung ausgedacht haben, die deren Qualitätsstandards entspricht, warum sollen sie jetzt noch jede Menge Arbeit in die Treiberentwicklung investieren um einen AdaptiveSync fähigen Treiber zu erstellen und zu pflegen, zumal dieser Treiber immer wieder an neue Monitore angepasst werden muss, sobald diese auf den Markt gebracht werden.
Der umgekehrte Weg ist doch viel simpler. Nicht der Treiber hat die monitorspezifischen Settings zu beinhalten, sondern der Monitor selbst.

Ach komm schon, für fast jedes Spiel muss der Treiber optimiert werden. Für mich sind das keine Gründe einen gemeinsamen Standard NICHT zu unterstützen.

noxon schrieb:
Und demnächst verlangst du noch, dass du mit deinem iPhone auch Android Apps ausführen kannst, mit deinem Bahnticket Taxi fahren kannst oder mit McDonalds-Gutscheinen beim Subway ein Sandwich bestellen kannst, oder was?

Wie kommen nur die Leute auf diese IOS/Android Apple/Samsung Vergleiche?

Tankt ihr auch Diesel im Benziner nur weil es Billiger ist?

noxon schrieb:
Natürlich ist es Unternehmen erlaubt ihre eigenen Lösungen für Dinge anzubieten und zu implementieren. Es ist nicht nur erlaubt, sondern absolut gang und gäbe.

Natürlich, aber das hat mit gesundem Wettbewerb nichts zu tun, zumal es EINEN Standard gibt. Völlig schleierhaft wie man da noch zu Gsync hält. Diese Aussage hätte ich auch bei AMD getroffen.
Hätte AMD kein Mantle gebracht, würden wir heute kein DX12 sehen! Auch hier hatte AMD Nvidia einen Standard angeboten und wer weis, hätte Nvidia zugesagt und mitgemacht, hätte man eventuell Windows eines Tages als Spiele OS ablösen können. Aber der Traum ist dahin.


Wer kann sich noch an BluRay und HD-DVD erinnern, stellt euch das heute mal vor. Der einzige Unterschied ist, Sony erlaubt die Nutzung, Nvidia würde AMD keine Nutzung erlauben. Aber wozu, es gibt bereits einen Standard.
 
Zuletzt bearbeitet:
Tronx schrieb:
Komisch, egal welche neutralen Test ich mir so anschaue, nie gewinnt einer der beiden Techniken, wie auch, sind ja fast identisch. Wenn, dann klingt deine Aussage nicht logisch.
Du musst dir nicht mal Tests ansehen, sieh einfach mal auf Geizhals, dort siehst du das G-Sync eine größere Hz-Bandbreite unterstützt.

Du meinst, ein offener Standard den Nvidia bewusst nicht unterstützt ist Mist? So verblendet sind Verbraucher die sich kaum informieren. Würde jemand sagen "sorry leute, aber ich habe nur Nvidia, ich muss mir ein Gsync kaufen". sehe ich ein, aber um zu behaupten, es sei die bessere Technik und hat das recht seine Marktposition zu verbessern um den Konkurrierenden auszuschalten, kann ich als Verbraucher auch nicht unterstützen. Ich bin auch dafür das Gsync schnell von der Oberfläche verschwindet.

Apple Vergleich, klingt nicht wirklich logisch.
Zuerst legst du mir Worte in den Mund, danach beleidigst du, danach kommt parteiische Propaganda, und als letztes noch nicht verstehen wollen :freak: du bist mir schon ein ganz komischer Kauz :lol:

Ich denke mal du solltest einen Gang herunter schalten und andere nicht das Schreiben verbieten. Das Thema Gsync passt hier wunderbar rein und sollte auch kritisch besprochen werden.
Ja ne is klar, Beiträge die nur Deformieren, anstacheln und verärgern sollen passen und akzeptabel sein, und meine Kritik seiner Wortwahl nicht, das soll noch mal einer verstehen wollen:freak:

Die leidtragenden sind wir Käufer beider Lager, Nvidia und AMD Käufer müssen sich JETZT genau überlegen was sie in Zukunft verbauen werden. Den Mist werde ich nicht mitmachen.
Komischer Satz, weclhe Grafikkarten du dir kaufst, also auf welche Technik du dich selbst bindest, kann jeder aus deinem Beitrag herauslesen.
 
noxon schrieb:
Ne. Das sagt nur, dass sich Asus nicht per dummen Social Engineering Versuch kurz vor der IFA die Information aus der Nase ziehen lässt, dass die neue G-Sync Monitore vorstellen werden.

Nein, die Anfrage war explizit wegen des PG279Q. Ich frage da schon seit einigen Monaten an. Erst hieß es "Oktober", dann " Ende September, wir sind im Zeitplan" und nun "wir wissen gar nichts mehr".

Wohl gemerkt kommen diese Aussagen vom Vertrieb und nicht einfach nur vom Kundensupport oder ähnlich.
 
--> schrieb:
Du musst dir nicht mal Tests ansehen, sieh einfach mal auf Geizhals, dort siehst du das G-Sync eine größere Hz-Bandbreite unterstützt.

Ohje, du nimmst jetzt wirklich eine Preissuchmaschine als Hauptgrund für deine Aussagen das Gsync besser ist? Ernsthaft? Zum Totlachen, ne, noch besser, traurig das solche Leute ihren Senf abgeben.

--> schrieb:
Zuerst legst du mir Worte in den Mund, danach beleidigst du, danach kommt parteiische Propaganda, und als letztes noch nicht verstehen wollen :freak: du bist mir schon ein ganz komischer Kauz :lol:
Was ist? Du fühlst dich beleidigt, wegen welchem Wort? Muss dich wohl mit Samthandschuhen anfassen? Du meinst das Wort "verblendet" oder? Schau doch mal nach was das ist. Zumindest ist das keine Beleidigung, dein Kauz nehme ich positiv ;-)

--> schrieb:
Ja ne is klar, Beiträge die nur Deformieren, anstacheln und verärgern sollen passen und akzeptabel sein, und meine Kritik seiner Wortwahl nicht, das soll noch mal einer verstehen wollen:freak:

Kapier ich nicht.

--> schrieb:
Komischer Satz, weclhe Grafikkarten du dir kaufst, also auf welche Technik du dich selbst bindest, kann jeder aus deinem Beitrag herauslesen.

Oha, jetzt solltest du aber ganz viel aufpassen das du dich selbst nicht ins Abseits manövrierst. Ach komm, ich helfe dir.
Ich nutze natürlich AMD in meinem Rechner und 3 mal Nvidia in anderen Rechnern.
Seitdem bekannt ist was Nvidia da treibt, habe ich kein gutes Gefühl dabei mir eine Nvidia zuzulegen. Aber das sei doch wohl erlaubt?
 
Hmm ist schon bekannt ob beim PG279Q das selbe Panel wie beim MG279Q und dem Acer XB270HU verbaut wird?
 
Uuh der 34er ist schon sehr geil, auch wenn FreeSync wohl günstiger gewesen wäre. Gebogen, 34" mit 1440p und 21:9. Allerdings hatte ich gehofft, dass er mindestens 120 Hz hat, wenn nicht sogar 144. Aber so langsam kommen Sie, die wirklich interessanten Monitore.
 
Tronx schrieb:
Diese Aussage wäre mir neu. Quelle die das widerlegen? Nvidia hat sich selbst verraten indem sie es indirekt zugegeben haben, sie könnten, aber sie wollen - vorerst - nicht.
Nennt sich variable Overdrive.
varibale-refresh-rate.png


Unfortunately, with variable response technology, the monitor no longer knows exactly when the next refresh window is going to be. In this situation, if overdrive continues to work in the same fashion, the pixels don't line up with the timing of the data coming from the graphics card, causing visible ghosting. According to Nvidia, this is what's happening with FreeSync, and G-Sync's variable overdrive tech solves it. Variable overdrive tries to predict when the next frame will arrive, and adjusts the timing of the overdrive to compensate. While this system will never be 100 percent accurate, causing a reduction in colour accuracy, it does help reduce ghosting, as evidenced by how well G-Sync works on the desktop.

Ist übrigens auch nicht der einzige Vorteil, den dir das Hardwaremodul gegenüber dem Treiber bietet.
Ich hätte aber gerne mal eine Quelle gesehen, wo nVidia angeblich zugegeben haben soll, dass sie es auch ohne Hardware könnten aber nicht wollen. Da bin ich jetzt echt mal gespannt.


Ach komm schon, für fast jedes Spiel muss der Treiber optimiert werden. Für mich sind das keine Gründe einen gemeinsamen Standard NICHT zu unterstützen.
Es stimmt, dass man vieles auch im Treiber machen kann. Auf Notebooks versucht nVidia zum Beispiel dieses variable Overdrive durch spezielle Shader zu ersetzen, die das Bild vor der Ausgabe noch immer noch etwas bearbeiten um auf dem Monitor letztendlich eine Art Overdrive Effekt hervorzurufen. Das alles ist aber alles nicht so gut wie eine rein hardwarebasierte Lösung.


Natürlich, aber das hat mit gesundem Wettbewerb nichts zu tun, zumal es EINEN Standard gibt.
Mit diesem Standard lassen sich aber nicht so gute Ergebnisse erzielen wie mit nVidias Lösung. Verstehst du das nicht? Was nutzt mir ein Standard, wenn mir dessen Features nicht ausreichen um meine Ansprüche gerecht zu werden?

Verstehst du nicht, dass ich keinen Monitor auf AdaptiveSync Basis haben will und ich mich nicht mit dessen Unzulänglichkeiten abfinden will? Ich zahle gerne den Aufpreis für den besseren Monitor.

Hätte AMD kein Mantle gebracht, würden wir heute kein DX12 sehen! Auch hier hatte AMD Nvidia einen Standard angeboten und wer weis, hätte Nvidia zugesagt und mitgemacht, hätte man eventuell Windows eines Tages als Spiele OS ablösen können. Aber der Traum ist dahin.
Auch das ist mal wieder großer Tobak. Mantle hat zwar Druck auf MS ausgeübt, aber ein offener Standard den nVidia hätte adaptieren können war es keineswegs. Mantle stand unter voller Kontrolle von AMD. Änderungen und die Weiterentwicklung der API waren lediglich AMD vorbehalten. Meinst du ein Hersteller wie nVidia lässt sich auf so etwas ein und lässt sich vom Konkurrenten vorschreiben was er in seine GPU für Features zu implementieren hat? Wovon träumst du denn nachts?
Abgesehen davon hat AMD selbst bis heute keine offizielle Spezifikation von Mantle veröffentlicht und mittlerweile auch bekannt gegeben, dass es niemals eine geben wird.

Und zu Windows ablösen kann ich ja wohl nur lachen. AMD hat letztens auf der GDC in einem Vortrag ja auch selbst gesagt, dass DirectX der Standard schlechthin sei, wenn es um Spielenwicklung geht. Da kommt man als Entwickler einfach nicht drum herum.
 
Zuletzt bearbeitet:
DerBaya schrieb:
Ich hab den PG278Q, hab null Probleme damit und G-Sync ist einfach eine Offenbarung.
​Jeder der was anderes behauptet muss schlicht nur neidisch sein oder hat's noch nicht erlebt - oder beides :)
Der 34"er gefällt mir schon sehr, sehr gut <3

So siehts aus! So schnell wird da garnix sterben bei dem Markanteil von Nvidia. Und wer schon nen G-Sync Monitor hat wird bestimmt nicht wieder einen ohne kaufen wollen.
 
Zurück
Oben