News G-Sync-Displays: Asus PG348Q mit 34", PG279Q mit 165 Hz und PG27AQ mit UHD

Gefreut hatte ich mich ja, als News zu gleich zwei neuen 21:9 im RSS lagen. Tja. Nummero 1 war ein Acer, 35" VA (!), Adaptive Sync, aber potthässlicher Gaymer-Fuß, "gut, kann man sicherlich tauschen, wenn er nen VESA-Mount hat" . Oh...2560x1080. Nö, kommt nicht in die Tüte.
Aber da ist ja noch ein Asus übrig...3440x1440, IPS, 100 Hz. Oh...G-Sync. Naja, dann kratzt mich der Standfuß auch nicht mehr.

Wart ich halt weiter. Wer wird mein Geld wohl kriegen? Ich tipp weiterhin auf AOC, wenn sie in fünf Jahren dem u3477Pqu AS und vielleicht ein wenig Krümmung spendieren.
 
G-Sync schön und gut. Es muss auch garnicht verschwinden. Wenn Nvidia der Meinung ist das G-Sync einen entsprechenden Mehrwert bietet, bitte. Dann sollten Sie einfach die Unterstützung für Adaptive Sync im nächsten Treiber bereitstellen und die Kunden mit Nvidia-Karten können selbst entscheiden ob der Monitoraufpreis für G-Sync gerechtfertigt ist oder nicht. (Das dies möglich ist wurde ja mit Hilfe von Laptops längst aufgezeigt) Bei mir schlägt trotz GTX 970 die Tage ein Monitor ohne G-Syncmodul aber mit Adaptive Sync Unterstützung auf. Mit Hilfe meiner alten 7970 werd ich dann mal testen ob mir FreeSync taugt.
 
noxon schrieb:
Nennt sich variable Overdrive.
varibale-refresh-rate.png




Ist übrigens auch nicht der einzige Vorteil, den dir das Hardwaremodul gegenüber dem Treiber bietet.
Ich hätte aber gerne mal eine Quelle gesehen, wo nVidia angeblich zugegeben haben soll, dass sie es auch ohne Hardware könnten aber nicht wollen. Da bin ich jetzt echt mal gespannt.

Du hast aber schon zwischen den Zeilen gelesen, ich sagte inoffiziell, aber siehe hier

https://www.computerbase.de/2015-01/freesync-bei-nvidia-ist-sehr-unwahrscheinlich/

hier noch besser erklärt

http://www.pcgameshardware.de/LCD-H...m-Teil-des-DisplayPort-Standards-12a-1120899/

hier auch

http://www.pcgameshardware.de/LCD-H...c-ist-ein-fertiges-Produkt-Interview-1121435/

Das was du meinst ist der Scaler, ja das sagt Nvidia und nun sollten wir alles glauben, genauso die 4GB, genauso DX12 usw...man kann alles künstlich erzwingen, da ist Nvidia Meister.

Achja wegen Mantle

bitte schön....eben einfach mal so raus gesucht, habe auch keine Lust mehr "blinden" alles vor zusetzen.

http://www.hardwareluxx.de/index.ph...ntle-der-konkurrenz-von-intel-und-nvidia.html

zum Rest sage ich nix mehr

Linux ist für AMD wichtig, siehe auch SteamOS, die Reise könnte eines Tages dahingehen.

Hier mal ein eventueller Beweis wegen Gsync Fake?
http://www.planet3dnow.de/vbulletin...vidia-nutzt-AdaptiveSync-der-VESA-fuer-GSync?

PS: ich muss mit allem nicht recht haben, aber ich habe meine Meinung dazu und ich kann zwischen den Zeilen lesen und weis, dass was Nvidia da macht ist nur Macht ausüben und das werde ich nicht unterstützen. Meine Meinung.
 
Zuletzt bearbeitet:
Stardrink schrieb:
Für die Kohle, wie so ein GSync Monitor kostet, kaufe ich mir einen fetten TV, aus dem gehobenen Segment, und eben eine Konsole dazu.

Was will ich mit nem "Fetten" TV, der auch nur 60 Hz kann (und von ner Konsole mit 30 FPS @ 900p gefüttert wird) und dabei nur 55 oder 60 Zoll groß ist und ich 2-3 Meter weit weg sitze?

Ein 34 Zoll Ultra Wide Monitor bietet da relativ zum Abstand ein mindestens doppelt so großes Bild wie dein "Fetter" TV. Und zeigt durch das breite Seitenverhältnis auch noch viel mehr von der Spielwelt.


Bis du am TV bei üblichen Sitzabständen das selbe Mittendrinn gefühl hast, musst du auf TVs mit Diagonalen von 80-100 Zoll oder mehr warten oder dir ne Leinwand kaufen.
Wobei das bei Konsolen wieder für die Katz ist, da das FoV extra auf die üblichen Abstände ausgelegt ist. Auf ner riesen Leinwand mit nem 75° FoV zocken ist dann auch eher, ich sag mal... scheiße... (wobei das mit den neuen Konsolen in einigen Spielen schon an PC Verhältnisse angepasst wurde)


Gut, mit G-Sync hat das jetzt natürlich nicht viel zu tun. Ich muss auch sagen, es ist kein Must Have, da man mit konstant 60 FPS auf nem 60 Hz Monitor und Vsync exakt das selbe erreicht wie mit G-Sync. Man muss halt 60 FPS halten können. 1 Frame weniger und man hat wieder das geruckel, das Gsync und co vermeiden Da ist halt dann jede Framerate "ruckelfrei".
 
Zuletzt bearbeitet von einem Moderator:
Es ist kein "Must Have", wenn man es nicht kennt ...Wenn man jedoch GSync mal erlebt & gespürt hat, also kennt, ist es ein "Must Have" ... ;)

@Stardrink
Wie oft willst Du eigentlich noch deine Kosten/Nutzen-Parolen niederschreiben & für eine Preisspanne_X lieber eine Konsole mit entsprechender Glotze den Vorzug geben?
DAS ist hier völlig fehl am Platz, denn schließlich sind gewisse Interessenten alle mündige Bürger ...^^
 
Du hast das schwammige Gameplay wenn V-sync on ist noch vergessen:D
 
Je nach Gameengine ist das richtig & stimmt, dass habe ich völlig vergessen, da ich einfach seit einer gewissen Zeitspanne_X GSync verwöhnt bin ...:D

Mracpad schrieb:
...Bei mir schlägt trotz GTX 970 die Tage ein Monitor ohne G-Syncmodul aber mit Adaptive Sync Unterstützung auf. Mit Hilfe meiner alten 7970 werd ich dann mal testen ob mir FreeSync taugt.
Der Test wird scheitern, da eine AMD 7970 kein Freesync unterstützt. In solch einem Fall würde ich die 970er "abstoßen" & eine geeignete AMD-Graka ordern. Alternativ die Moniwahl (nochmals) überdenken ...^^
 
SuddenDeathStgt schrieb:
Der Test wird scheitern, da eine AMD 7970 kein Freesync unterstützt. In solch einem Fall würde ich die 970er "abstoßen" & eine geeignete AMD-Graka ordern. Alternativ die Moniwahl (nochmals) überdenken ...^^

Ups. :D

Erstmal muss ich eh checken ob ich ohne die GTX die Kontrolle über mein Gehäuse behalte... (Lüftersteuerung und Beleuchtung erfordert ne Nvidia Karte -.-* )

Monitor Wahl ist aber relativ gefestigt. AdaptiveSync ist nur n Bonus. :)
 
ich hab nicht viel übrig für das ganze OMG ROG 1337 getue und das design, aber... der 34' ist die perfekte kombination an features. ich hab leider eine gtx 980, also muss ich dem ganzen gsync zeug gezwungenermassen nachrennen... glücklicherweise bin ich pleite, deshalb hat nvidia noch etwas zeit mit dem quatsch aufzuhören und endlich freesync zu unterstützen.
 
SuddenDeathStgt schrieb:
Es ist kein "Must Have", wenn man es nicht kennt ...Wenn man jedoch GSync mal erlebt & gespürt hat, also kennt, ist es ein "Must Have" ... ;)

Eben nicht, 60 FPS @ 60 Hz mit Vsync sind technisch exakt das selbe, wie G-Sync mit 60 FPS.
Der Monitor bekommt alle 16,66 ms ein neues Bild um gibt dieses 1:1 aus, keine doppelt angezeigten Frames, kein ruckeln, 60 Bilder pro Sekunde, wie sie perfekter nicht sein könnten.

G-Sync hilft einzig und alleine dann, wenn die Hertz des Monitors nicht mit den FPS übereinstimmen, dann passt G-Sync die Frequenz des Monitors entsprechend an. Bei 60 FPS auf einem 60 Hz Display ist genau das aber nicht nötig. Die Hertz des Monitors laufen ja schon exakt synchron zum 60 FPS Input, genau wie bei G-Sync.

Nachteil ist eben wie gesagt, dass 60, 30 und 20 FPS die einzigen Frameraten sind, die auf nem Monitor ohne G-Sync genauso perfekt dargestellt werden, wie auf einem mit G-Sync bzw. Adaptive Sync. Deswegen muss man ja auch wie schon gesagt die Settings so wählen, dass man garantiert immer 60 FPS konstant erreicht, sonst erzielt man den Effekt nicht. 59 FPS sind dann halt nicht akzeptabel...

Blood011 schrieb:
Du hast das schwammige Gameplay wenn V-sync on ist noch vergessen:D

Dafür kann man statt Triple Buffering das Double Buffering nutzen. Das reduziert den Input Lag enorm. Oder einfach adaptive Vsync, da wird auch Double Buffering genutzt.
 
Zuletzt bearbeitet von einem Moderator:
Der 34 Zoller gefällt mir ja super. Leider ist der für mein Arbeitsplatz zu groß.
Aber PG279Q, den fasse ich ins Auge. Von den Daten hört er sich super an. Mal schauen, wenn die ersten Tests & Reviews von Nutzer da sind.
 
...59 FPS sind dann halt nicht akzeptabel...
Wir wollen es mal nicht übertreiben. "Von den nackten Zahlen her" magst Du recht haben, dennoch gibt es da mMn einen spürbaren Unterschied. Du kannst mir glauben, ich habe viele Jahre mit oder ohne VSync gedaddelt und wenn bspw. mal mit VSync & es wurden je nach Soft & Setting
auch dauerhaft die 60FPS erreicht, dann kommt das einer gewissen GSync-Smoothness dennoch nicht gleich. Unterschiede gibt es auch im Bereich "Inputlag", besonders wenn VSync zugeschaltet wird u. da gibt es je nach Gameengine ebenfalls Unterschiede.
AdaptivVSync ist ein annehmbarer Kompromiss, allerdings schaltet sich der VSync unterhalb der gewählten Hertzfrequenz ab & neigt daher folglich bzw. gelegentlich immer noch zum Tearing. Ich denke mal, wenn Du Dir mal ggf. einen GSync-Moni orderst oder vor einem sitzt,
dann wirst Du es auch verstehen & vorallem auch "spüren" ... :-)
 
Tronx schrieb:
Du hast aber schon zwischen den Zeilen gelesen, ich sagte inoffiziell, aber siehe hier
Ich darf mal erinnern worum es hier eigentlich ging.
Ich habe behauptet, dass nVidia Dinge in Hardware realisieren kann, die sie in Software nicht realisieren können und du hast gesagt sie könnnen es schon, wenn sie nur wollten und das hätten sie indirekt auch zugegeben. Hier ging es nicht darum, ob sie FreeSync implementieren könnten.

All dine Links zeigen nur, dass nVidia nur in der Lage wäre FreeSync zu implementieren und das ist ja auch logisch. Das heißt aber nicht, dass sie auch all die Freatures, die G-Sync bietet einfach perSoftware anbieten können.

Das was du meinst ist der Scaler
Die Scaler in einem FreeSync Monitor können aber nicht vorhersagen, ob das nächste Frame früher oder später kommt als das vorherige. Denen fehlt jegliche Logik bezügliche adaptiver Framratenanpassung. Also können sie auch nicht die Overdrivespannung dementsprechend anpassen.

bitte schön....eben einfach mal so raus gesucht, habe auch keine Lust mehr "blinden" alles vor zusetzen.
http://www.hardwareluxx.de/index.ph...ntle-der-konkurrenz-von-intel-und-nvidia.html
Ich weiß nicht wer von uns beiden hier blind ist, aber vielleicht solltest du meine Postings und deine Artikel mal genauer durchlesen.
Mantle stand zwar zur freien Nutzung für jedermann offen, aber nicht die Spezifikation und Weiterentwicklung der API. Das lag allein in AMDs Hand.
Wenn es also um Mantle 2.0 gegangen wäre hätte kein anderer ein Mitspracherecht bekommen welche Features dort einfließen werden außer AMD. Erst recht nicht nVidia. Meinst du also nVidia lässt sich auf so einen "Standard" ein?

Und was aus dem " Richard Huddy, seines Zeichens Game Scientist bei AMD, hat nun angekündigt, dass das SDK bald öffentlich gemacht werden wird." haben wir ja auch gesehen. Ist niemals passiert. Spezifikation wurde niemals finalisiert. Im Grunde genommen hat Mantle also nie tatsächlich existiert, sondern nur in Vorabversionen für einige ausgewählte Entwickler.

Da sieht man, dass du keine Ahung hast. Das G-Sync Modul wird für DP 1.2 Monitore benötigt. Nicht für eDP 1.2 Laptop Monitore. Da gibt es nichts zu entlarven.
nVidia macht es auf Laptops kein Stück anders. https://www.computerbase.de/2015-06/nvidia-g-sync-fuer-notebooks-neue-monitore-und-fenstermodus/
Ich hab's doch selbst gesagt. Auf DP 1.3 Monitoren wird auch das G-Sync Modul sicherlich wieder entfallen, da PSR teil des Standards sein wird. Das Modul ist nur eine Krücke, die man bei 1.2 Monitoren benötigt um anständige Ergebnisse erzielen zu können. Die + Erweiterung des 1.2a Standards von AMD war eine andere Möglichkeit die zwar günstiger ist, aber einige qualitative Nachteile gegenüber dem Modul hat.

PS: ich muss mit allem nicht recht haben
Hast du nicht.

dass was Nvidia da macht ist nur Macht ausüben und das werde ich nicht unterstützen.
Musst du nicht.


Laggy.NET schrieb:
Eben nicht, 60 FPS @ 60 Hz mit Vsync sind technisch exakt das selbe, wie G-Sync mit 60 FPS.
Der Monitor bekommt alle 16,66 ms ein neues Bild um gibt dieses 1:1 aus, keine doppelt angezeigten Frames, kein ruckeln, 60 Bilder pro Sekunde, wie sie perfekter nicht sein könnten.
Das stimmt nicht. G-Sync erzeugt in diesem Fall auch weniger Lag während du mit V-Sync zusätzlichen Inputlag erzeugst. Das ist ein ganz wichtiger Unterschied.

Input-Lag: V-Sync vs G-Sync

Bevor ich VSync aktiviere, würde ich lieber einen Framelimiter auf 59 fps setzen. Ist fast genauso gut und erzeugt nur jedes 59ste Bild einen kleinen Tearing Effekt, dafür aber ohne Lag.
 
Zuletzt bearbeitet:
SuddenDeathStgt schrieb:
Wir wollen es mal nicht übertreiben. "Von den nackten Zahlen her" magst Du recht haben, dennoch gibt es da mMn einen spürbaren Unterschied. Du kannst mir glauben, ich habe viele Jahre mit oder ohne VSync gedaddelt und wenn bspw. mal mit VSync & es wurden je nach Soft & Setting
auch dauerhaft die 60FPS erreicht, dann kommt das einer gewissen GSync-Smoothness dennoch nicht gleich. Unterschiede gibt es auch im Bereich "Inputlag", besonders wenn VSync zugeschaltet wird u. da gibt es je nach Gameengine ebenfalls Unterschiede.
AdaptivVSync ist ein annehmbarer Kompromiss, allerdings schaltet sich der VSync unterhalb der gewählten Hertzfrequenz ab & neigt daher folglich bzw. gelegentlich immer noch zum Tearing. Ich denke mal, wenn Du Dir mal ggf. einen GSync-Moni orderst oder vor einem sitzt,
dann wirst Du es auch verstehen & vorallem auch "spüren" ... :-)


Du ignorierst einfach was ich geschrieben habe und scheinbar hast du auch nicht ganz verstanden, wozu Adaptive Sync gut ist. Du interpretiert irgend ne wundersame "smoothness" hinein, die in der Form gar nicht vorhanden ist.
Und du gehst scheinbar immernoch von schwankenden FPS aus, da du das Tearing von Adaptive Vsync erwähnst. Ich hab aber extra gesagt, dass es hier um EXAKT 60 FPS geht, nicht 1 Frame mehr und nicht 1 Frame weniger.

Es ist einfach extrem wichtig, dass genau das eingestellt ist, was ich sagte. Das macht nunmal den Unterschied aus, den Adaptive Sync normalerweise mit sich bringt und macht übrigens auch auch den Unterschied bei Konsolen aus.
Spiel mal am PC mit locked 30 FPS @ Vsync. Es fühlt sich sehr träge an und ruckelt Subjektiv. Nahezu unspielbar, da heutzutage standardmäßig fast immer Triple Buffering aktiv ist und das ist der Haken bei Vsync.

Auf Konsole ist es aber spielbar, da hier einfach nur Double Buffering oder Adaptive Vsync zum einsatz kommt. Das reduziert den Inputlag enorm und subjektiv steigt das Gefühl, dass es nun flüssiger ist. Das selbe gilt auch bei 60 FPS. Triple und Double Buffering macht hier letztendlich den Entscheidenden Unterchied, warum du G-Sync @ 60 FPS scheinbar flüssiger findest.


Und ja, ich habe einen G-Sync Monitor ausprobiert. Ist schon was tolles, da die Framerate egal ist. Aber das flüssige Bild das G-Sync erzeugt ist einfach nichts anderes, als das was man bei nem normalen Monitor bei 60 FPS @ 60 Hz mit Double Buffering (NICHT Triple Buffering) erreicht.
G-Sync bzw. Adaptive Sync sorgt einzig und alleine dafür, dass dieser Zustand bei jeder Framerate möglich ist und keine Frames mehr doppelt angezeigt werden müssen.



noxon schrieb:
Das stimmt nicht. G-Sync erzeugt in diesem Fall auch weniger Lag während du mit V-Sync zusätzlichen Inputlag erzeugst. Das ist ein ganz wichtiger Unterschied.

Input-Lag: V-Sync vs G-Sync

Bevor ich VSync aktiviere, würde ich lieber einen Framelimiter auf 59 fps setzen. Ist fast genauso gut und erzeugt nur jedes 59ste Bild einen kleinen Tearing Effekt, dafür aber ohne Lag.

Ich sehe keinen Test mit Double Buffering. Entweder explizit Triple Buffering oder "Vsync" im Windowed Mode, was nichts anderes ist als Triple Buffering.
 
Zuletzt bearbeitet von einem Moderator:
Und ja, ich habe einen G-Sync Monitor ausprobiert. Ist schon was tolles, da die Framerate egal ist. Aber das flüssige Bild das G-Sync erzeugt ist einfach nichts anderes, als das was man bei nem normalen Monitor bei 60 FPS @ 60 Hz mit Double Buffering (NICHT Triple Buffering) erreicht.
Ich lass Dir mal den Glauben & gut ist.^^
Bedenke auch noch ...GSync fähige Monis haben "eine Range" von bis zu 144Hz & kommende Modelle werden da auch noch mehr erreichen können. Je nach Hardwareausstattung, Soft & Setting ist das traumhaft, aber wem sage ich das? ;-)
 
Ich sehe keinen Test mit Double Buffering. Entweder explizit Triple Buffering oder "Vsync" im Windowed Mode, was nichts anderes ist als Triple Buffering.
Also ich sehe in den Ergebnissen "VSync OFF, "G-Sync", "Vsync ON" und "Vsync + Tripple Buffering". Ist doch alles dabei, was man braucht.
 
Zuletzt bearbeitet:
noxon schrieb:
Also ich sehe in den Ergebnissen Vsync und Vsync + Tripple Buffering

Was meinst du denn damit? Erklär mal genauer.
Wenn ich 60 FPS habe und Vsync mit Double Buffering aktiv ist, dann hab ich auch 60 FPS (oder 120 FPS auf nem 120 FPS Monitor) wenn die Leistung dafür ausreicht.

Double Buffering hat nur den Nachteil, dass die FPS auf 30 bzw. die Hälfte der Monitorfrequenz begrenzt werden, sobald man 60 FPS unterschreitet. Aber man kann ja wie schon zig mal erwähnt Adaptive Vsync nutzen, das arbeitet auch mit Double buffering, nur sobald man 60 FPS unterschreitet wird Vsync einfach komplett deaktiviert, um den Einbruch auf 30 zu verhindern. Aber egal, weniger als 60 wollen wir ja sowieso nicht haben.


Na gut, ich belasse es mal dabei. Das Thema ist viel zu komplex, um es hier zu diskutieren. Spielt ruhig weiter mit eurem ruckeligen Settings oder werft euren aktuellen Monitore in die Tonne und kauft nen G-Sync/FreeSync Monitor, anstatt das bestmöglich auszunutzen, was ihr bereits habt.
Mir solls egal sein. Wollte nur darauf hinweisen, dass man mit 60 FPS @ 60 Hz mit Double Buffering das selbe Spielgefühl erreicht, wie mit G-Sync, aber wenns mir niemand glauben will, ist das nicht mein Problem. Ignorante community....

Ich hab wenigstens versucht, meine Behauptungen detailliert darzulegen, so dass es für jeden nachvollziehbar ist, was genau ich meine, das wird aber jedes Mal aufs neue pauschal als Unsinn abgetan, ohne auch nur ein Argument zu liefern oder auf das einzugehen, was ich gesagt habe.

Aber gut, hab ich halt mal wieder zu viel erwartet... Marketing Wins.

EDIT: Ja,
@ noxon jetzt hast du deinen Text gelöscht.

"Vsync On" = Vsync im Spiel aktiviert. Und das Spielinterne Vsync läuft bei den allermeisten Games mit Triple Buffering.
 
Zuletzt bearbeitet von einem Moderator:
Das klingt schon mal verdammt interessant... Bleibt nur die Frage ob 34 oder 27 Zoll. Bisher bin ich immer von 27" ausgegangen, aber 34" im 21:9 Format wär doch auch ne verdammt gute Option. Einer von den beiden wirds sicher werden...
 
Zurück
Oben