Bericht Nvidia „G-Sync“ im Praxistest

Tja, du hast eben nicht verstanden worum es geht. G-Sync ist ein Feature von Grafikkarte und Monitor. Das Input Lag von dem im Artikel gesprochen wird hat rein gar nichts mit den von dir erwähnten Punkten zu tun.
 
Wenn man das mal hochrechnet ist das ein enormer Speedboost mit G-Sync, da muss Mantle erst mal ran kommen und zwar in jedem Game. Zur Erklärung:

+ VSync muss ja dann nicht mehr eingeschaltet werden und das zieht mit unter ordentlich Leistung ca. 20%-50%

+ Dann kommt ja noch dazu das die FPS im normalen Bereich von 30-60FPS bei der man die Bildqualität massiv aufgedreht hat flüssiger rüber gebracht werden, die FPS also hochwertiger werden, also genau das Gegenteil von dem was AMD bei Multi GPU erst noch beheben muss(uns sogar bei single GPUs mal hatte): https://www.computerbase.de/2013-12/neuer-frame-pacing-treiber-von-amd-fruehestens-im-januar/

Fazit: Ich glaube G-Sync wird Mantle locker schlagen, da man eben nicht auf die Entwickler angewiesen ist, die dann eventuell sogar extra Bugs rein bringen. Von der Leistung her müssen wir noch auf Mantle Tests warten, aber im Schnitt rechne ich wenn ich das hochrechne mit min. 30%-50% mehr Leistung(gefühlt) bei G-Sync, als ein System mit Vsync ohne G-Sync. Ist schlecht genau zu definieren, da die stabilen super sauberen 30FPS von G-Sync nun so eine Gefühlssache sind wie die Microruckler(Fake-FPS).
 
Zuletzt bearbeitet:
Ich spiele (hauptsächlich Shooter) auf einem 60hz Monitor und da ist es ganz einfach. VSync mit tripple Buffer anschalten, FPS auf 59.6 begrenzen und schon hat man null input Lag und schöne ganze Bilder ohne Tearing.

Hat bisher immer wunderbar funktioniert. Und in der Hinsicht Bildfehler (z. B. Tearing) oder schwammiges Spielgefühl (tripple Buffer) bin ich seeeehr empfindlich ;-)
 
Zuletzt bearbeitet:
An den autor, ich habe einen qnix 27" 2560x1440p ips panel hochgetaktet auf 120hz und ich werde jetzt zur weihnachtszeit meinen benq 2420t 120hz tn-panel verkaufen, da diese bildqualität (1080p tn-panel) einfach sehr schlecht aussieht. Trotz des hochangepriesenen gamer monitors mit 120hz.
 
Kasmopaya schrieb:
Wenn man das mal hochrechnet ist das ein enormer Speedboost mit G-Sync, da muss Mantle erst mal ran kommen und zwar in jedem Game. Zur Erklärung:

+ VSync muss ja dann nicht mehr eingeschaltet werden und das zieht mit unter ordentlich Leistung ca. 20%-50%

+ Dann kommt ja noch dazu das die FPS im normalen Bereich von 30-60FPS bei der man die Bildqualität massiv aufgedreht hat flüssiger rüber gebracht werden, die FPS also hochwertiger werden, also genau das Gegenteil von dem was AMD bei Multi GPU erst noch beheben muss(uns sogar bei single GPUs mal hatte): https://www.computerbase.de/2013-12/neuer-frame-pacing-treiber-von-amd-fruehestens-im-januar/

Fazit: Ich glaube G-Sync wird Mantle locker schlagen, da man eben nicht auf die Entwickler angewiesen ist, die dann eventuell sogar extra Bugs rein bringen. Von der Leistung her müssen wir noch auf Mantle Tests warten, aber im Schnitt rechne ich wenn ich das hochrechne mit min. 30%-50% mehr Leistung(gefühlt) bei G-Sync, als ein System mit Vsync ohne G-Sync. Ist schlecht genau zu definieren, da die stabilen super sauberen 30FPS von G-Sync nun so eine Gefühlssache sind wie die Microruckler(Fake-FPS).


Meinst du Vsync oder Vsync + Tripple Buffer?

Korrekt implementiert braucht Vsync + TB absolut gar keine Leistung (theoretisch/prinzipbedingt natürlich schon ~1 FPS) . Deine 20-50 % gelten nur für Vsync ohne Tripple buffering. Hier fällst du dann bei nem 60 Hz Monitor sofort auf 30 FPS, wenn du unterhalb der 60 bist.

Es kann aber auch vorkommen, dass dir mit ausgeschaltetem TB trotzdem FPS werte zwischen 30 und 60 FPS angezeigt werden. Also 40, 50, 45 usw. eben alles dazwischen. Das kann passieren, wenn du ständig zwischen unter 60 und 60 + FPS schwankst.

Angenommen, deine Karte schafft im Sekundentakt mal 60 FPS, dann 55, 65, 50, 62, 59, 63, usw. es schwankt eben so um die 60 FPS.

Fakt ist nun, dass ohne Tripple buffering bei jedem wert unterhalb von 60 die FPS sofort auf 30 absacken. Aus oben genannten FPS werden mit Vsync dann 60, 30, 60, 30, 60, 30 usw..
Leider kann Fraps diesen Plötzlichen Wechsel nicht so schnell anzeigen, da es ungefähr 1-2 sec. dauert, bis er runtergezählt hat und dann wirklich statt 60 nur noch 30 FPS als gemessener Wert dasteht.

Wenn sich aber, während Fraps auf 30 runterzählt, in diesem Zeitraum, wie oben aufgeführt die FPS wieder schlagartig auf 60 ändern, muss Fraps erst wieder hochzählen, was wieder 1-2 sec dauert. Wenn das ständig schlagartig zwischen 30 und 60 FPS hin und her wechselt, wird Fraps einfach wegen der Trägheit der Messung einen Wert dazwischen anzeigen. Also z.B. 45 FPS, obwohl ständig ein abrupter Wechsel zwischen 30 und 60 FPS stattfindet. (was sich auch wesentlich ruckeliger als richtige 45 FPS anfühlt.)



Um es kurz zu sagen. Den leistungsverlust, den einige mit Vsync haben liegt nur am fehlenden Tripple buffering. Viele meinen, dass sie dann entweder 30 oder 60 FPS haben müssten, bei ihnen aber alle werte dazwischen auch angezeigt werden und folglich TB aktiv sein muss. Das muss aber nicht der Fall sein. Auch ohne Tripple Buffer zeigen Fraps und co aufgrund der Trägheit der Messung alle Werte zwischen 30 und 60 FPS an.

Diese hin und herspringen senkt natürlich dann auch deutlich die durchsschnitts FPS, wenn man sonst z.B. 50 FPS avg schaffen würde können daraus mit Vsync ohne TB auch schnell 40 oder 45 FPS werden und kein mensch merkt, dass das TB nicht aktiv ist.

Leider passiert das auch heute noch viel zu oft. Viele aktuelle Spiele unterstützen kein TB. Hier muss man dann mit D3D Overrider nachhelfen.
 
Zuletzt bearbeitet von einem Moderator:
Ich weiß nicht, warum in die Richtung entwickelt wird... Die eierlegende Wollmilchsau gibt es doch schon... nur irgendwie wills keiner verkaufen. LG produziert ein Panel namens "LM270WQ1-SLB1". Das hat lustiger weise ein IPS-Panel mit 2560x1440 UND 120 Hz in 27" ... für wohl so ziemlich alle hier das Nonplusultra, ich möchte nur gern wissen, warum man es hier nicht verkauft... genauso frage ich mich, warum es immernoch keine catleaps in europa gibt.
 
Zuletzt bearbeitet:
Der Markt für derart hochauflösende Panels wird einfach nicht sehr groß sein - abgesehen vom professionellen Umfeld (und dort braucht es weder niedrigen Inputlag noch 120 Hz) und von Technikenthusiasten wird 1440p wohl derzeit noch eine Randerscheinung sein, FullHD ist in den Köpfen der Leute drin, auch vermeintliche High-End-TV-Geräte bieten ja schließlich nur das - von den noch viel zu teuren 4K-TVs mit fehlender finaler Technologie (HDMI 2.0. etc.) mal abgesehen.
 
Wenn es diesen Monitore bei uns gäbe, dann würden zwei Stück für mich dabei rausschauen.

Das wäre ein Traum. 120Hz, IPS, WQHD, geringe Latenz (?) -> Top für Office, Filme und Spiele geeignet, dank des Panels und 120Hz :)
 
Ich will diese Eierlegende Wollmilschsau gar nicht haben - ich will die Mehrkosten für die übertrieben hohe Auflösung nicht mitzahlen. Ich will 1920*1200.
 
Pixelbrei :D *duckundweg*
 
Mal ne Frage, heißt es wirklich "stottern"? Ich dachte, dass stottern eine Störung des Redeflusses wäre. Wäre "ruckeln" nicht das bessere Wort?
Was ist denn genau der Unterschied zwischen "stottern" und "haken"? Was ist schlimmer?


Tearing durch das gleichzeitige Darstellen mehreren Bilder in einem Refresh-Zyklus und Stottern durch das Aufschieben von Bildern werden durch G-Sync effektiv verhindert.
Wurde dieser Satz etwa von einem English-Translater ins Deutsche übersetzt? Würde mich dann kaum wundern warum Stutter mit Stottern bzw. Gestotter übersetzt wird.
 
Zuletzt bearbeitet:
Prophetic schrieb:
Die eierlegende Wollmilchsau gibt es doch schon... nur irgendwie wills keiner verkaufen. LG produziert ein Panel namens "LM270WQ1-SLB1". Das hat lustiger weise ein IPS-Panel mit 2560x1440 UND 120 Hz in 27" ... für wohl so ziemlich alle hier das Nonplusultra, ich möchte nur gern wissen, warum man es hier nicht verkauft

Als jemand der im Jahr um die 30 Displays ausgiebig testet sage ich warum das Display für mich eben keine eierlegende Wollmilchsau ist:

- Auflösung ist zu hoch um ohne SLi/CF für mich akzeptable Frameraten zu liefern (DS und/oder hochwertige (RG)SSAA Modi sind für mich Pflicht)
- Schwarzwert ist schlecht (wie bei ALLEN am Markt befindlichen TFTs, ich persönlich kann bei den Jubelbewertungen von Prad & Co. nur immer mit dem Kopf schütteln, nur weil es bessere Schwarzwerte bei IPS/VA gibt werden die immer noch nicht zu einem "gut" sondern bleiben schwach in Verhältnis zu einem Röhrenmonitor von einst. Die Polarisator waren ja mal ein guter Ansatz der leider nicht weiterverfolgt wird.)
- Nur 120 Hz
- Kein lightboost-hack in 2D möglich (möchte ich in schnellen shootern nicht mehr missen)

Und da es keinen Monitor gibt der mich rundum glücklich macht habe ich immer mindestens 3 am Tisch befestigt und lebe je nach Anwendungsgebiet mit den jeweiligen Mängeln.

Und daran wird auch G-Sync nicht mehr wirklich was ändern, weil die Displays grundlegende Mängel haben die scheinbar keiner außer mir sieht.
 
@ Dr.Duschlampe

Ich als Anglistik-Student sage, "stottern" ist definitiv eine angenehme Umschreibung des Phänomens. Ich finde das Wort richtig gewählt. Ich glaube auch nicht, dass das unbedingt eine Übersetzung sein muss - der Bildfluss stottert genauso, wie der Redefluss - es ist natürlich eine bildhafte Beschreibung und eine, die viele verstehen.

Und wenn du nicht weißt, ob stottern oder hacken schlimmer ist: Was klingt denn schlimmer? Ich finde das, ohne jegliche Überlegung, wie man sowas in englisch umscheiben würde, ziemlich eindeutig.
 
Zuletzt bearbeitet:
MountWalker schrieb:
Ich als Anglistik-Student sage[...] Und wenn du nicht weißt, ob stottern oder hacken schlimmer ist: schlimmer?

Zwar biste Englisch-Theoretiker aber gehackt wird im Garten und aufm Haken hängt man seine Kleidung auf.
 
@ SKu

Ich habe Linguistik-Module und jeder, der Linguistik studiert bekommt schon im ersten Einführungsseminar und in der ersten Einführungsvorlesung beigebracht, dass diese Art der Sprachkritik ziemlicher Quatsch ist. (wenn er das nicht schon vorher im Abitur oder noch früher gelernt hat) Deine Sprachfertigkeiten sind sehr stark eingeschränkt, wenn du diese Bildebene nicht deuten kannst. Kann man mit Sprachunterricht alles erweitern, aber was nicht geht, ist die erste bedeutung eines Wortes kennen und dann behaupten, dass das Wort keine andere Bedeutung haben kann.

P.S.
Und gerade im Journalismus werden ständig auch sinnvoll neue Worte geschaffen. Manchmal verschwinden sie schnell wieder, manchmal etablieren sie sich auch und ich glaube Bildstottern hat sich schon etabliert.
 
Zuletzt bearbeitet:
Haken ist vielleicht weniger eindeutig - das ändert nichts an der Tatsache, dass Bildstottern imho sehr gut verständlich ist.
 
Laggy.NET schrieb:
Meinst du Vsync oder Vsync + Tripple Buffer?

Korrekt implementiert braucht Vsync + TB absolut gar keine Leistung (theoretisch/prinzipbedingt natürlich schon ~1 FPS) . Deine 20-50 % gelten nur für Vsync ohne Tripple buffering. Hier fällst du dann bei nem 60 Hz Monitor sofort auf 30 FPS, wenn du unterhalb der 60 bist.

Es kann aber auch vorkommen, dass dir mit ausgeschaltetem TB trotzdem FPS werte zwischen 30 und 60 FPS angezeigt werden. Also 40, 50, 45 usw. eben alles dazwischen. Das kann passieren, wenn du ständig zwischen unter 60 und 60 + FPS schwankst.

Angenommen, deine Karte schafft im Sekundentakt mal 60 FPS, dann 55, 65, 50, 62, 59, 63, usw. es schwankt eben so um die 60 FPS.

Fakt ist nun, dass ohne Tripple buffering bei jedem wert unterhalb von 60 die FPS sofort auf 30 absacken. Aus oben genannten FPS werden mit Vsync dann 60, 30, 60, 30, 60, 30 usw..
Leider kann Fraps diesen Plötzlichen Wechsel nicht so schnell anzeigen, da es ungefähr 1-2 sec. dauert, bis er runtergezählt hat und dann wirklich statt 60 nur noch 30 FPS als gemessener Wert dasteht.

Wenn sich aber, während Fraps auf 30 runterzählt, in diesem Zeitraum, wie oben aufgeführt die FPS wieder schlagartig auf 60 ändern, muss Fraps erst wieder hochzählen, was wieder 1-2 sec dauert. Wenn das ständig schlagartig zwischen 30 und 60 FPS hin und her wechselt, wird Fraps einfach wegen der Trägheit der Messung einen Wert dazwischen anzeigen. Also z.B. 45 FPS, obwohl ständig ein abrupter Wechsel zwischen 30 und 60 FPS stattfindet. (was sich auch wesentlich ruckeliger als richtige 45 FPS anfühlt.)



Um es kurz zu sagen. Den leistungsverlust, den einige mit Vsync haben liegt nur am fehlenden Tripple buffering. Viele meinen, dass sie dann entweder 30 oder 60 FPS haben müssten, bei ihnen aber alle werte dazwischen auch angezeigt werden und folglich TB aktiv sein muss. Das muss aber nicht der Fall sein. Auch ohne Tripple Buffer zeigen Fraps und co aufgrund der Trägheit der Messung alle Werte zwischen 30 und 60 FPS an.

Diese hin und herspringen senkt natürlich dann auch deutlich die durchsschnitts FPS, wenn man sonst z.B. 50 FPS avg schaffen würde können daraus mit Vsync ohne TB auch schnell 40 oder 45 FPS werden und kein mensch merkt, dass das TB nicht aktiv ist.

Leider passiert das auch heute noch viel zu oft. Viele aktuelle Spiele unterstützen kein TB. Hier muss man dann mit D3D Overrider nachhelfen.

TB ist auch nicht des Weißheits letzter Schluss, weil es die Milisekunden der Bildausgabe weiter verlängern.
Somit sich alles wieder schwammiger anfühlt.
 
Zurück
Oben