News Nvidia veröffentlicht Beispielvideo für Adaptive Vsync

Ist ja voll cool, so ein Adaptive VSync .... Kann ich auch weiter, wie bisher, ohne VSync spielen. Ich kenne aktuell kein Game, bei dem ich Tearingprobleme habe.
 
Tearing ist schrecklich. Das kann es nicht sein.
 
ich seh nur nerviges ruckeln in dem video. unerträglich diese kameraführung.
 
textract schrieb:
Ist ja voll cool, so ein Adaptive VSync .... Kann ich auch weiter, wie bisher, ohne VSync spielen. Ich kenne aktuell kein Game, bei dem ich Tearingprobleme habe.

Ich kenne aktuell kein Game, bei dem ich keine Tearingprobleme habe.
Bei egal welchem Spiel, wenn ich mich ohne VSync halbwegs schnell horizontal drehe, ist der Effekt technisch vorprogrammiert.

Ich versuche daher immer VSync an zu haben. Nur wenn ich in einem Spiel meist unter 60 FPS habe, (MMOs z.B.) schalte ich VSync komplett aus.

Daher finde ich dieses adaptive VSync wirklich gut. Es greift wenn ich 60 FPS habe, und wenn ich weniger habe, muss ich zwar mit tearing leben, habe dann aber zumindest mehr als 30 FPS bzw. keine Sprünge zwischen 30 und 60 FPS, was arg störend ist.

Zumal ist VSync gut da es die Frames limitiert und der Rechner dann keine unnützen 100+ Frames (ausnahme natürlich Shutterbrillen & Co., aber da laufen die Monitore eh mit 120 Hz) rechnet. Spart Strom und bringt dadurch weniger Lautstärke, weniger Wärmeentwicklung und eine geringere Gesamtlast auf dem System.
Wenn ein Spiel zu stark zwischen > 60 und < 60 FPS schwankt mache ich meist auch VSync aus und lasse das durch den bei NVidia eingebauten FPS Limiter auf 65 FPS limitieren.

So brauche ich das alles nicht, Adaptive VSync und gut ist, das Beste aus beiden Welten. :)
 
Ich hab noch nie Vsync benutzt und sehe auch keine direkten Unterschiede. Anscheinend hab ich mich dran gewöhnt. ^^

Das einzigste was ich bis jetzt in ein Game bemerkt hab, wenn ich BF3 zocke und ab und zu die fps von ka 90 fps auf 40 fps einstürzt, dann merke ich, dass das Game irgendwie ein wenig langsamer wird.

Aber alles andere, wie Tearing usw. keine spur.
 
Wenn man wirklich drauf achtet is der Unterschied leicht ersichtlich, da ich aber fast nur Source-basierende Spiele spiele und da die maus dann arg träge wird hab ich Vsync eigentlich immer aus. Wenn man sich richtig auf das Spielgeschehen konzentriert ist es meiner Meinung nach komplett egal ob Vsync an oder aus ist.
 
ich hab Vsync grundsätzlich an, weil tearing mmn. kaum zu ertragen ist.
in dem video sehe ich allerdings überwiegend auch nur ruckeln.
 
also für mich schaut das so aus, als ob man wenige große ruckler duch viele kleine ersetzt!
aber ob das besser ist... hmm...
 
120hz ist hier die optimalere Lösung. unabhängiger von Software(Lösungen) wer geld für eine spielekarte hat, sollte auch welches für einen 120hz Monitor haben...

mfg
 
die.foenfrisur schrieb:
120hz ist hier die optimalere Lösung. unabhängiger von Software(Lösungen) wer geld für eine spielekarte hat, sollte auch welches für einen 120hz Monitor haben...

google mal bitte vsync und denk mal darüber nach was dir das in diesem fall bringen soll wenn deine grafikkarte eben nicht diese 120 Bilder liefern kann...
 
120hz ist hier die optimalere Lösung. unabhängiger von Software(Lösungen) wer geld für eine spielekarte hat, sollte auch welches für einen 120hz Monitor haben...

mfg
Ich weiss ja nicht was ein 120hz Monitor verbessern soll. Der Sprung von 60 auf 30 FPS bleibt doch vorhanden so lange wie Grafikkarte in manchen Spielszenen nicht ausreichend Frames liefern kann. Der einzige Unterschied zwischen 60hz und 120hz ist doch, dass die theoretische Obergrenze beim VSync doppelt so hoch ist.
Oder wird dann das VSync auch anders gesteuert wodurch Sprünge zwischen 60, 40 und 30 FPS möglich sind? Im Endeffekt würde das ja den Effekt nur verringern aber nicht auslöschen.
 
Hm... Das, was NVidia jetzt hier als Neuerung vorstellen wurde bei Rage damals dazugepatcht, um die legendären Tearing-Probleme etwas einzudämmen. Es ist also eine reine Software-Lösung und somit existiert eigentlich kein Grund, warum nur Kepler-Karten das Feature bekommen sollten.
 
Daaron schrieb:
Es ist also eine reine Software-Lösung und somit existiert eigentlich kein Grund, warum nur Kepler-Karten das Feature bekommen sollten.

Das ist nur etwas unglückich in der Überschrift und im Artikel formuliert. Adaptive Vsync ist per Treiber ins Control Panel eingebunden worden. Und die Treiber unterstützen meines Wissens alle Grafikkarten bis zur 6000er Reihe, also fast alle GraKas von Nvidia. Bei meiner GTX 580 funktionierts jedenfalls ohne Probleme.
 
120Hz ist in der Tat die feinere Lösung, da man auf Vsync einfach verzichten kann. Auch ich verzichte auf Vsync, weil (gerade bei Source Spielen) die Eingabe viel zu träge ist - und in anderen Spielen auch.

Grundsätzlich besteht Tearing bei 120Hz noch, jedoch sieht man es mit dem menschlichen Auge nicht mehr.

Ruckler werden durch 120Hz nicht eliminiert, aber das ist auch kein Tearing :)
 
Eigentlich find ich die Idee hinter Adaptives Vsync wirklich gut, leider funktioniert für mich es nicht richtig. VSync-Stuttering oder Tearing = Wahl zwischen Pest und Cholera. Auch im Video ruckelten die Szenen stark in meinen Augen trotz Adaptive Vsync.

In der Praxis beschäftigt mich die Problematik des Vsync-Stotterns seit dem ich einen TFT habe. Bei fast jedem neuen Spiel muss ich im Treiber und/oder in den Spieleinstellungen basteln damit kein Ruckeln mehr wahrzunehmen ist bei eingeschaltetem Vsync. Und das klappt oft nicht ohne Abstriche in der grafischen Qualität, auch das im Artikel erwähnte erwähnte Triple Buffering scheint nicht immer den erwünschten Erfolg zu geben. Vermutlich ist die verwendete Spiele-Engine ein weiterer Faktor.

Besonders MMOs sind bei mir ein Problem. Egal, ob es Rift, SWTOR, Aion, WoW oder jetzt GW2 war, mit Vsync habe ich immer ein Stottern drin da die Framerate nicht konstant bei 60 FPS gehalten werden kann je nach Situation. Zumindest GW2 scheint aber mittlerweile gut zu laufen, allerdings darf ich dann die Sichtweite nicht auf Ultra und AA nicht auf SuperSampling setzen - sonst ist wieder Stottern angesagt.

Anno 2070 ist auch so ein Fall. Es kann alles auf Max und Full HD Auflösung gesetzt werden, kein Problem. Nur das PostProcessing (was bekanntlichleistungshungrig ist) muss auf Hoch bleiben. Setze ich es auf Sehr Hoch sind die Frames "nur" noch bei 40-50 und schon stottert es wieder. -.-

Bis jetzt habe ich keine Lösung gefunden obwohl ich schon viel gelesen bzw. ausprobiert habe. Letzte Möglichkeit wäre nur noch ein 120 Hz Monitor, aber da bin ich auch net sicher ob das dass Allheilmittel ist. Außerdem ist mein jetziger grad mal 2 Jahre alt. FrameLimiter helfen auch nicht weiter.

Ich meine, man kann sich natürlich an alles gewöhnen und jeder Mensch ist verschieden. Ich scheine da etwas empfindlicher zu sein, mir fallen die kleinsten Ruckler sehr schnell auf. Nur wenn mich es aus dem Spiel rausreisst bzw. den Spaß schmälert, dann ist das schon irgendwo blöd.
 
Zurück
Oben