Bericht Nvidia „G-Sync“ im Praxistest

Wer zum Henker hat diesen Artikel geschrieben? Ich habe nun echt nichts gegen Tippfehler, jeder macht Fehler - aber da fehlen komplette Wortteile oder die Grammatik ist so kaputt, dass man gar nichts mehr versteht.

Einmal Korrekturlesen vorm Online stellen hätte sicherlich schon gereicht.
 
27" sollen eine angenehme Größe sein? Finde ich immer noch viel zu groß als Monitor, es sei denn man braucht auch nen TV-Ersatz.
 
Mir sind keine sprachlichen oder syntaktischen Fehler aufgefallen. Ich hab grad nochmal die ersten anderthalb Seiten gelesen und finde den Sprachstil sehr schön.
 
Krautmaster schrieb:
naja es ist nicht Nvidias Schuld dass es bisher keinen vernünftigen Standard für dynamische Frameraten gibt... allerdings könnte man die Technik sicher soweit öffnen, dass auch AMD GPU damit was anfangen können.

.

"Könnte man machen", nur ist hier bei Gsync,3D Vision, PhysX , Cuda, ec pp wiederholt die Frage im Raum, wieso man der Radeonfraktion immer alles in den Hintern blaßen soll?

Geistiges Eigentum, Know How u Entwicklungswillen liegen hier immer hin bei Nvidia. Zudem können proprietäre Dinge auch die Entscheidung ausmachen,welches Produkt der Kunde letztendlich priorisiert

Ich bau mir doch auch kein Haus u lass dann Schmarotzer darin wohnen:D
 
lazsniper schrieb:
das wäre mir sowas von egal. habe bereits einen der besten 27 zöller ... den samsung s27b970d. dieses gerät mit 144 hz und/oder g-sync wäre mir auf jeden fall 1500 euro wert.

Einen der besten Allrounder, ja. Aber nicht wirklich EBV-fähig.

Außerdem hat der Autor ähnliche Ansichten. Stehen ja unmittelbar unter dem von dir zitiertem.
 
Krautmaster schrieb:
Ein 35FPS Game auf einem 144hz Monitor resultiert aber in Tearing... und genau dafür is G-Sync gedacht.

Hm, ein 35fps-Spiel auf einem 144hz Monitor resultiert in Stottern und Wabbern, Tearing setzt erst ein, wenn die FPS höher als die Hz sind!
Ergänzung ()

KLynch schrieb:
Müsste bei Vsync aus nicht immer ein flüssiger Bildablauf vorhanden sein? Vorher kommen da die Ruckler?
Müsste doch nur Tearing vorhanden sein.

Verwende mal eine CPU-Bremse und starte dann ein 3D-Spiel mit Vsync an, du bewegst die Maus und das Bild reagiert erst gar nicht und dann nur äußerst stotternd und "zieht nach". Ohne Vsync wird aus stotternd ruckelig, weil man eben die einzelnen Bilder erkennen kann aufgrund der niedrigen FPS.
Ergänzung ()

Vivster schrieb:
Interessant
Das bedeutet dann aber trotzdem, dass ich mit nem 100Hz Fernseher Vorteile gegenüber einem 60Hz Monitor hab oder?
Nein, weil ein gewöhnlicher LCT-TV viel träger als ein Computer-LCD ist.
 
bizzy67 schrieb:
Da ich selten über 60 FPS komme betrifft mich das leider in den meisten Fällen nicht :)
...genau in solchen Fällen, also bei kritischen Scenarien zwischen 30 und 60 FPS, ist doch G-Sync besonders wirkungsvoll. Oder meintest du was anderes mit deiner Aussage?
Kaiserjäger schrieb:
Zusätzlichen bietet bis jetzt nur ASUS dieses Feature und das wird so bleiben, aber richtiger Gamer meiner Erfahrung im Marktbereich sagt mir, dass viele Gamer ihr Leben auf EIZO und ViewSonic schwören.
Zitat aus dem Test: "Es wird entsprechende Produkte von Asus, BenQ, Philips und ViewSonic geben – zur CES 2014 Anfang Januar in Las Vegas sollen Partner verkündet werden."
 
Jethro schrieb:
Finde ich auch immer lustig, wenn man nach Beiträgen zu Micro Rucklern und Inputlag geht dürfte PC Spielen bis vor einigen Jahren nur eine einzige Qual gewesen sein, alles war unspielbar.
Vorallem Inputlag ist einfach der größte Witz von allen, bis vor 1 Jahr hat sich niemand über verzögerte Eingaben in Foren aufgeregt aber als die ersten Beiträge in Spielemagazinen kamen hatte plötzlich jeder Inputlag und niemand konnte mehr richtig spielen.

:lol:

ja das ist schon sehr seltsam,
(z.b. kommt ja der meiste flame bei cf/sli, von nutzern die noch nie ein dual gpu sys hatten)
mmn. eine gute Methode neue dinge zu pushen die man nicht wirklich braucht.
 
Mein letzter Monitorkauf stammt von Anfang 2009. Seitdem hat sich auf dem Markt durchaus viel getan, aber wiederum nicht so viel, wie ich gern hätte. Denn mittlerweile haben sich zwei Lager aufgetan: Das Lager der Spielermonitore und jenes der allgemein besseren Bildqualität (Panel). Beide kommen zwar so gesehen mit exklusiven Techniken daher, einen Monitor der „alles“ kann gibt es aber nicht. Und genau das ist das Problem.

Denn da ich viel mehr am PC mache als nur zu spielen, kommt für mich ein TN-Panel nicht in Frage. Zwar hat es auch bei diesen in den letzten Jahren zweifellos Verbesserungen gegeben, dennoch erkenne ich innerhalb von Sekunden, ob ich vor einem TN- oder einem anderen, hochwertigeren Panel sitze. Dies ist auch beim Asus-Monitor mitsamt G-Sync der Fall. Der Qualitätsunterschied zwischen den Paneltechniken ist mir einfach zu groß, als dass ich einen TN-Monitor auch nur als ernste Alternative in Betracht ziehen würde.

Absolut SIGN!

Das ist genau das Problem und dies beheben auch diese 'gut gemeinten' Innovationen nicht. So lange es keine vernüftigen OLED Displays gibt wird sich daran auch nichts ändern. Die TFT Technologie hat einfach ihre Grenzen. Darum sitze ich immer noch vor einem LG W2600HP mit S-IPS Panel, der immer noch einer der Besten für den Kompromis zwischen Gaming und Arbeiten ist.
 
Justin's schrieb:
Hm, ein 35fps-Spiel auf einem 144hz Monitor resultiert in Stottern und Wabbern, Tearing setzt erst ein, wenn die FPS höher als die Hz sind!
Ergänzung ()

Nein, weil ein gewöhnlicher LCT-TV viel träger als ein Computer-LCD ist.

1. Völlig falsch
2. Die meisten Fernseher, ja. Aber es gibt auch Fernseher, die quasi keinen Input lag haben. Sony KDL50W655, zum Beispiel.

@MEDIC-on-DUTY: erwart dir mal nicht zu viel von OLED. Das Zeug wird viel gehypt, bietet aber nur Unterdurchschnittliche Qualität, echtes schwarz liefert es auch nur in den Flecken, die es so hat, und reaktionstechnisch ists auch nicht schneller als ein TFT. Das ist auch der Grund, warum man von OLED nichts hört: die Technologie ist an ihren Grenzen, und noch weit davon entfernt massentauglich zu sein.

Ich finds ja immer lustig wenn behauptet wird, dass man auf einem IPS nicht zocken kann. Klar kann man, den Unterschied zwischen einem guten IPS und einem sehr schnellen TN sieht nur jemand, der sein Geld damit verdient. Normale Spieler werden auch in wirklich schnellen Shootern keinen Unterschied spüren. Ist aber wie mit Gaming-Mäusen: mit einer Maus, die von einem Profispieler "entwickelt" wurde (der also seinen Namen auf ein OEM-Produkt schreibt) spielt man natürlich besser, wie sollte es denn auch anders sein. Deswegen brauchen wir ja auch mindestens 4-6000 DPI bei einer Maus, sonst ist die nicht präzise genug.

Mfg
 
Zuletzt bearbeitet:
testet doch mal den hier schon genannten Monitor Eizo Foris FG2421 :-)

Nur schade, dass es den mit "nur" 24Zoll gibt.
 
“Für Belange der Kunden setzt sich die EU viel zu selten ein .“


typisches Geschwätz von Leuten die nie aus der Eu rauskommen. die Eu hat dem Stecker Wahn von Handys ein Ende gesetzt, es wird bei Arbeitsplätzen (hast du wohl nicht) auf gute Möbel und Geräte geachtet weil Vorschrift, ohne Eu Vorschriften wären 10 Watt Standby noch immer normal.... und tausende andere Dinge an die man sich gerne gewöhnt und nicht bemerkt. geh doch nach Asien, Südamerika die USA oder Russland.

sicher es gibt Korruption, sicher ist nicht alles super, aber ich würde für kein Geld der Welt meinen EU Pass aufgeben. meckern ist einfach. Wie ich diese “Wutbürger“ hasse. ist nur ein synonym für erfolglose Deppen die vom pc aus rum meckern.
 
Nova eXelon schrieb:
Zweitens gibt es ne weitere Alternative, als nur 144Hz Monitore: Triple Buffer!
Klar, es bietet bei weitem nicht jedes Spiel an, aber es wäre nicht verkehrt an dieser Stelle mal die Leute aufzuklären, dass wir alle auf Tearing und (fast keinen) Input-Lag verzichten könnten, wenn die Entwickler mal entsprechende Funktion in ihren Engines einbauen würden.

This!
Dazu muss ich sagen, dass ich ad hoc die letzten Jahre ansich nur Titel gespielt habe, die eben auch Triple Buffer + VSync unterstützt haben.
Von daher ist es zwar schön, dass NV da am "rumbasteln" ist, aber für mich & mein ebenfalls in die Jahre gekommenes TN-Panel ziemlich unbedeutend.
Aber mich wunderts nicht. Stichworte wie "Inputlag", "Gaming-Netzwerkkarte K1LL0R xyz" & Co machen ja die Runde ... dabei können die meisten Anwender offensichtlich mit Ping, der Anzahl der Millisekunden und der Einheit & Einordnung dessen offenbar wenig anfangen (Reaktionen des Menschen sind häufigst viel wesentlicher).

Versteht mich nicht falsch: wenn etwas optisch deutlich erkennbar & störend ist: klar, kann ich nachvollziehen und sowas nervt mich auch total.
Aber mit VSync & Triple Buffer ist man häufig schon gut bedient.
 
Justin's schrieb:
Hm, ein 35fps-Spiel auf einem 144hz Monitor resultiert in Stottern und Wabbern, Tearing setzt erst ein, wenn die FPS höher als die Hz sind!


Falsch. Tearing entsteht IMMER, wenn kein Vsync genutzt wird.

Ist auch absolut offensichtlich, wenn du wüsstest, was tearing eigentlich ist, bzw. wie es entsteht.
Egal mit wie vielen FPS man spielt. Die Grafikkarte schickt die Bilder an den Monitor, wenn die Bilder "fertig" sind. Ungeachtet dessen, wann der Monitor den nächsten Refresh hat. Selbst bei 2 FPS kanns theoretisch sein, dass Bild 1 schon am Monitor angezeigt wird und Bild 2 genau in einem Moment rausgeschickt wird, wenn der Monitor grade nen Refresh macht. Folglich wird das2. Bild nur halb oder zu nem Teil angezeigt und erst beim nächsten Refresh vollständig abgebildet.

Es heist ja auch VSYNC Die Vertikalfrequenz von 60, oder 120/144 Hz des Monitors wird mit der Bildausgabe der Grafikkarte SYNCHRONISIERT, damit immer nur vollständige Bilder beim Monitor ankommen und er sie auch so anzeigen kann. Die Bildausgabe wird mit dem Refreshraster des Monitors synchronisiert.

Folglich sieht man ohne Vsync auch mit 20 oder 30 FPS deutliches tearing, da keinerlei Synchronisation besteht. Das ist eigentlich besonders schlimm, wenn nichtmal die wenigen FPS anständig/vollständig angezeigt werden. Mit höheren FPS wirds eher weniger sichtbar, da der Monitor einfach mit Frames überflutet wird. Bei 200-300 FPS ist Tearing fast kein Thema mehr, da nicht mehr sichtbar.



khf-pred schrieb:
This!
Dazu muss ich sagen, dass ich ad hoc die letzten Jahre ansich nur Titel gespielt habe, die eben auch Triple Buffer + VSync unterstützt haben.
Von daher ist es zwar schön, dass NV da am "rumbasteln" ist, aber für mich & mein ebenfalls in die Jahre gekommenes TN-Panel ziemlich unbedeutend.
Aber mich wunderts nicht. Stichworte wie "Inputlag", "Gaming-Netzwerkkarte K1LL0R xyz" & Co machen ja die Runde ... dabei können die meisten Anwender offensichtlich mit Ping, der Anzahl der Millisekunden und der Einheit & Einordnung dessen offenbar wenig anfangen (Reaktionen des Menschen sind häufigst viel wesentlicher).

Versteht mich nicht falsch: wenn etwas optisch deutlich erkennbar & störend ist: klar, kann ich nachvollziehen und sowas nervt mich auch total.
Aber mit VSync & Triple Buffer ist man häufig schon gut bedient.


G-Sync ist dazu da, die Probleme von Vsync + Tripple Buffering zu lösen, da hiermit zwar Tearing verschwindet, die FPS aber trotzdem immer leicht verzögert werden müssen oder Frames ausgelassen werden, damit die Bilder ins Refresh raster des Monitors passen.

Von Vsync ohne Tripple buffering (wo mit sich dann die FPS halbieren, wenn man nicht so viele FPS wie die Hz zahl schafft) spricht doch kein Mensch mehr. Das ist ein völlig veralteter Hut.


G-Sync geht das Problem an, indem die Refreshrate des Monitors kein festes Raster mehr besitzt, worauf sich das Vsync+TB ausrichten muss sondern es wird einfach dann aktualisiert, wenn ein Frame am Monitor ankommt. Fertig. Damit gibts keine Verzögerten oder Dropped Frames mehr, die bei Vsync+TB technisch bedingt auftreten müssen.

Praktisch ist der Unterschied nicht sehr groß, aber trotzdem sehr relevant, da plötzlich auch niedrigere FPS flüssiger erscheinen als zuvor. Im Grunde wird durch den dynamischen Refresh ALLES flüssiger. Egal ob 0 oder 120 FPS. Da die Frametimes einer Grafikkarte naturgemäß nunmal variieren. Nicht jedes Bild ist gleich aufwändig zu berechnen. G-Sync veranlasst den Monitor sich an diese Gegebenheit anzupassen, indem genau dann ein Refresh stattfindet, wenn ein neues Bild ankommt. Kein festes Zeitraster mehr!
 
Zuletzt bearbeitet von einem Moderator:
Naja, man muß auch nicht jeden als Deppen hinstellen, der sowas wie einen Input-Lag bemerkt. Der eine nimmt sowas war, der andere halt nicht. Ähnlich ist es ja bei Mickorucklern etc...
Mich z.B. hat bei meinem alten Monitor die verzögerte Mauseingabe teilweise tierisch genervt. Tearing widerum macht mir eigentlich gar nichts aus bzw. bemerke ich es nicht, falls es auftritt.
 
In Tomb Raider lässt sich dann gut das schlechte V-Sync-Verhalten erkennen. Mit aktivierter vertikaler Synchronisation gibt es zwar kein Tearing, doch stockt das Spiel unaufhaltsam, wenn die Geschwindigkeit unter 60 FPS fällt.

Und genau deswegen achte ich auch immer und bei jedem Spiel darauf, nicht unter 60 FPS zu kommen.

G-Sync (extra einen speziellen Monitor dafür anschaffen - ich glaub' es hackt !:freak:) brauche ich nicht, da ich V-Sync einschalte und dank einer GTX 690 in jedem Spiel immer schön konstante 60 FPS habe. Butterweicher Bildlauf, kein ekelhaftes Tearing und Mikroruckler gibt's dank V-Sync auch nicht. Was will man mehr :cool_alt:

Wenn die FPS auf 60 begrenzt werden, muss die Karte auch nicht permanent am Limit ackern -> geringerer Stromverbrauch ;)

Einziger Nachteil ist die je nach Spiel mal mehr mal weniger schwammige Maussteuerung in Shootern, aber damit kann ich leben, denn die Vorteile von V-Sync überwiegen deutlich.
 
Für mich uninteressant - mal ganz davon abgesehen dass ich mich nicht an einen Hersteller binden möchte ist mir bei meinen Games Tearing nie so wirklich aufgefallen (spiele auch nicht so viel FPS wo das wohl am ehesten auffällt). Außerdem ist mir Input Lag wichtiger als Tearing.
Dann lieber einfach einen schnelleren Monitor der verhindert tearing vielleicht nicht komplett hat aber auch keine Nachteile.

Insgesamt sehe ich es ähnlich wie der Autor im persönlichen Fazit - ich möchte ein hochwertiges Panel mit dem man auch zocken kann und nicht einen reinrassigen Gaming Monitor mit minderwertiger Bildqualität.

Ein Test in die Richtung wäre mal interessant, die Eierlegendewollmilchsau gibt es zwar nicht aber irgend einen Kompromiss mus man halt eingehen wenn man einen neuen Monitor kaufen muss oder möchte.
 
Also ich finde G-Sync zumindest einen brauchbaren Ansatz. Sollte der Aufpreis dafür tasächlich "nur" 50,- Euro betragen, ist das immer noch günstiger als ein Bildschirm mit 144 Hz. Allerdings müßte es dazu erstmal 60 Hz-Monitore mit G-Sync geben. ;)
Und es ist ja auch nicht so, daß G-Sync Schirme mit einer AMD gar nicht funktionieren würden. Wenn man sich so einen Monitor zulegt, dann logischerweise erstmal mit einer Nvidia-Karte, d.h man nutzt das Feature dann auch wenigstens ein/zwei Jahre. Somit wären die 50,- nicht umsonst investiert.

Ich bin aber mit meinem jetzigen 120 Hz Benq im Zusammenspiel mit Lightboost erstmal extrem zufrieden, auch wenn die Bildqualität nicht an ein IPS/MVA-Panel herankommt. Da auch in Zukunft ein 60-Hz-Gerät für mich nicht mehr infrage kommt, werde ich einfach mal abwarten wie es bis zum nächsten Monitor-Kauf mit G-Sync aussieht und ob es sich überhaupt lohnt, dafür etwas mehr zu auszugeben.
 
Zuletzt bearbeitet:
Zurück
Oben