News Erste Eindrücke zu Nvidias „G-Sync“-Technologie

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.630
Das heißt um das nutzen zu können braucht man weitere Hardware neben der Grafikkarte?
So kommen wohl nur die wenigsten in den Genuss von G-Sync...
 
Zuletzt bearbeitet:
Bin mal gespannt wie die Preise sind, einen 21" unter 150€ erwarte ich nicht :/
 
Naja das ganze ist noch am Anfang. Ich glaub jeder müsste so was unter verschiedenen spielen selber testen, um sich dann eine Meinung bilden zu können. Wenn meine Grafikkarte in den meisten spielen nicht mehr 60 fps halten kann, habe ich mir immer eine schnellere gekauft ob das dann entfällt?
 
Muß ich dann mit dem Upgrade-Kit den Monitor auseinander schrauben, die Platine drauf löten und so tun, als wäre nie was gewesen? oO Decken die Hersteller das Kit über die Garantie ab?

Mir kanns eh wurst sein, die 780er hat genug Kraft und mit den 144Hz habe ich auch kein Tearing etc.

Und wenn die Technik nur mit Kepler funktioniert, dann hat man doch eigentlich genug Leistung, um mit einem 120Hz+ Monitor ein ordentliches Bild zu erhalten.

Sollte man bei Metro Last Light zu wenig FPS haben, würde ich mir eher eine 2. 780er holen, als einen nochmals neuen Monitor.
 
Finde ich schön, dass man sich mit dieser Problematik auseinander setzt.
Das mit dem neuen Monitor ist natürlich weniger gut.

Ich frage mich aber, warum V-Sync on + Prerender limit 0 nicht mehr geht?
Als ich beispielsweise mit V-Sync on und Prerender limit 1 spielte, war ich nahezu zufrieden.
Früher ging das doch mit der 0...

Grüße
 
Jokeboy schrieb:
Bin mal gespannt wie die Preise sind, einen 21" unter 150€ erwarte ich nicht :/

Das Upgradekit wird $175 kosten. Demnach ist bei Monitoren mit verbauter Zusatzplatine einen Aufpreis von mindestens 150 € zu erwarten.
 
t3chn0 schrieb:
...

Und wenn die Technik nur mit Kepler funktioniert, dann hat man doch eigentlich genug Leistung, um mit einem 120Hz+ Monitor ein ordentliches Bild zu erhalten.

Sollte man bei Metro Last Light zu wenig FPS haben, würde ich mir eher eine 2. 780er holen, als einen nochmals neuen Monitor.

Naja bei der Mehrheit der user wäre das die Frage zwischen einer 2. 780er um 400-500€ oder einem neuen Monitor um ~200€.
Ich weiß es gibt auch genug Monitore die >1k kosten aber das haben die wenigsten zuhause stehen. Das lustige ist ja das die Mehrheit dieser Highend Karten auf FullHD Monitoren genutzt wird. Schönes Beispiel dafür wäre Total Biscuit der 2 Titans hat um auf Full HD zu spielen/streamen. Die Leute die wirklich tripple Monitor setups oder DS nutzen oder einfach nen >1080p Monitor ihr eigen nennen sind eher rar gesät.
 
Als ich die Überschrift las, dachte ich: Nice, das gefällt.
Der Text las sich ebenfalls gut - am Ende musste ich dann aber plötzlich lauthals lachen.
Ich soll meinen Monitor "pimpen" damit ich in den Genuss dieser Technik kommen soll?

Soll das ein Scherz sein? Die Idee mag gut sein, aber mit dieser Umsetztung ist das ganze absolut lächerlich.
 
Eigentlich ja eine feine Sache aber ich weiß nicht ob sich das bei so einem Aufpreis durchsetzt.

Außerdem finde ich es Schade, dass es immer mehr Produkte gibt die nur mit AMD oder nvidia laufen.
So muss man immer mehr schauen was einem wichtiger ist.
 
natürlich muss das der Monitor können... Tellerrand...

Der TFT passt ja dynamisch die Ausgabe an, heißt die Frequenz wie oft das ganze Bild neu aufgebaut wird. Das können heutige Monitore offensichtlich nicht, oder hast du schon mal versucht z.B. 37hz auszugeben?

Anders geht es leider nicht, denn es wird schwer 35FPS ingame auf einem 60 Hz Montitor auszugeben. Bisher setzte da Display OC an, so würden 70Hz zwar gehen, aber so dynamisch wie die Framerate im Spiel wird das natürlich bei weitem nicht sein.

Ich finde die Idee gut. Schön wäre es natürlich, wenn beide GPU Hersteller die Technik nutzen könnten. Auch ist die Frage ob sich der Lag erhöht.
 
Zuletzt bearbeitet:
Warum ist die Uhrzeit neben dem Titel orange?

Unbenannt.PNG
 
Das erleichtert meine Entscheidung, nach der 6xx-Generation, gänzlich auf AMD zu wechseln.

Nvidia hat in jüngster Vergangenheit derart nachgelassen, allein was die Qualität der Treiber anbelangt, das die Anschaffung eines Upgradekit oder eines neuen Monitors, um in den zweifelhaften Genuss von G-Sync zu kommen, unrealistisch erscheint.

Zu teuer, momentan nicht vertrauenswürdig und in anbetracht der Games, die auch zunehmend qualitativ nachlassen, ein NoGo.

War aber schon beinahe zu erahnen, das man kommend Monitor und GraKa speziell und zusätzlich teuer aufeinander abstimmen muß.

Fehlt ja eigentlich nur noch, das AMD mit einem ähnlichen System aufwartet und kommend gibts dann nur noch Nvidia- oder AMD-kompatible Monitore :freak: wtf

Mal ein-zwei Generationen schauen was AMD leistet und das ja meist auch zum besseren P/L-Verhältnis ;)
 
wenn schon als alternativ-"vergleich" mantle herangezogen wird, dann ist wohl mantle das bessere "feature" der beiden hersteller... oder nicht?
 
Generell eine richtig schöne Sache und andererseits eine "Schmach", dass es erst so spät kommt und nicht schon längst ein Standard dafür exisitert. Naja, vielleicht kommt das ja in 10 Jahren.

Für mein nächstes PC-Setup-Upgrade wäre das schon eine nette Idee, allerdings habe ich so meine Zweifel, dass ich es werde nutzen können: Ich verwende 2 Bildschirme, während ich Spiele immer nur auf einem Bildschirm habe. Dass G-Sync dann den einen bspw auf 49Hz taktet während der Zweit-Monitor normal weiterläuft, bezweifel ich fast.. es wäre natürlich schön, aber meistens sind derartige Technologien arg beschnitten..

Naja, kommt Zeit kommt Rat. Zusammenfassend eben eine sehr schöne Funktion, die mMn schon längst ein eigener/allgemeiner Standard sein sollte.
 
Ununhex schrieb:
Generell eine richtig schöne Sache und andererseits eine "Schmach", dass es erst so spät kommt und nicht schon längst ein Standard dafür exisitert. Naja, vielleicht kommt das ja in 10 Jahren.

so siehts aus, eigentlich sollte es für sowas längst einen Standard geben.
 
Hab nen 144hz Monitor kein Interesse :D
 
Zurück
Oben