Bericht Nvidia „G-Sync“ im Praxistest

PaladinX schrieb:
@reichsverweser. Genau. Weil jede Vorschrift gleich 1 zu 1 in technische Verbesserungen resultiert.
Und weil "ordentlich" auch für jeden das Gleiche bedeutet. Genau. Schreiben wirs mal in ne Norm. Herr je!

Für Belange der Kunden setzt sich die EU viel zu selten ein. Ganz im Gegenteil, es werden Patente erlassen für die trivialsten Dinge. Es gab mal Zeiten, da wurden Gewinde normiert und Maßeinheiten und Verpackungsgrößen. Heutzugage bekomme ich 90g-Schokoladentafeln und nichtmal bei Steckernetzteilen fürs Telefon ist man sich durchgängig einig geworden (wobei dieser fummelige Stecker Welten hinter einem rotationssymetrischen Anschluß ala Nokia liegt).
Selbst Vorschriften, daß der Leuchtmittelwechsel im PKW am Straßenrand machbar sein muß, hat Jahre gebraucht, bis man damit nicht mehr auf die Hebebühne mußte.

Dass sich das Wiedergabegerät der Bildquelle anzupassen hat ist gewissermaßen trivial, aber offensichtlich hat es seit 1950 niemand in Erwägung gezogen. Man denke nur an die Begründung, warum wir 24p-Filme auf 50i-DVDs bekommen und man selbst auf einer BD eine Framrate von (24.000/1.001)=23,976...Hz vorfindet.

Mich stört das Tearing weniger beim zocken, als beim Betrachten eines 50p-Videos auf einem 60Hz-Monitor und habe oft überlegt, ob man die Bildfrequenz nicht innerhalb eines Fensters anpassen kann..
 
lazsniper schrieb:
"Wo also bleibt der 27 Zoll große Monitor mit einem hochwertigen Panel, einer Auflösung von 2.560 × 1.440 Pixel, 144 Hertz und gerne auch mit G-Sync? Ja, so ein Gerät wäre gewiss teuer."

das wäre mir sowas von egal. habe bereits einen der besten 27 zöller ... den samsung s27b970d. dieses gerät mit 144 hz und/oder g-sync wäre mir auf jeden fall 1500 euro wert.

Wenn man sich die Next Gen Knaller wie "The Division", "Dragon Age" und Co so anschaut, dann weiß man das es schon mit einer GTX 780ti sehr schwer wird alles Maxed-Out in FullHD zu zocken ! Was will man da ohne SLI mit WQHD oder UHD ?

Solche Supermonitore sollte man sich erst in 4-6 Jahren kaufen, da können die aktuellen Grakas solche Auflösungen bewältigen ohne das man sich ständig die Details runter schrauben muß.

FullHD wird in nächster Zeit Sinn machen.....-> sagt ein "geplagter" 1440p Nutzer !
 
Was ich nicht verstehe, warum sollte ein Monitor unter 30 fps zu flimmern beginnen? Das müsste doch bei LCD Monitoren egal sein. Die zeigen doch immer das gleiche Bild, wenn kein neues ankommt. Kann mir net vorstellen, dass die Ansteuerung der einzelnen Pixel mit 30 Hz von Statten geht. Das muss doch viel schneller laufen, damit man da kein Flimmern sieht. Also wäre doch sicherlich auch eine Ansteuerung unter 30hz möglich. Finde das ganze wieder mal nicht zuende gedacht.

Was ich auch mal gelesen hab: Das g-Sync Modul basiert auf einem FPGA. Das zeigt eigentlich schon den Beta Status der ganzen Technik.
 
Also ich weiß nicht aber der Test macht keinen 100% korrekten Eindruck. Ich habe einen 144Hz Monitor aber zu meinem vorherigen 60Hz Monitor merke ich beim Absacken der Frames null Unterschied. Im Gegenteil... bei dem 144Hz nimmt man einen Framedrop eher wahr, da die Graka die max. Frames ergo max. Hz seltener darstellen kann! Das Stottern in diesem Moment ist aber unter beiden Monitoren gleich stark. Und genau hier sollte G-Sync eingreifen was, sofern das Game sauber programmiert ist, in beiden Hz Fällen signifikant besser sein sollte.
Das mehr Hz generell flüssiger rüber kommt, steht außer Frage aber das Hauptproblem liegt eben darin, dass die Graka nicht in jedem Spiel die max Hz/Frames halten kann und das dann richtig stottert weil es eben A-Syncron läuft. Btw. spreche ich hier ausschließlich von V-Sync enabled.
Hab schon vor Bekanntmachung von G-Sync danach gefragt, ob es nicht sinnvoll wäre wenn der Monitor sich immer an die Frames anpasst. Aber das konnte damals keiner Beantworten oder hatte keine Lust dazu.
 
@ D3DOverrider mit Triple-Buffering-Erzwingung in D3D

Bei mir auf Windows 8 und Radeon HD5770 hat das Ding leider fast alle Spiele extrem instabil gemacht, sodass ich, um nicht ständig auf den Desktop zu crashen, den D3DOverrider nicht meh benutze. Ich könnte mir vorstellen, dass es mit dem Alter der letzten Version zusammenhängt und finds sehr sehr schade.
 
Wann kann ComputerBase OLED-TV (ab 2013) mit kritischen Spielen testen? Hochwertiger Praxistest könnte uns weiterhelfen, ob OLED alle Problem lösen kann (solang Lebensdauer keine Rolle spielt.) Habe langsam satt von Probleme über LCD-Monitor. Nur OLED-Technology kann Blatt wenden!
 
Danke für den Test!

Leider nur beschränkt anwendbar. Zudem kein 27"er mit WQHD u. G-Sync.

Full-HD kommt mir nicht mehr ins Haus auf einem 27"er.
 
Wird durch eine geringere Bildwiederholungsrate als 60Hz eigentlich Strom gespart?
 
Mal ne ganz doofe Noobfrage:
Was ist eigentlich mit Fernsehern, die sich mit 200, 400 oder gar 800 Hz bewerben? Ist das vergleichbar mit Monitoren und bringt demnach Vorteile oder ist das nur Zahlenspielerei der Hersteller?
 
Vivster schrieb:
Mal ne ganz doofe Noobfrage:
Was ist eigentlich mit Fernsehern, die sich mit 200, 400 oder gar 800 Hz bewerben? Ist das vergleichbar mit Monitoren und bringt demnach Vorteile oder ist das nur Zahlenspielerei der Hersteller?

Letzteres, denn bei TVs wird von der "Clear Motion Rate" geredet ... "die neben dem Panel-Refresh auch die Backlight-Steuerung und den Bildprozessor einbezieht."
http://www.heise.de/newsticker/meld...er-ihren-Geraeten-heimlich-Beine-1385820.html
 
Finde ich interessant, kann nur leider mein Setting nicht mit G-Sync vergleichen.
Hab nen XL2410T und zock BF3 auf 120fps ohne V-Sync und es läuft butterweich und Tearing kann ich auch nicht feststellen > Frame-Limit auf 120 gesetzt - läuft konstant. Nun hätte ich gern einen Vergleich mit G-Sync. :D
 
Im Prizip bin ich beim Autor, ich warte auch schon ewig auf den 120Hz IPS Monitor, aber G-Sync steuert ja da gegen
und das Spielen an einem solchen LCD fühlt sich insgesamt noch etwas "runder" an als beispielsweise auf einem 120- oder 144-Hz-Display.
Das Warten hat also ein Ende, wenn es brauchbare Monitore gibt von Asus, dann gibts kein halten mehr. 60Hz IPS 1080p.

Und das Problem das ab 60Hz; 60FPS die Sache nicht mehr so viel bringt, irgend wann fällt sogar eine GTX 780TI 3GB in die 30+FPS Region, schon heute wenn man die richtigen Mods(Bildqualität aufdreht) installiert die den Vram auslasten. Also ist das im Prinzip auch kein richtiges Problem. Die GPU wird also gerade am Ende ihrer Lebenszeit stark aufgewertet, genau dann wenn man die Leistung am dringendsten braucht. Oder man stellt die Bildqualität so hoch ein das man immer mit 30+FPS arbeitet, dann hat man immer den vollen Nutzen.

Also mich hat NV überzeugt. Zur neuen GPU(Maxwell) gibts auch gleich G-Sync dazu. Damit die GPU noch länger durchhält, Voraussetzung ist wie immer das es Karten gibt mit ausreichend Vram der dann sowas überhaupt zulässt über die Jahre. (fällt eine GTX 780TI 3GB schon mal durch)

G-Sync arbeitet immer, Mantle nur wenn der Entwickler mitmacht. 1:0 für NV.

läuft konstant. Nun hätte ich gern einen Vergleich mit G-Sync.
Irgend wann läuft es nicht mehr konstant, es sei denn du kaufst ständig die neusten GPUs. Und genau da liegt der Vorteil von G-Sync, erst später nach ca. 1-2 Jahren nach dem Kauf einer GPU kommt das Teil voll zum Tragen. Am Anfang wenn die GPU sowieso extrem viel Power hat eher weniger. Ergo kann so ein kleiner Test hier, niemals das Potenzial von G-Sync erfassen.
 
Zuletzt bearbeitet:
Wie sieht es eigentlich bei 120 bzw 144Hz Monitoren aus, sind das echte 120/144Hz und werden vor der Grafikkarte auch so angesteuert oder ist es wie beim Fernseher, wo die 60Hz nur hochgerechnet werden?
 
Läuft GSync denn auch mit 144/120hz oder würde das keine Vorteile bringen?
 
Guggst du hier: http://www.pcgameshardware.de/LCD-Hardware-154105/Specials/Nvidia-G-Sync-Test-1101177/
Prinzipbedingt vermindert ein 120- oder 144-Hz-Display die sichtbaren Auswirkungen von G-Sync aber, allein, weil die Refreshzyklen mit 8 bzw. 7 ms deutlich dichter zusammen liegen als bei einem 60-Hz-Monitor (16 ms). Wer also bereits ein schnell schaltendes LCD besitzt, für den fällt der Unterschied nicht mehr so groß aus wie bei dem Besitzer eines herkömmlichen 60-Hz-LCDs.
 
Zurück
Oben