News Erste Eindrücke zu Nvidias „G-Sync“-Technologie

Ja, so hab' ich das auch von Anfang an verstanden. Dass es plötzlich kaum mehr Unterschiede zwischen 30 fps und 80 fps und dadurch Hardware aufrüsten seltener erforderlich werden würde, ist somit ein Gerücht, dass hier in den Kommentaren entstanden und nun aber wieder widerlegt ist.

Und ich bin jetzt schon ein Fan von G-Sync geworden! Freue mich schon darauf! :cool_alt:
 
@Ganzir & Gummert:

Wir verstehen uns (bin mir dessen voll bewusst, aber es ändert ja nichts daran, dass die Presse/der Journalismus nicht die ihm zugedachte Funktion/Aufgabe erfüllt und ich persönlich bin nicht von der Industrie bezahlt/bestochen, deshalb kann ich es auch offen aussprechen, so wie ich es sehe)

Es ist sehr interessant zu sehen, dass dies schon 1880 ein Thema war (und ja, ich habe auch den Eindruck, dass es immer schlimmer wird <- Eigentlich kann man als Gesetz fast sagen: Je schriller und hysterischer der Marketing-Hype, der um eine Sache gemacht wird, desto mehr heisse Luft steckt letztlich dahinter)

Heute dürfte man sowas wahrscheinlich GARNICHT mehr äussern (hört man nie so deutlich und direkt von irgendeinem Journalisten, die haben wohl alle zu kuschen und ar***zulecken)

@lordZ:

Die Veränderung/Verschlechterung beim Abfallen der Framerate (in Form von Ruckelei und steigendem Inputlag) fällt im negativen Sinn wohl deutlich stärker auf durch die Divergenz zur Bildwiederholrate, als eine "geringe" Framerate für sich allein betrachtet es täte, wenn sie synchron zur Bildwiederholrate des Monitors stattfindet. So muss man das wohl verstehen. (man sieht das im Heimkinobereich auch, wenn man Filme mit den typischen 23,976 fps = sogn. 24P abspielt bei 60 Hz, dann ruckelt es auch deutlich stärker als der bekannte, unvermeidliche Filmjudder bei dieser Frequenz)

Natürlich ist eine geringe Framerate (unter 60 fps) nie erstrebenswert. Aber in der Praxis kommt das eben häufig vor, bzw. lässt sich nie vermeiden, wie wir alle deutlich sehen, wenn wir zocken..

Ich frage mich nur gerade, ob es nicht (negativ) auffällt, wenn die Bildwiederholrate auf z.B. 16Hz abfällt (flimmern) Ich persönlich reagiere auf Geflimmere sehr empfindlich (und ich bekomme davon auch Kopfschmerzen)

Das Tearing habe ich ehrlich gesagt nur sehr selten zu sehen bekommen. Ich sehe es etwa ab und zu in den Zwischensequenzen von "Starcraft 2", aber im Spiel selbst fällt es mir nicht auf (bzw. bilde mir ein es dort nicht zu sehen) Ich spiele heutzutage allerdings auch keine technisch anspruchsvollen Spiele mehr, die das Letzte an Leistung von der Graka einfordern... (z.B. keinerlei Shooter)

Wenn sie es weg bekommen ist es natürlich trotzdem gut/ein Fortschritt...

Man muss ja Neuerungen auch nicht kathegorisch schlecht reden (im Vorfeld bereits) aber andererseits ist heutzutage eine gesunde Skepsis nie unangegebracht bzw. unbegründet, angesichts all der Marketings-Märchen der Industrie!

Erstmal abwarten, wie G-Sync. sich in der Praxis WIRKLICH macht und ob es tatsächlich ein so grosser Unterschied zu V-Sync ist, wie man uns (werbewirksam) weismachen möchte! (es ist nicht davon auszugehen, dass Nvdia etwas auf den Markt bringt, was dazu führt, dass Konsumenten seltener neue Grakas kaufen/müssen) ;-)

Ich persönlich werde bis 4K (erschwinglich ist) eh kein neues Grossbildgerät mehr kaufen (TV/Monitor), denn ich sehe ja an meinem iPad 4 überdeutlich, was für einen SEHR DEUTLICHEN Unterschied eine Pixeldichte von 265 ppi gegenüber 100 ppi (30"-TFT@2,5K-Auflösung)) oder gar ~ 50 ppi (46"-TV) im Hinblick auf eine messerscharfe und glasklare Darstellung(squalität) ausmacht...
 
Arno Nimus schrieb:
Ich persönlich werde bis 4K (erschwinglich ist) eh kein neues Grossbildgerät mehr kaufen (TV/Monitor), denn ich sehe ja an meinem iPad 4 überdeutlich, was für einen SEHR DEUTLICHEN Unterschied eine Pixeldichte von 265 ppi gegenüber 100 ppi (30"-TFT@2,5K-Auflösung)) oder gar ~ 50 ppi (46"-TV) im Hinblick auf eine messerscharfe und glasklare Darstellung(squalität) ausmacht...

Freut mich, dass nicht nur ich ein anspruchsvolles Auge habe, obgleich unsere Fokusse vielleicht wo anders liegen. Und das, obwohl auch ich bereits am 386 gespielt habe.

Und nochmal danke für die Erläuterung, ich habe es jetzt verstanden bzw. lag da vielmehr ein Missverständnis bei dem einen oder anderen Teilnehmer in diesem Thread vor.
 
in einem satz g-sync zusammengefasst = für die armen schlucker, welche mit mit 40-50fps (hauptsache alles auf ultra) spielen, soll bloss wie 100 aussehen. oder habe ich etwas überlesen? :D
 
Du hast nichts überlesen, sondern du hast hier überhaupt garnichts gelesen.
 
Nun das bilde ich mir auch ein und genau diesem Umstand ist es zu verdanken, dass ich mich bisher immer für ein IPS Panel entschieden habe und auch ein PVA nehmen würde, obwohl ich zwischen neueren IPS und älteren PVAs keinen unterschied mehr ausmachen kann. Bei einem TN-Film hatte ich immer den Eindruck, als ob man die Farben durch eine leicht getönte Brille betrachten würde. Bei Naturfotos insbesondere wenn man den direkten Vergleich hat, fand ich das extrem störend.

Mein letzer CRT war ein iiyama S902JT
1. LCD: NEC WGX2 PRO
2. LCD: Dell 3008WFP
3. LCD Dell U3011 (Austauschgerät für einen eines Tages defekten 3008er)
4. LCD Dell U3014

Alle diese Monitore wurden für Spiele Office und Filme verwendet, auf keinem hatte ich den Eindruck das irgendwas nicht gut aussieht. Links und rechts neben den unter 2-4 aufgelisteten Monitoren stehen pivotiert 2 20 Zoller von Dell im 4:3 Format, welche es wohl nicht mehr zu kaufen gibt, welche beide über ein PVA Panel verfügen, daher kann ich aus Erfahrung sagen dass zumindest der 3008WFP ein deutlich schlechtere Farbdarstellung hatte als die beiden kleinen. Von nem TN-Film, den ein Kollege mal zur LAN mitgebracht hatte ganz zu schweigen. Soll jetzt auch keine Werbung für Dell sein, nur waren deren 30er die einzigen, die ich gewillt war zu bezahlen, da ich den Merhwert bei den NECs gleicher größe nicht zu erkennen vermag (das mag anders sein, wenn man mit Grafik-Design sein Geld verdient).

Was 4k angeht, hoffe ich, dass auch noch Geräte in 16:10 (müsste es nicht eigentlich 8:5 heißen?) ihren Weg auf den Markt finden, da ich diese was das Blickfeld angeht angenehmer finde als 16:9.
 
Zuletzt bearbeitet von einem Moderator:
Wie wirkt sich das G-Sync eigentlich auf die Grafikkarte und der CPU selbst aus... entlastet wird diese ja im Grunde, je nach Spiel natürlich, nur wie hoch kann man das nun mit G-Sync einschätzen? ... Versteckter Vorteil für Nvidia Karten als auch CPUs die Nvidia so nicht klar benennt?


Edit:

Wäre es nicht mittels kleiner Box die am Monitor angeschlossen wird, zwischen Grafikkarte <> Monitor nicht auch Möglich, G-Sync zu realisieren?

G-Sync wird wohl doch einen erheblicheren Vorteil bieten, als man im Augenblick annimmt, wie ich finde, weshalb es erstmal "nur" nvidia Karten erlaubt es zu nutzen.


Vielleicht Strategisch... nvidia bekommt eintritt zu Mantle for free und amd zu g-sync... hach, wäre schön :-) - ich Träum dann mal weiter :(
 
Zuletzt bearbeitet:
@ Gummert:

Die CPU und die GPU merken davon nix (außer eben das VSync jetzt immer aus ist). Per Box geht das auch nicht, da ja G-Sync die Hz Zahl des Monitors steuert, es muss also noch ein weiterer Kommunikation Kanal her.
 
Ja, natürlich, ein entsprechender "kleiner" Kanal/Anschluss in form von Steckerchen, wäre doch einfacher zu bewerkstelligen, zumindest um bei "generell" den neuen Modellen eine breitere Auswahl zu bieten - hätte ich näher Konkretisieren müssen.

Naja abwarten... der erste Monitor von Asus kostet ja auch mit G-Sync 399$ 24" ... teuer für die ( für mich ) pupsige Größe.
 
Zuletzt bearbeitet:
Teralios schrieb:
@scully1234, eine Sache ist mir an dir echt richtig unsympathisch. Die Tatsache, dass du dir aus allen Quellen immer nur die Aussagen Pickst, die dir gefallen und dich unterstützen, alles weitere aber unter den Tisch fallen lässt, nur damit du recht hast! Vielleicht liegt es daran, dass ich sowohl als Mensch als auch als Wissenschaftler dazu erzogen wurde und unterrichtet wurde, niemals nur die Aussagen aus Quellen zu picken die mir gefallen, sondern alle, doch dieser Zug an deinen Beiträgen ist mir echt unsympathisch, .

Wie viele Quellen benötigst du als Wissenschaftler denn um eine untermauerte Bestätigung zu formen das AMD es beim Kühler wiedermal vergeigt hat, obwohl sie hoch u heilig was anderes versprochen hatten?

Ich meine Reviews sind zwar schön und mehrfach vorhanden mit dem selben Standpunkt dazu, nur gefallen mir die Comics derzeit besser:)

Weißt du was mir unsympathisch ist, Leute die andere Firmen als Heuchler hinstellen, ohne den Dreck vor der eigenen Haustür zu sehen.

Gsync ist eine längst überfällige innovative Erfindung, deren Umsetzung nur einer Firma zu verdanken ist!

Falls AMD hier wieder den virtuellen Stinkefinger gezeigt bekommt, weil sie in ihrer eigenen Antriebslosigkeit(siehe hier auch Kühlerentwicklung als mahnendes Beispiel), nicht auf den selben Trichter kommen, ist das alles nur recht und billig.

Es gibt hier nix umsonst abzustauben,wenn ich selber nicht bereit bin meinen Anteil an solchen hilfreichen Entwicklungen zu tragen, muss ich eben bluten in Form von Lizenzkosten

Und blutet AMD nicht werden die AMD Sparfüchse selbstredend wieder rumheulen das nvidia ja die Ausgeburt des Teufels ist weil sie sowas nicht mit Team Rot teilen, u die rote Aldi Karte nicht in den Genuss kommt
 
Zuletzt bearbeitet:
Ganzir schrieb:
...
Ich habe in der tat schon auf einem 486er gespielt und so ziemlich die gesamte Hardwareentwicklung seither mitgemacht. Ich spiele so ziemlich jedes Genre, das eine mal mehr das andere wenigier.

Das einzige Mal, dass ich derartiges Tearing erlebt habe, war in Sudden Strike, ...
Tut mir leid, aber absolut jeder Ego-Shooter, den ich seit Unreal (1, das Spiel auf Na Pali) gespielt habe, ist ohne Vsync von Tearing betroffen, das in älteren Shootern auch deutlich stärker auffält, als in dem Landschaftsbild. Mit deiner Monitorwahl hat das auch nichts zu tun, ich bin bekennender S-PVA-Fanboy und zocke, seit ch keine Röhre mehr habe, an einem Eizo Flexscan.
 
zum thema, inwiefern mit g-sync hohe frameraten benötigt werden, um ein flüssiges spielerlebnis zu erhalten:

http://youtu.be/PydvAwftHYk?t=4m50s

hier werden 40fps auf dem monitor dargestellt, der kommentator äußert sich mit "[...] and the animation is perfect [...]"

inwieweit er nun als (mit sicherheit) nvidia mitarbeiter befangen ist, sei mal dahingestellt.. :) ich bin zuversichtlich
 
Nun bei so einer Demo werden die Frametimes auch schön gleichmäsig sein, und dann das dann 40 FPS @ 40 Hz schön sauber aussehen ist klar. Ich will nicht wissen, was passiert wenn man dem ganzen "realistisch" Frametimes oder gar ein Crossfire-System vorsetzt.
 
Nun bei so einer Demo werden die Frametimes auch schön gleichmäsig sein, und dann das dann 40 FPS @ 40 Hz schön sauber aussehen ist klar.

... naja, wenn man das video ein wenig länger schaut, kommt man 2 minuten später an die stelle, an der demonstriert wird, wie schwankende framerates mit g-sync aussehen :) "[...] you guys should be having a WOW-moment [...]"

noch mehr dazu von tim sweeney hier: http://youtu.be/gbW9IwVGpX8?t=11m56s

scheint zu funktionieren
 
Amok-Sepp schrieb:
Um jetzt diese 25ms auf einem Monitor darzustellen, der stur mit 60Hz "rennt", braucht der TFT demzufolge zwei mal 16,6ms = 33,3ms.
Zu den 25ms für das zeichnen des Bildes kommen nochmal 8,3ms inputlag durch den TFT dazu pro Bild => d.h. bis zu 249 ms Inputlag pro Sekunde @ 40fps!

Also ich komm auf 66,6ms
 
Zudem will ich mal sehen wie das Ganze sich darstellt wenn Oculus Rift nur mit Gsync Technologie von seinen Unzulänglichkeiten befreit werden kann u Radeon Besitzer mit Lag u Tearing leben müssten bei Verwendung der Rift

Es gibt wohl einen Grund warum ein führender Kopf von Oculus Rift sich offensichtlich sehr wohlwollend in Montreal beim Nvidia Event zeigt um diese Technologie zu bewerben

Und Carmack als Ingenieur erster Garde weiß wovon er da spricht da er mit den Problemen bei der Rift zu kämpfen hat

Wenn bereits soviele Monitorhersteller Interesse bekunden, u Oculus die selbe Schiene fährt, kann man glaube ich davon ausgehen das sich diese Innovation durchsetzen wird, egal ob proprietär oder nicht
 
Zuletzt bearbeitet:
Teiby schrieb:
Also ich komm auf 66,6ms

Ich weiß schon warum.
Bedenke du kannst nur 1000ms pro Sekunde haben (logisch) und bedenke herkömmliches V-Sync verwirft Bilder die die Graka anbietet.
Weil der Monitor endscheidet welches Bild er darstellt, darstellen kann und welches nicht.

Das genau ist ja der Grund, warum VSync @ 40-50fps , so stark ruckelig rüberkommt.
 
lordZ schrieb:
Wir diskutieren hier über Grafikkarten, von unseren geheizten Büros aus, und wo anders auf der Welt verhungern Menschen. Natürlich explodiert auch ohne G-Sync niemandem der Kopf. Klar, dass es hier um eine Verbesserung auf hohem Niveau geht und wer damit nichts anfangen kann, kann das dadurch gesparte Geld ja gerne der Caritas spenden (soll keinesfalls sarkastisch gemeint sein, ich mache sowas regelmäßig).

Aber dass auf so einem Bild was nicht stimmt, dürfte doch wohl jedem auffallen.

797px-Tearing_%28simulated%29.jpg


Ob es stört, oder nicht, soll jeder für sich individuell entscheiden. Und auch wenn mir (und hoffentlich auch euch) der Kopf nach Betrachten des Bilds noch nicht explodiert ist, bin ich durchaus gewillt dafür etwas Geld auszugeben, dass dieses Bild zukünftig ordentlich dargestellt wird.

@Arno Nimus

Ich bin noch nicht ganz dabei. Ohne G-Sync gehen sozusagen Bilder "verloren", da Graka und Monitor das Bild nicht synchron darstellen. Und dadurch machen 30 fps also diesen wenig flüssigen Eindruck, der nicht wäre, wenn Graka und Monitor synchron arbeiten würden? Ich denke, ich hab' das noch immer nicht ganz verstanden.

30fps ruckeln ob mit oder ohne G sync. Sicher mindert G sync die unterschiedlichen Frametimes etwas, die entstehen, wenn versucht wird z.b. 33fps auf 60hz auszugeben, denn das führt zum leichten stuttering. Aber selbst mit 30fps und Vsync was jeder aktuell testen kann um G sync zu simulieren, sieht es deutlichst ruckelig aus, ganz einfach weil das Auge bei der niedrigen Framerate die einzelbilder in Grenzen separieren kann, so das man den unrunden Ablauf erkennt. Desweiteren sind bei einem LCD die ansich schon miserable Bewegtbildauflösung mit sinkender Framezahl noch weiter ins Bodenlose.
ein 60hz LCD löst von den 1080 Linien in der Bildhöhe in Bewegung mal gerade 300 Linien auf. Der Rest verschmiert auf unserer NEtzhaut aufgrund das Sample Hold Prinzips der LCD Bilderzeugung. Mit sinkender Framerate steigt dieser negative Effekt weiter an.
Das ist auch der Grund warum moderne LCD TV auf 200hz via Motion Interpolation setzen, wobei zusätzlich noch Blinking oder scanning backlight die Unschärfeprobleme bekämpft

http://www.heise.de/video/artikel/Schoener-fernsehen-1508462.html

Die Annahme das man nun dank G Sync auch mit 30fps optimal spielen kann, ist so ziemlich aus der Luft gegriffener Optimismus der nicht haltbar ist. Ok man hat in dem Bereih kein Tearing mehr und wenn man einen 120hz LCD nutzt, die GPU jedoch nur 90fps avg erreicht, dann sind die 90fps tearingfrei besser als die gesyncten 60. Aber das war es dann auch schon. für die typische 60hz LCD Klientel wird es auch weiterhin empfohlen sein, die 60fps zu ereichen.
 
Zurück
Oben