Gerüchte um Nvidias G-Sync aufgetaucht

Bei PcPerspective wurde das ganze sehr ausführlich beleuchtet. Schaut mal auf Seite 3 des Berichts, der schon im Thread gepostet wurde, das Video an.
http://www.pcper.com/reviews/Graphi...ed-Leaked-Alpha-Driver/Drawbacks-and-Conclusi

Das Modul hilft wohl etwas gegen Flimmern und eliminiert Schwarzbilder bei sehr niedrigen Frameraten. Das sieht man im Video ganz gut.

Trotz allem... Nvidia versucht mal wieder einen eigenen, proprietären Standard durchzudrücken, um mehr Geld zu verdienen und stellt sich somit mehr oder weniger direkt gegen offene Standards und deren Entwicklung. Das mag aus Unternehmesperspektive sicher ganz toll sein und zu einer stärkeren "Kundenbindung" führen. Dennoch bringen offene, für jeden nutzbare Standards mehr für die gesamte Technikwelt. Schaut euch PhysX an, das nutzt keine Sau weil es eben nur auf einem Teil der GPUs läuft. Und so wird es mit G-Sync auch sein.

G-Sync wird vermutlich nur in einer handvoll Gamingmonitore mit 144Hz verbaut werden, mit Glück auch mal in einem IPS mit 100Hz, aber letztendlich bleibt es ein teures Nischenprodukt. FreeSync dagegen kann aufgrund der nicht vorhandenen Lizenzgebühren und Hardware quasi ohne Mehraufwand in jedem Monitor implementiert werden. Dadurch wird es weitere Marktbereiche abseits Highend-Gaming abdecken und auch den ein oder anderen Arbeitsmonitor beglücken. Gerade im Bereich unter 60Hz, also Casual Gaming oder im Filmbereich, wo krumme Frameraten wie 23,976 Bilder/s, 25fps oder 29,97fps vorkommen, die nur schwer auf einem 60Hz-Panel abbildbar sind, sehe ich Vorteile von FreeSync. Stellt euch vor, niemals wieder die Bildwiederholfrequenz anrühren zu müssen, um einen Film richtig genießen zu können. Und das sind Bereiche, in denen sich ein einigermaßen farbtreuer IPS-Monitor besser eignet als ein ultraschnelles, ähnlich teures Gamingpanel mit kleinerem Farbraum und schlechteren Blickwinkeln.

Letztendlich muss ich als Besitzer einer GTX760 aber eins sagen: Sowas will ich nicht mehr unterstützen. Und ich lasse mich auch nicht mehr von den proprietären Ködern seitens Nvidia verführen. Wäre nur gut, wenn AMD effizienztechnisch wieder mithalten könnte, wie es damals zu Zeiten der HD5770 der Fall war. Und leider hinken sie auch bei Stereoskopie (3D) hinterher, das klappt bei Nvidia in nahezu jedem Spiel mit keinen oder minimalen Einschränkungen. Bei AMD wurde zwar viel versprochen (HD3D), in der Realität werden nur eine begrenzte Zahl an Spielen unterstützt. AMD ist leider auch nicht ganz perfekt.
 
Oha, das sind natürlich interessante Fakten. Jetzt steht nur noch die Behauptung NVs im Raum dass die Notebook-Variante nicht so gut wie die Desktop-Variante funktionieren soll. Da bei einem Notebook kein Modul vorhanden ist (was auch erklärt wieso ein anderer Nutzer das bei seinem Notebook geschafft hat) ist die Nutzung von Adaptive-Sync durchaus naheliegend.
Theoretisch müsste sich dies also auch am Desktop nutzen lassen; Da müsste man jetzt am besten einen Vergleich ziehen. 2 sonst identische Monitore, von denen einer G-Sync beherrscht, ein Rechner mit modifiziertem Treiber und einige Slow-Mo Videos. Wenn beide Bildschirme ein gleich gutes Bild abliefern wäre das Modul entlarvt. Wenn nicht wäre NVs Behauptung bezüglich der Qualität auf Notebooks (ohne Modul) bestätigt.

Ich bin mal auf weitere Tests gespannt, jetzt verbreitet sich das ganze auf jeden Fall weiter im Netz.
 
Relaxo32 schrieb:
Bleibt die Frage für was dann das GSync Modul eigentlich gut ist, wenn NV es auf Laptops auch ohne hinbekommt.

Externer Monitor != Laptop-Display.

Es geht auf externen Monitoren nicht ohne das Modul, weil die Monitore AdaptiveSync nicht können.
Für eDP wurde AdaptiveSync bereits vor Jahren (2009) spezifiziert.

http://www.vesa.org/news/vesa-adds-adaptive-sync-to-popular-displayport-video-standard/

Adaptive-Sync is a proven and widely adopted technology. The technology has been a standard component of VESA’s embedded DisplayPort (eDP™) specification since its initial rollout in 2009.
Ergänzung ()

Relaxo32 schrieb:
Bleibt die Frage für was dann das GSync Modul eigentlich gut ist, wenn NV es auf Laptops auch ohne hinbekommt.

Externer Monitor != Laptop-Display.

Es geht auf externen Monitoren nicht ohne das Modul, weil die Monitore AdaptiveSync nicht können.
Für eDP wurde AdaptiveSync bereits vor Jahren (2009) spezifiziert.

http://www.vesa.org/news/vesa-adds-adaptive-sync-to-popular-displayport-video-standard/

Adaptive-Sync is a proven and widely adopted technology. The technology has been a standard component of VESA’s embedded DisplayPort (eDP™) specification since its initial rollout in 2009.


smilefaker schrieb:
Nvidia verwendet bei Notebooks den VESA Standard und kassiert bei TFT´s mit an Lizenzgebühren ab.


Weil es für TFTs bislang keine funktionierende Lösung gibt!!
GSnyc ist derzeit immer noch ohne (käuflich erwerbbare) Konkurrenz und das lässt sich NV eben bezahlen.

Thanok schrieb:
.
Theoretisch müsste sich dies also auch am Desktop nutzen lassen;

Ja, sobald denn mal entsprechende Monitore erhältlich sind.
 
Zuletzt bearbeitet:
kisser schrieb:
GSnyc ist derzeit immer noch ohne (käuflich erwerbbare) Konkurrenz und das lässt sich NV eben bezahlen.

Wobei der Aufpreis vermutlich für das teure FPGA draufgeht. Der aktuelle Einzelstückpreis bei Mouser liegt übrigens bei 733,34€ :o
 
Zuletzt bearbeitet:
Kisser alles was du geschrieben hast widerspricht den Spezifikationen, welche die VESA veröffentlicht hat.

Mittlerweile sieht es sogar danach aus, dass AdaptiveSync überhaupt keine neuen scaler braucht - ebenso wenig wie Gsync. Die neuen Scaler können lediglich die hohen Auflösungen umsetzen die mit eDP in der neuen Monitor-Generationen im Desktop einzug halten, wie sie schon jahrelang im Notebook vorhanden sind. Es gibt schon Monitore am Markt die mit eDP intern angebunden sind.

Und schau mal hier rein:
http://www.planet3dnow.de/vbulletin...A-fuer-GSync?p=4982822&viewfull=1#post4982822
Hier noch ein Bild das zwar schon 2011 veröffentlicht wurde aber es zeigt die Basics:
attachment.php


Kommt dir das bekannt vor? - Es zeigt exakt die Frameraten bei AdaptiveSync im Vergleich zu fixierter Monitorfrequenz.
Findet sich auf Seite 10 hier: http://home.sogang.ac.kr/sites/aiprc...erface_V10.pdf
Und es benötigt keinen Scaler besonderer Bauart. Nur muss der scaler über eDP angeschlossen sein im Monitor und diese gibt es nun mal schon lange waren aber teuren Modellen und Mobile vorbehalten.
Ergänzung ()

Übrigens auch interessant welche Limitierungen BenQ dem GSync-scaler attestiert: http://gaming.benq.com/gaming-monitor/xl2420g/
NVIDIA’s latest G-SYNC revolution requires monitor manufacturers to replace their scalar with a G-SYNC, trading in the freedom to scale settings like input frame, color hue, intensity and contrast for pure speed and smoothness of the game. With the best efforts of our R&D champions, we’ve found a way to keep your options open with the world’s first hybrid engine design. So you are in control of matching your choice of gameplay.
Daher verbauen die jetzt 2 scaler. Einen der einen Monitor mit allen Features ausstatten kann und einen für GSync - toll.
 
Zuletzt bearbeitet:
kleine fehler behebung : du meinst einen scaler für die Features und einen für Nvidias Geldbeutel ;)
 
kisser schrieb:
Weil es für TFTs bislang keine funktionierende Lösung gibt!!
GSnyc ist derzeit immer noch ohne (käuflich erwerbbare) Konkurrenz und das lässt sich NV eben bezahlen.

DAs peinliche ist, dass G-sync eine Kopie des offenen Standards ist und für den Nutzer überhaupt nicht nützlich ist.
Die Ankündigungen Nvidia hätte hier etwas außergewöhnliches getan, das ist blankere Hohn.

Nvidia wird sich G-sync auch weiterhin bezahlen lassen und den DRM Müll in die Monitore schrauben.
 
JMP $FCE2 schrieb:
Wobei der Aufpreis vermutlich für das teure FPGA draufgeht. Der aktuelle Einzelstückpreis bei Mouser liegt übrigens bei 733,34€ :o

Was ja auch nicht verwunderlich ist, wenn es keine Konkurrenz gibt. Wenn die neuen Geräte erscheinen werden die Preise garantiert angepasst werden. Keine Sorge ;)
 
@smilefaker

Oder der offene Standard eine Kopie von Gsync.;)

Nvidia hat schon etwas außergewöhnliches getan:
Sie waren mit ihrer Lösung deutlich schneller am Markt als der ganze Rest der Monitor-Industrie zusammen!
Sie hatten ihre Lösung schon fertig, als der ganze Rest noch nicht einmal eine Spezifikation dafür hatte.

Ich sehe jetzt nichts Verwerfliches darin, daraus Kapital schlagen zu wollen. Das ist gängige Praxis aller Unternehmen. Vergleiche z.B AMDs Mantle. AMD wollte auch nicht auf die endgültige Dx12 Spezifikation warten und dieses zu ihrem Vorteil nutzen.
 
Es ist seit 2009 VESA-Standard. Da hat nun Nvidia 5 Jahre lang Himmel und Hölle in Bewegung gesetzt um vor der ganzen Industrie einen FPGA zusammen zu frickeln der 6 Monate später völlig sinnlos wird. Aber nur wenn man genug Monitor-Hersteller dazu bewegt hat genug Geld in den Sand zu setzen für ein Modul das keinerlei Funktion erfüllt und sogar extrem beschnitten ist gegenüber Standard-ASICs, so dass die Hersteler gezwungen sind einen zweiten zusätzlichen Standard-ASIC zu verbauen um die normalen Funktionen eines jeden Billig-Monitors zu bekommen.

Na dann sag ich mal Glückwundsch zu der Ingenieurs-Leistung - und wofür wollen die nochmal den Aufpreis?
 
kisser schrieb:
der der offene Standard eine Kopie von Gsync.

Genau andersrum ist es. Nvidia sitzt in der VESA.:freak:

Sie waren mit ihrer Lösung deutlich schneller am Markt als der ganze Rest der Monitor-Industrie zusammen!
Sie hatten ihre Lösung schon fertig, als der ganze Rest noch nicht einmal eine Spezifikation dafür hatte.

Im Sommer waren die ersten G-sync Monitore langsam lieferbar, eher Herbst.
Ein halbes Jahr bis zum kommenden Standard, da müssen die Leute die im Gremium sitzen wohl selbst die Köpfe geschüttelt haben.
Nvidia hat letztendlich nur den VESA Standard in das Modul mit aufgenommen, das ist alles.
Der Rest is DRM.

Vergleiche z.B AMDs Mantle. AMD wollte auch nicht auf die endgültige Dx12 Spezifikation warten und dieses zu ihrem Vorteil nutzen.

Mantle war ein Projekt von Dice, welches AMD mitentwickelt hat.
Hinzukommt dass man es selbst entwickelt hat und es keine Weiterentwicklung von Directx12 ist.
Absurdes Beispiel.
 
Das ich hier immer soviel Müll lesen muss! Wartet die Tests ab bevor ihr hier schreit G-Sync ist sinnlos!! Junge, wie im Kindergarten hier. Selbst noch kein G-Sync oder Adaptic Sync gesehen und hier unbestätigten Quatsch schreiben.:rolleyes:
 
PCper hat es schon getestet-du musst nur mal die Realität anerkennen, dann wird sie auch verständlich und deine Postings sinnvoller.
 
Daedal schrieb:
PCper hat es schon getestet-du musst nur mal die Realität anerkennen, dann wird sie auch verständlich und deine Postings sinnvoller.
An einem freesync - Monitor und ich meine nicht Laptop? Und der Typ ist für mich keine aussagefähige Quelle. Nie was gehört von dem! Und zu einem Test gehört bissl mehr ;-)
 
Zuletzt bearbeitet von einem Moderator:
Hier im Forum geht es schon lange nicht mehr darum informiert zu werden und seine Meinung zu sagen. Das sind nur noch Grabenkämpfe. Hauptsache die jeweils andere Firma möglichst schlecht machen und nichts weiter.
Ein @smilefaker (als Beispiel und als einer von vielen) hat den ganzen Tag nichts anderes zu tun als möglichst negative über NV zu schreiben. Einfach einmal seine Beiträge lesen und verstehen.

Gibt es denn keine Vernunft mehr, dass man das alles erst einmal abwartet, bis G-Sync gegenüber FreeSync getestet wurde und man sich dann ein Bild davon machen kann? Darf ich evtl. noch selbst entscheiden ob ich bereit bin irgendwelche Module oder Lizenzen zu zahlen.
 
smilefaker schrieb:
Genau andersrum ist es. Nvidia sitzt in der VESA.:freak:

Die Tatsache, dass jemand in einem Industriekonsortium sitzt bedeutet zunächst einmal gar nichts. Schon gar nicht, dass man nicht eigene Dinge entwickeln kann, die evtl. später durch andere standardisiert werden.

smilefaker schrieb:
Nvidia hat letztendlich nur den VESA Standard in das Modul mit aufgenommen, das ist alles.

Bislang lediglich eine Vermutung. Von welchen Standard sprichst du überhaupt? "Der VESA Standard" ist doch sehr unspezifisch.

smilefaker schrieb:

Erkläre mir doch mal was damit gemeint ist. DRM kenne ich nämlich nur als Kopierschutzverfahren für digitale Medieninhalte (Video, Audio, Ebooks..)

smilefaker schrieb:
Mantle war ein Projekt von Dice, welches AMD mitentwickelt hat.
Hinzukommt dass man es selbst entwickelt hat und es keine Weiterentwicklung von Directx12 ist.
Absurdes Beispiel.


Nein, das Beispiel ist perfekt.

So wie NVidia (evtl.) der VESA-Spec mit ihrem GSync Modul vorgegriffen hat, so hat AMD eine frühe "DX12 Alpha"-Spezifikation als Mantle auf den Markt geworfen und damit der finalen DX12-Spezifikation vorgegriffen.

/Korrektur: AMD und Dice selbstverständlich. Die sitzen ja beide bei der DX12 Spezifikation mit am Tisch.
 
Zuletzt bearbeitet:
Uihh, anscheinend sind ein paar der Fanboys nach #VRamGate etwas angeschlagen ;)
Deshalb treten hier gerade die grössten Vertreter dieser Gruppe geschlossen zur Verteidigung auf :D

Wartet doch lieber erstmal Tests zu GSync vs. FreeSync ab. Und hört auf User, die nonkonform eurer Meinung (oder Weltanschauung?) sind so anzufahren! Smilefaker diskutiert in diesem Thread mit Fakten ihr diskutiert mit Mutmaßungen. Dieses unterschwellige A-Loch-Verhalten ist doch wirklich peinlich für volljährige, reife Personen. Unterste Schublade ist es auch, dass man versucht einen User dadurch zu diffamieren, indem man seine Beiträge "zur Schau" stellt. Weil Smilefaker im Gtx970-Thread geschrieben hat, dass er nVidias Verhalten gegenüber den Kunden in keinster Weise in Ordnung findet ist er auf einmal kein valider Diskussionspartner mehr? Ihr sprecht ihm bloß jede Glaubwürdigkeit ab, weil er unbequem gegenüber der heilen nVidia-Welt ist. Lächerliches Verhalten.
So kann man keine Grundlagendiskussion führen. Die ist aber auch anscheinend nicht gewollt, weil durch den Blick über den Tellerrand das Weltbild Risse bekommen könnte. Manche legen hier im CB-Forum wirklich nur ein ultra-konservatives, direkt unreifes Verhalten an den Tag. Es gibt hier leider IMMER nur eine voreingenommene Herangehensweise.

Zu der Aussage Mantle = DX12:

Dice ist an Intel, nVidia und AMD herangetreten mit der Bitte einer Neuentwicklung einer API. Diese sollte nicht auf neue graphische Effekte, sondern simplerweise nur auf CPU-Effizienz getrimmt sein. Bei der Entwicklung mitgeholfen hat schlussendlich nur AMD. DX12 hingegen ist ein neues DX, dass auch neue Techniken einführt und neue Hardware voraussetzt. Die Spezifikationen für dieses DirectX stehen von Microsoft immer noch schlussendlich nicht fest. Also ist eine Vergleichbarkeit zwischen Mantle und DX12 einfach in keinster Weise gegeben ;)
 
BookerDeWitt schrieb:
Dice ist an Intel, nVidia und AMD herangetreten mit der Bitte einer Neuentwicklung einer API. Diese sollte nicht auf neue graphische Effekte, sondern simplerweise nur auf CPU-Effizienz getrimmt sein. Bei der Entwicklung mitgeholfen hat schlussendlich nur AMD.

Als CPU-Anbieter mit momentan nicht so ganz aktueller Produktpalette hat AMD sicher ganz und gar uneigennützig geholfen ;)
 
BookerDeWitt schrieb:
Zu der Aussage Mantle = DX12:

Dice ist an Intel, nVidia und AMD herangetreten mit der Bitte einer Neuentwicklung einer API. Diese sollte nicht auf neue graphische Effekte, sondern simplerweise nur auf CPU-Effizienz getrimmt sein. Bei der Entwicklung mitgeholfen hat schlussendlich nur AMD. DX12 hingegen ist ein neues DX, dass auch neue Techniken einführt und neue Hardware voraussetzt. Die Spezifikationen für dieses DirectX stehen von Microsoft immer noch schlussendlich nicht fest. Also ist eine Vergleichbarkeit zwischen Mantle und DX12 einfach in keinster Weise gegeben ;)

Tja, leider kannst du nur Mutmaßungen anstellen und kennst die Hintergründe nicht, warum Mantle überhaupt entstand. Ich schon.;) Aber ich lasse sich gerne in deinem Irrglauben. Die Wahrheit dahinter würde deinen Glauben (und nicht nur deinen!) an das gute AMD in seinen Grundfesten erschüttern.
 
Zurück
Oben