News G-Sync-Upgrade für mutige Bastler kostet 199 Dollar

Weiß garnicht was sich die Leute hier aufregen, muss doch keiner kaufen ?!

Leute die halt den ASUS Monitor haben können es sich optional kaufen und installieren.

Desweiteren denke ich mir das es da nicht irgendein IC Schalter für 50 Cent ist, da steckt wohl etwas mehr dahinter um Monitor und Graka eins werden zu lassen.

Man sollte sich schon mal informieren was G-Sync genau macht bevor man hier rumheult oder irgendwelche Mantlevergleiche zieht.
 
eben, und so ist das eben mit den Dingen bei denen man erster sein will und muss. Sicher nicht jedermanns Sache, aber sicher auch nicht verkehrt oder? Es ist eine Option die ohnehin nur extrem wenige in Anspruch nehmen werden. Sich drüber aufzuregen bringt ja auch herzlich wenig - freut euch lieber über Neu/Weiterentwicklungen jeder Art. Ist ja nicht so dass Gsync oÄ zwangläufig mit dieser Einbau-Prozedur verbunden ist.
 
So einen Scheiß habe ich ja selten gesehen plötzlich hat man kein HDMI, DVI Audioausgänge mehr was für Lumpensäcke bei NVidia haben denn diesen Nutzlosen Chip entwickelt:volllol:

Ne jetz mal im Ernst für den Preis hole ich mir Lieber einen guten Monitor ohne G-Saync mit 120hz+
und nicht sowas.:rolleyes:
Ich hoffe mal das AMD mit seinem Freesync dafür sorgt das NVIDIA auf seinem Scheiß sitzen bleibt.

Edit: Wenn die Restspannung so gefährlich ist gibt es dann eigentlich eine mögliche diese aufzulösen?
 
Zuletzt bearbeitet:
@SchoPi

bevor ich sowas von mir geben würde, würde ich erstmal schauen wie "flüssig" dein 120hz Monitor bei 43FPS ist, im Vergleich zu einem Gsync Model. Viel Hertz bringen dir bei wenig FPS wenig...

Ich hab noch keinen direkten Vergleich gesehen oder ein wirklich aufwendigeres Review gelesen - also halt ich mich mal mit Sinn oder Unsinnparolen zurück.


Edit:

A Week of Gaming on G-SYNC

After a week of using an ASUS VG248QE equipped with a G-SYNC module, I can honestly say that much of its hype is completely justified. In fast-paced shooters the ability to run with ultra-low input lag and very little stutter alongside the image quality benefits typically associated with VSync is nothing short of a revelation. The benefits within plodding RTS games are less pronounced but nonetheless still evident when doing quick viewpoint movements.

Typically my gaming is done on a 60Hz IPS monitor so the difference between my current setup and one that’s G-SYNC enabled has been extreme. The benefits were front and center with noticeable decreases in lag and an altogether cleaner sense of onscreen movement. Believe it or not, switching back to my old gaming methods brought about what can be best described as Stockholm Syndrome. I yearned for the G-SYNC gaming experience even though my IPS panel provided a much richer image. Luckily, once IPS G-SYNC monitors become available, I won't have to make this trade-off.

Even folks currently using 120Hz or 144Hz panels will likely see improvements, even if their graphics card supports NVIDIA’s Adaptive VSync and can consistently output between 90 to 120FPS at a given resolution. Switching between an Acer GD235HZ and the VG248QE wasn't quite as jarring as the switch between G-SYNC and 60Hz IPS but once again I could certainly notice how much cleaner this new technology's output was.

On the input lag front, everyone will benefit and for gamers this one feature can make a massive difference in reaction times and accuracy. For an alpha-stage product my experience with G-SYNC thus far has been nothing short of revolutionary.

...

Even 144Hz panels paired up with an enthusiast-grade system and ultra-high detail settings will see tangible fluidity enhancements from G-SYNC as framerates make their way below 60.

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/64586-week-nvidias-g-sync-monitor.html
 
Zuletzt bearbeitet:
Nvidia konnte nicht kurz bei Asus durchklingeln um sich n paar von den Blechstanzteilen liefern zu lassen? Dann müssten die potenziellen käufer nicht so lange dran rumbasteln, sondern könnten einfach das ganze Elektronikmodul kurz austauschen.
 
1. ist das video schon alt 2. ist nur compatible mit Asus so schwer ist der einbau nicht :freak:

dann dürfte man auch keine Lampe beim Beamer wechseln :p wird 200 Crad heiß die Lampe :freaky:
und kommt so einige Watt :E zustande
 
Naja das nützt uns hier ja herzlich wenig wenn wie es nicht kaufen können! :D
Passenden Monitor hab ich ja und G-Sync find ich interessant.
 
hm stell mir gerade die Frage was kritischer ist, nen 100€ Kühler auf ne 500€ GPU zu basteln, ne Komplett Wakü oder sowas hier... :o
 
Nur das gute Monitore auch mal eben 500€ kosten - es sei denn man Krebst noch immer mit TN rum.
 
G-Sync von NV ist eine klare Fehlentwicklung und wird floppen.
AMD ist schlauer und setzt es ohne Abzocke um.
 
ich hab die restlichen kommentare nicht gelesen, ich gehe aber aus dass sie stark dem meinem ähneln:

199$? jaja - da kauf ich lieber ne 199$ teurere graka, als dass ich in gsync investiere. scheinbar richtet sich gsync an ziemlich reiche Menschen, die nochdazu basteln wollen. (gibt glaub nur wenige davon) wird wohl ein riesen erfolg für nvidia.
 
ich find es bendenklich sowas jeden zugänglich zu machen,
wäre das gleiche wie man muss das nt für was auch immer aufschrauben.
.
und das einen newbie machen lassen halt ich für sehr suspekt,
wenns blöd geht und manche voreillig handeln kriegen sie vom rest strom ordentlich eine gewischt was auch tödlich sein kann

ich hab bis jetzt schon 4 mal eine gewischt bekommen,
durch lüfter tausch am nt,
weil die freunde sagten sie haben den pc schon seit 1-2 stunden nichtmehr angehabt,

was natürlich nicht gestimmt hat sondern wo ich an der tür war wurde er vom netz genommen,
3min später mit der hand rein ohhhh
 
Zuletzt bearbeitet:
Bin ich der Einzige der hinter der Platine eher einen InputLag-Minderer sieht und der Effekt davon eher den WOW-Effekt hervorruft?
 
DaLexy schrieb:
Desweiteren denke ich mir das es da nicht irgendein IC Schalter für 50 Cent ist, da steckt wohl etwas mehr dahinter um Monitor und Graka eins werden zu lassen.
Na gut, dann ist es eben ein µC für nen Euro. Schau dir mal an wie wenig Elektronik auf dem neuen PCB überhaupt drauf ist (und wieviel auf dem alten). Das einzig interessante ist das Modul mit dem Kühlkörper. Würd gern wissen welcher Chip darunter sitzt. Vielleicht ne ARM-Geschichte oder sogar gleich ne kleine GPU? Und warum man das NT ausgelagert hat würde mich auch interessieren. Verbraucht die Geschichte so viel mehr Strom als die ursprüngliche Elektronik?
 
Ich hoffe bloß dass es eine entsprechende Warnung geben wird mit Vorsicht Stromschlaggefahr etc. Sowas überhaupt auf den Markt bringen ist ja schon der Burner.
Jetzt entscheidet es sich halt: Grafik oder Schmerzen :D
 
Ne danke^^ das ist mir das Risiko nicht wert.
 
warum nicht so kann man gleich nochmal für das nt mitverlangen

@bagama
bis zu 400volt sind nicht tödliche, ne überhaupt nicht
ich glaub ich fahr mal wieder mitn draht aus spass in die steckdose:rolleyes:
 
Zuletzt bearbeitet:
Stinger schrieb:
Bin ich der Einzige der hinter der Platine eher einen InputLag-Minderer sieht und der Effekt davon eher den WOW-Effekt hervorruft?

Nein bist nicht der einzige! ;)
Wer nie tearing sieht, oder die Experten die bei 24 FPS flüssige Bilder wahrnehmen brauchen sowas natürlich nicht. Und es zwingt diese Experten auch niemand G-Sync Geräte zu kaufen. Dagegen zu Wettern bringt eben mal ein bisschen Aufmerksamkeit, die vielen scheinbar am Rest des Tages nicht zuteil geworden ist.
 
Zurück
Oben