News G-Sync-Upgrade für mutige Bastler kostet 199 Dollar

nap schrieb:
verzerrungen oder tearing

Nur als beispiel: mit gsync sehen 30fps viel flüssiger aus als ohne gsync, ungefähr so als ob es 45fps wären.

Viele würfeln hier alles durcheinander, und dann noch das gefährliche halbwissen :)

Dafür waren die Anführungszeichen. Unterabtastung hat nichts mit Tearing oder sonst irgendwas zu tun, und führt einfach zu Rucklern, wo eigentlich gar keine sind.

Das bedeutet genau das 45FPS auf einem 60Hz Bildschirm nicht dargestellt werden können. Der Bildschirm stellt 30FPS dar und die anderen 15FPS "verschmieren" die Wiedergabe, indem sie einen Anteil von Spiegelfrequenzen ins Bild bringen. In der Folge gibt der Bildschirm nicht das wieder was er von der Grafikkarte gesendet bekommt.
Übrigends tritt der Effekt nochmals im Bild auf. Es handelt sich um Alaising. Das was du im Bildbereich unter Treppchenbildung kennst tritt halt auch im Zeitbereich auf. Die Ruckler sind auch nichts anderes als diese Treppchen.
Die Lösung im Bildbereich ist ein Tiefpassfilter, im Zeitbereich entspricht das VSync. Nvidia umgeht das Problem halt, indem sie den verursachenden Prozess eliminieren: das Abtasten(im Bildbereich würde das dann Analogberechnung entsprechen, würde aber für jedes Spiel extra eine unglaublich teure Hardware bedeuten).

Übrigends, wenn Nvidia aus 30FPS 45 FPS machen kann, dann haben sie ein nachrichtentechnisches perpetum mobilee erschaffen. Bestenfalls schaffen sie es die 30FPS mit 45Hz darzustellen. Das ist PR Geblubber.
 
Zuletzt bearbeitet:
Gojira schrieb:
Damit sich aber der informierte "normale" Gamer ein Gerät mit G-sync kauft, sollte dieses einfach günstiger sein. Hat man einmal einen Monitor mit G-sync, wird man wahrscheinlich auch nur Nvidia Grafikkarten kaufen und ich denke bei vielen bleibt der Monitor länger als die Grafikkarte im Haus.

Sicherlich ist der aktuelle prozentuale Aufpreis beim 24" Gerät von ASUS nicht massentauglich. Auch 450 Euro wären wohl noch zu viel für das Gerät. Nur sieht das beim 27" Gerät in 1440p mit 120hz+ schon wieder anders aus. Wer sich heute einen neuen guten Monitor kaufen möchte der überlegt sich zweimal welche Features er denn über die nächsten 5 bis X Jahre so an Board haben möchte. Da gebe ich doch lieber 700 Euro aus, sprich 150 Euro mehr, als mich zig Jahre zu ärgern das mir ein Goodie fehlt das ich eigentlich sehr gern dabei gehabt hätte. Leider aber drauf verzichtet hab weil es AMD vielleicht auch in 1-2 Jahren gratis zum laufen bringt. Wo wäre da die Logik ?

Das Video ist Murks, der Aufpreis von G-Sync sehr hoch, dennoch wird sich G-Sync etablieren. Ich sehe auch kein Problem darin sich erst mal an NV zu binden. Ich hab die letzten 10 Jahre ausschließlich nur Nvidia verbaut und bin damit sehr gut gefahren. Ich hab nicht einmal das Gefühl gehabt total auf's falsche Pferd gesetzt zu haben. Das man sich nicht immer die beste Karte leisten kann, bei NV, ist dann speziell mit G-Sync zu verschmerzen.
 
marco_f schrieb:
Übrigends, wenn Nvidia aus 30FPS 45 FPS machen kann, dann haben sie ein nachrichtentechnisches perpetum mobilee erschaffen. Bestenfalls schaffen sie es die 30FPS mit 45Hz darzustellen. Das ist PR Geblubber.

Wer hat den so einen Mist behauptet?
 
cirrussc schrieb:
Nein, ein paar Millivolt reichen schlicht nicht aus, um den Hautwiderstand + Körperwiderstand zu überwinden, also entsprechend hohe Ströme zu treiben.

Da spricht wohl der Profi. :-D

Es kommt auf die Stromstärke an und nicht auf die Spannung.
 
Zuletzt bearbeitet:
marco_f schrieb:
Vielleicht nochmal für die Nichtnachrichtentechniker:

Das Ruckeln das man bei den Gsyncvorführungen sieht liegt daran, dass ein Abtasten immer nur Frequenzen bis zur halben Abtastfrequenz sauber wiedergeben kann. Ein 60Hz-Monitor kann also nur 30FPS wiedergeben. Ein 144Hz-Monitor kann 72FPS darstellen. Alles was über der halben Abtastfrequenz wird "verzerrt" durch Spiegelfrequenzen.
Gsync von Nvidia macht nichts weiteres, als dass es Monitor und GPU synchron hält, und somit die Abtastung überflüssig macht. So schafft ein 60Hz Monitor fast saubere 60FPS.

Nur fragst man sich halt wozu, wenn auch 120Hz Monitore auf dem Markt sind die das Selbe machen. Ich fände es übrigends auch nett wenn die Autoren solcher Artikel neben Gsync und Freesync auch hochfrequente Monitore eine Lösung sind. Diese sind vollständig systemunabhängig und laufen immer.
Insb. Gaminggeeks besitzen schon heute 120Hz-Monitore. Denen bringt Gsync nichts.

ui, da hat aber jemand herrlich wenig Ahnung und nicht einen Link zu Gsync/Freesync gelesen und verstanden. Gsync zaubert dir gerade bei 30-60FPS (schwankend) ein weit aus flüssigeres, sauberes Bild hin als jeder 120/144hz Monitor da die Frequenz eben nicht "gebrochen" werden muss - was bringen dir also 120hz wenn du nur 35FPS ohne Tearing ausgeben willst? 120hz Monitore sind schön wenn dien Game ohnehin mit 100 FPS + läuft.

Es ist immer so dass man FPS und Hertz des TFTs nach Möglichkeit gleich halten will oder letztere ein Vielfaches davon beträgt.

Beispiel:

35FPS in Game -> entweder mit 35, 70, 105 oder 140hz ausgeben - so dass ein ganzes Bild auch immer genau einem Bildaufbau gleich kommt. Wenn dasselbe Bild dann 1 oder 4 mal neu aufgebaut wird ist das erstmal egal - es geht um das "perfect Match" zwischen GPU Bild und dargestelltem Bild.

Wenn dein 120hz Monitor also nun deine 35FPS inGame darstellen will, was macht er dann?

Er kann nicht einfach auf 35/70/105/140 Hz wechseln sondern muss entweder ein Bild brechen (Tearing) oder aber du nutzt - sofern möglich, V-Sync - was bei 120hz TFT und 35FPS in game dann in 30 FPS resultieren würde. Vsync bedeutet dann dass ebenfalls 1 Bild (GPU ) auch 1 Bild TFT wird, - allerdings birgt das auch den Nachteil, das Vsync ein recht komplexes Verfangen sein kann, vor-allem wenn z.B die Frames zwischen 28 und 62 FPS schwanken, deine GPU muss die Bildinhalte ja immer so generieren, dass gleichmäßige Bewegungen "flüssig" aussehen, also nicht der Inhalt mal 1 cm hüpft von Bild zu Bild, dann wieder 0,5cm - sonst ruckels, Vsync und hohe Frames hin oder her.
Ich hab bei meiner HD6970 eig fast immer zw 30 und 60 hz und ja, mir kommt selten das Bild wirklich flüssig vor was nicht an FPS oder Monitor liegt.

Das greift Gsync wie auch freesync an - indem die GPU "Freischnautze" auf 100% laufen kann, immer die maximalen FPS berechnet und der TFT sich 1:1 an diese FPS anpasst, 1 Bild GPU auch als 1 Bild ausgibt.
Wenn du natürlich einen 60 Hz Gsync Monitor hast und deine GPU 64 FPS schafft, gibt der Monitor genau jedes 2. Bild aus, also 32 hz (was dennoch weit flüssiger aussieht als 32/64FPS auf einem 120hz Monitor)

Nvidia schafft es nicht mehr FPS zu generieren, oder eben auszugeben. Im Gegenteil, oft arbeitet der Monitor mit weniger Hz aber der Content kommt dennoch weit flüssiger rüber, was in diesen Gsync Reviews auch mit Erstaunen festgehalten wird. Ich kann das schon nachvollziehen - wie viele regen sich auf wenn der Monitor kein 24p kann... weil dann die BD ruckelt (und die Abweichung da sind minimal im Vergleich zu Games, da ist das Ruckeln allgegenwärtig).

Edit:

ist doch nur logisch, dass der Anfangspreis hoch ist, gerade auch wegen geringer Stückzahl und keiner Konkurrenz. Wenn man als Anwender den Mehrwert erkennt und dann vielleicht auch mal erleben kann - die Absatzzahlen steigen, dann sinkt dieser Preis auch recht fix.
Gut möglich dass Gsync später auch absolut überflüssig ist wenn die Displays eventuell von Haus aus ihr Wiedergaberate anpassen können, siehe FreeSync mit eventuellen DP 1.3 Standards.

Bisher spricht aus meiner Sicht wenig dagegen, dass Nvidia nicht genau gleich wie AMD mit Freesync zukünftige Displays ansteuern kann - Gsync hin oder her. Wenn es technisch geht und nahezu jeder Monitor damit umgehen kann (auch ohne Gsync) wird man wohl kaum verpicht auf Gsync Zwang setzen können (außer es arbeitet weit besser als offene Standards).
 
Zuletzt bearbeitet:
yummycandy schrieb:
Da spricht wohl der Profi. :-D

Es kommt auf die Stromstärke an und nicht auf die Spannung.
Satz bitte auch zuende lesen! Das steht da nämlich bei.
Und wovon hängt der Strom nun also ab?
Ohmsches Gesetz (~8. Klasse)?
Deswegen sind also Batterien (mehrere tausend Millivolt) noch nicht gefährlich und deswegen gibt es Schutzkleinspannungen usw..
Setzen, Sechs.
 
DaLexy schrieb:
G-Sync [...] wird mit sicherheit nicht floppen, dafür sind zuviele Hersteller im Boot.
Total viele, es sind 4 oder 5 mit jeweils einem Modell.
Dazu sind die Preise noch nicht wirklich bekannt und dann muss der 0815 Kunde mitspielen und nicht ne handvoll Foristen oder Hardcoregamer, die einen minimalen Anteil ausmachen. :rolleyes:
 
yummycandy schrieb:
Da spricht wohl der Profi. :-D

Es kommt auf die Stromstärke an und nicht auf die Spannung.

Das ist völliger unsinn.

Dein Körper hat einen Widerstand und es bedarf einer gewissen Spannung, um diesen zu überwinden, damit überhaupt strom fließen kann.


Es ist ja auch locker möglich, an nen PowerCap fürs Auto drannzufassen, obwohl die teile mehr als 1 Farad haben. Da ist richtig ordentlich Leistung dahinter. Schweißen ist damit kein Problem. Aber es sind halt nur 12V. In den meisten Fällen reichen 12V eben nicht, um den Widerstand deiner Haut zu überwinden, womit auch kein Stromfluss entstehen kann. Allerdings ist auch das auch mit größter Vorsicht zu genießen. Mit nassen/feuchten fingern sieht das schon wieder anders aus.


Aber ja, richtig ist, dass die Stromstärke entscheidend ist. Ob du nun 24V oder 24 KV abbekommst spielt für deinen Körper erstmal überhaupt keine Rolle. 24KV würden grundsätzlich nur schmerzhafter "pieksen", da der Strom im übertragenen Sinne schneller durch deine Haut "geschnalzt" wird.


marco_f schrieb:
Dafür waren die Anführungszeichen. Unterabtastung hat nichts mit Tearing oder sonst irgendwas zu tun, und führt einfach zu Rucklern, wo eigentlich gar keine sind.

Das bedeutet genau das 45FPS auf einem 60Hz Bildschirm nicht dargestellt werden können. Der Bildschirm stellt 30FPS dar und die anderen 15FPS "verschmieren" die Wiedergabe, indem sie einen Anteil von Spiegelfrequenzen ins Bild bringen. In der Folge gibt der Bildschirm nicht das wieder was er von der Grafikkarte gesendet bekommt.

Ich muss jetzt wirklich stark daran zweifeln, was du sagst. Dass ein 60 Hz Monitor nur 30 FPS wiedergeben kann ist einfach falsch. Das was du beschreibst trifft auf Videosignale mit 30 FPS zu, hat doch aber mit Monitoren nichts zu tun.

Im Normalfall wird der Monitor mit 60 Hz betrieben. Er aktualisiert 60 mal/sec seinen Bildinhalt. Das Signal von der Grafikkarte kommt genauso im 60 Hz Intervall, also haben wir Hardwaretechnisch schonmal zu jeder Zeit 60 FPS anliegen. Unabhängig davon wie viele FPS unsere Software schafft, bekommt der Monitor 60 mal/sec ein neues Bild. Im Notfall eben eben immer wieder das selbe, wenn sich der Bildinhalt nicht geändert hat.

So, Grafikkarten Rendern in Spielen die Bildabfolge nun leider in unterschiedlichen Zeitintervallen, innerhalb von sekundenbruchteilen können die FPS ansteigen und sinken, da jedes Bild unterschiedlich aufwändig zu berechnen ist und so die Zeitdifferenz von Frame zu Frame schwankt. Da das Spiel nun aber im festen 60 Hz Zeitraster abgetastet wird, damit der Monitor immer seine 60 Bilder bekommt entsteht zwangsläufig tearing. Ein Bild, das an den Monitor gesendet wird kann damit aus mehreren Einzelbildern, die noch nicht vollständig "aufgebaut" sind entstehen.

Um dieses Problem zu lösen wurde VSync erfunden. Die fertigen Frames werden quasi kurz zwischengespeichert und so lange zurückgehalten, bis der nächste Monitor refresh fällig ist und dann sauber als komplettbild ausgegeben.

Dadurch wird zwar nun das Problem des Tearing bekämpft - der Monitor bekommt sauber fertig berechnet bilder - aber durch das beschriebene zurückhalten der Frames, damit sie ins 60 Hz Raster passen müssen einige Frames die die Grafikkarte "zu viel" oder zu schnell berechnet hat ausgelassen werden, damit das Spiel auch weiterhin in echtzeit angezeigt werden kann und nicht irgendwann mit 5-10 sec verspätung am Monitor erscheint...

Durch diese ausgelassenen Bilder sind die visuellen übergänge von Frame zu Frame nicht mehr korrekt, besonders gut sichtbar bei Bewegungen. Logisch, wenn sich z.B. ne Kugel über den Monitor bewegt und ich nehme zwischendrinn ein paar Bilder raus, dann entsteht ruckeln bzw. die kugel würde über den Monitor von position zu position springen, da die Bilder die diese Bewegung darstellen sollten einfach weggefallen sind, da sie im 60 Hz raster keinen Platz mehr gefunden haben.

G-Sync behebt nun genau dieses Problem. Das 60 Hz Raster und bei 144 Hz Monitoren auch das feste 144 Hz Raster fällt komplett weg. Gibt es einfach nicht mehr. Der Monitor macht exakt dann einen refresh, wenn es ein neues Bild gibt und auch NUR dann. Da die Zeitintervalle von Frame zu Frame unterschiedlich sind absolut perfekt fürs Gaming. Kein Tearing, kein Vsync, keine ausgelassenen Frames, kein Ruckeln.
 
Zuletzt bearbeitet von einem Moderator:
Da Depppp :P schrieb:
Ja mir ist klar, dass G-Sync und Mantle etwas unterschiedliches ist.

Vor allem ist G-Sync zeitnah verfügbar. :evillol:

bazooExcalibur schrieb:
oh man ich weiss gar nicht wo das noch alles hinführt so ein aufwand zu machen, ich spiel mit meinem http://geizhals.de/acer-s5-slim-line-s275hlbmii-um-hs5ee-001-a839861.html, alle Games ob Schooter, Rennspiele usw..alles einwandfrei ohne schlieren selbst mit 60Hz.

Nur weil du da keine Probleme siehst, heißt das nicht das keine da sind.
90% der Autofahrer glauben auch sie bräuchten keine Brille. ;)

DaLexy schrieb:
Weiß garnicht was sich die Leute hier aufregen, muss doch keiner kaufen ?!

Der übliche Neid.
Demnächst werfe ich allen Windows-usern vor, das sie schuld daran sind das OpenGL von DirectX verdrängt wurde.

marco_f schrieb:
Wer ausser ein paar Geeks wird denn das Geld für Spezialmonitore aufm Tisch knallen, wenn ein 120Hz Monitor, der wohl das Selbe kostet das Problem genauso/besser behebt?

Erstens behebt der es eben nicht so, zweitens: Wofür sind wir denn geeks?
Sinnlos Geld verbraten ist der Sinn eines Hobbys. :D

leckerKuchen schrieb:
Kann die Faszination irgendwie nicht ganz verstehen. Wovon ist man da begeistert? Dass es kein Tearing mehr gibt und wohl auch das Inputlag dadurch reduziert wird?

Ja, genau von sowas. ;)
Wenn du nicht das Ziel hast Bildtechnisch so hoch wie möglich zu spielen ist das ok, ich habe da einen anderen Ansatz.

nap schrieb:
Ein 144hz monitor mit lightboosthack hat wiederrum andere vorteile die mit gsync überhaupt nicht angegangen werden. Zb bekommt man mit 144hz und lightboosthack und 144fps die Bewegungsunschärfe zu 99,9% weg.

Aber auch nur, wenn man wirklich hohe frameraten hat.

Deshalb hole ich mir den BenQ, da habe ich 144Hz, G-Sync und kann zusätzlich/bei Bedarf noch mit sehr hoher Wahrscheinlichkeit (weiß jetzt ja noch keiner) auch den lightboost hack wie beim Vorgänger wieder nutzen.

Diese Bastellei wäre mir zu teuer, mal abgesehen davon das der ASUS soweit ich weiß verspiegelt ist.
 
Zuletzt bearbeitet:
Ob Gsync besser als FreeSync funktioniert und der Nutzen gross ist bzw. den Aufpreis aufwiegt*, ist eigentlich nur Nebensache!


Diejenigen, die sich aufgrund der rundlaufenden Werbetrommel kaufen, sind das eigentliche Ziel der ganzen Aktion: die Bandbreite reicht hier vom leichtglaeubigen Casual zum ehrgeizigen Coregamer bis hin zum ambitionierten Enthusiast.
Diese Kunden werden sich freiwillig ueber einen Zeitraum in dem man sich 3-4 Grafikkarten kauft, an NVidia binden!

Sarkasmus: endlich ein Produkt, das alle Kaeferschichten einschliesst!!!!!


Bin mal gespannt ob wirklich alle NVkarten mitspielen werden oder ob Gsync in zukuenftigen Karten als Zusatzfeature mit Aufpreis oder gar erst an der 250euro-Marke mit an Bord kommt.


*durch die Konsolen stagniert PC-Grafik, das ist allgemein bekannt. Wir haben mit jeder neuen Grafikkarten-Generation mehr und mehr FPS, wo früher durch Entwicklungen auch neuen GraKas schneller die Puste ausging. Fazit: die 60+ FPS sind nicht mehr so schwer zu erreichen und ein 120+Hz TFT mit geringem InputLag ist langfristig eventuell ebenso gut wie ein teures GsyncTFT.
 
Zuletzt bearbeitet:
#














Korrigiere das eben.
 
Stinger schrieb:
*durch die Konsolen stagniert PC-Grafik, das ist allgemein bekannt. Wir haben mit jeder neuen Grafikkarten-Generation mehr und mehr FPS, wo früher durch Entwicklungen auch neuen GraKas schneller die Puste ausging. Fazit: die 60+ FPS sind nicht mehr so schwer zu erreichen und ein 120+Hz TFT mit geringem InputLag ist langfristig eventuell ebenso gut wie ein teures GsyncTFT.

Erstens ist die Stagnation inzwischen geringer geworden, zweitens gibt es auch schlechte Umsetzungen die mehr Leistung benötigen als die Grafik eigentlich her gibt, drittens gibt es da auch ein paar Leute die ihre Spiele mit mods, downsampling oder hochwertigen Bildglättungsmodi aufwerten und demzufolge niedrige Frameraten erzielen, womit der Bedarf von G-Sync wieder da ist. ;)
 
psYcho-edgE schrieb:
Wer Strom anlässt, sollte sich auch nicht wundern, wenn er einen gewischt kriegt, wir sind ja nicht in Amerika, wo manbei der Mikrowelle schreiben muss, dass man seine Haustiere darin nicht trocknen sollte >_>

Da ist es doch geradezu beißende Ironie dass das Modul nicht in Deutschland, sondern gerade in Amerika angeboten wird. Find ich richtig lustig.

@Topic: Ich kauf mir lieber nen Monitor wo das schon eingebaut ist. Dann kommts auch billiger.
Kaufe mir ja auch keine Grafikkarte wo ich erst den Kühler tauschen muss damit ich sie vernünftig benutzen kann :evillol:
 
Also 200€ nur für das g-sync feature finde ich ja schon lächerlich aber das ganze dann noch mit Bastelarbeit für den Kunden und ohne Garantie ist ja wohl der größte Witz.
Wer da wirklich scharf drauf ist verkauft doch besser seinen bisherigen Monitor und kauft einen neuen inkl g-sync das wird nicht viel teurer kommen, man hat keine Arbeit, kein Risiko und 2 Jahre Garantie.
 
ITX schrieb:
Ich warte auf die ersten Hobbybastler, die sich die Unterschiede beider Platinen mal genauer ansehen und dann feststellen, dass nur irgendwo ein IC für 50 Cent ergänzt wurde. Kann man ifixit nicht mal ein teardown dazu machen lassen?
Du hast dir das Video angeschaut? Scheinbar nicht, sonst würdest du nicht solchen Unsinn schreiben ;)
 
Ich hab mal an ein Pferdezaun gepikelt... Das war schon nen guter Schock, 400+ Volt will ich nicht abbekommen...

Ich muss sagen nVidia traut sich was - vor allem in den USA. Ich warte ja nur auf die erste Klage weil jemand übern Jordan gegangen ist.

Zum eigentlichen "Gerät" kann man nur sagen brauch man nicht wirklich... Lieber bessere Displays entwickeln welche IPS und 120 Hz haben.
 
was fürn Trollforum.. egal welcher Bereich..

der Preis ist für die Hardware angemessen...
immerhin wird die komplette Ansteuerung vom Displaypanel mit speziellem T-Con Modul + Netzteil getauscht

:freak:

ich denke auch das der Betrieb in Deutschland eh nicht so recht erlaubt ist ?! Das vorher geschlossene Gehäuse mit ehemals eingebautem Netzteil ist jetzt „offen“ und ein externes Netzteil wird benutzt..
normalerweise müsste das ganze Gehäuse neu geschirmt werden bzw gemessen werden..
eine VDE-Prüfung ist auf jeden Fall nötig..
 
Zuletzt bearbeitet von einem Moderator:
akuji13 schrieb:
Aber auch nur, wenn man wirklich hohe frameraten hat.

Und auch hier, wer hat was anderes behauptet? Deshalb steht bei mir auch 144fps! Aber auch mit 120hz, 100 - 120fps und lightboost ist die Bewegungsunschärfe fast 0.
Und von welchem Asus Model sprichst du? Mein Asus VG248QE spiegelt NICHT.
 
Zuletzt bearbeitet:
Cool Master schrieb:
Lieber bessere Displays entwickeln welche IPS und 120 Hz haben.

Auch 120 Hz lösen das Problem nicht, sondern mindern es nur. Auch die 120 Hz bedeuten ein festes Zeitraster. Suboptimal für die schwankenden Frametimes in Games.
 
Zurück
Oben