News Nvidia G-Sync Pulsar: Neues Argument für kaum genutztes G-Sync-Modul

Suspektan schrieb:
Angeben tut man aber übpicherweise die mprt, diese lässt nicht simpel in lines/ second umrechnen, da auflösungsabhängig.
Blurbusters hat darüber auch einen eigenen Artikel verfasst.
Ich beziehe mich auf folgendes Blur Busters Statement:
For every 1ms of display persistence, there is 1 pixel of additional motion blur during 1000 pixels/second motion,
Auf einem 240Hz Monitor hat man daher 4 Pixel Motion Blur bei 960 Pixel/s.
Suspektan schrieb:
Auf einem 1080p Bildschirm mit 60fps beträgt die Bewegtbildschärfe ca. 360 lines/ second.
Schau dir die Toronto Map auf einem 60Hz Sample-and-Hold Monitor bei 360 Pixel/s an. Die Straßennamen sind nicht lesbar.
 
Kleine Straßennamen kann ich so schon schlecht lesen. ;) Aber wenn sie schnell vor dir herhuschen auf nem relativ kleinen Monitor, noch schlechter.

Also bei 24" Full HD kann ich 720p/s noch lesen. 960p/s wird wirklich schwer.

Kommt das aber nicht auch auf die Größe und Auflösung der Karte und Größe des Monitor an ? Mit ner Lupe würd's vielleicht besser gehen, so fern die Auflösung der Karte gut ist. :)

PS: Bei 1920p/s muss ich aber echt die weiße Fahne hissen. :D
 
ChrisMK72 schrieb:
Kommt das aber nicht auch auf die Größe und Auflösung der Karte und Größe des Monitor an ?
Die Kanten und kleinen Schriften auf der Karte haben Linien, die etwa 1 Pixel breit sind. Wenn man das so groß darstellt, dass das mehrere Pixel sind, dann wirkt sich der Motion Blur nicht so dramatisch auf die Lesbarkeit aus.
Es ist aber dennoch ganz einfach. Für jedes zusätzliche Vielfache an Pixeln Bewegungsgeschwindigeit bezogen auf die Monitorfrequenz hat man einen Pixel Motion Blur. Also auf einem 240Hz Sample-and-Hold Monitor hast du bereits 2 Pixel Motion Blur wenn du die Karte mit 720 Pixel/s ansiehst.
 
  • Gefällt mir
Reaktionen: ChrisMK72
ChrisMK72 schrieb:
Kleine Straßennamen kann ich so schon schlecht lesen. ;)
Jetzt, wo ich so langsam in das Lesebrillenalter komme, bringst du mich da auf den Gedanken, dass ein Produkt, welches im Bereich schneller Bewegungen in eh schon hohen Auflösungen ungeahnte Schärfe wieder zurückbringt, irgendwie sinnlos ist, wenn nur junge Augen was davon haben, aber nur ältere sich den Apparat leisten können :D ;) (nicht ganz ernst gemeint!)
 
  • Gefällt mir
Reaktionen: ChrisMK72
DrFreaK666 schrieb:
Also wäre es besser für alle gewesen, wäre FSR3 nur für Radeons erschienen
Das habe ich ja nicht gesagt. Wie sich das dann letztendlich auf den Kunden auswirkt kann man aus verschiedenen Perspektiven sehen. Ich finde die Kunden haben indirekt bisher von Nvidias Entwicklung am meisten profitiert, egal ob proprietär oder nicht, denn es gibt jetzt auch eine offene Lösung, bzw. ist das Feature überhaupt auf dem Markt.
 
Quidproquo77 schrieb:
denn es gibt jetzt auch eine offene Lösung, bzw. ist das Feature überhaupt auf dem Markt.
Das wäre auch ohne Nvidia erschienen, oder denkst bei VESA dreht man nur Däumchen?
 
Was hat FSR3 oder Nvidia Frame Gen mit der Vesa zu tun?
Jetzt bringst du irgendetwas durcheinander.
Ob wir heute Adaptive Sync hätten, wenn es Gsync nicht gegeben hätte, kann keiner sagen
 
Zuletzt bearbeitet:
AMD hatte mit GCN 2 alias HD 7790 bereits eine voll Adaptive Sync fähige Grafikkarte Anfang April 2013 am Markt.
Es muss jeder für sich selber bewerten, ob es Adaptive Sync erst wegen G-Sync gegeben hätte. (erstes Lebenszeichen von G-Sync in einem Youtube Video am 18.10.2013)

Allerhand Eckdaten (Zeitpunkt Vorstellungen und Verfügbarkeiten von Monitoren) hatte ich mal in folgendem Post gesammelt inkl. Verlinkungen:
https://www.computerbase.de/forum/t...ithub-verfuegbar.2090716/page-6#post-27034370
 
Du sagst also dass obwohl Nvidia früher auf den Markt kam mit einem Produkt das mit Variablem Overdrive und besserer VRR Flicker unterdrückung mehr bietet als Freesync (was im übrigen streng genommen genauso proprietär ist) und anscheinend auf Karten Unterstützt wird die älter als diese 7790 sind. Nvidia das bei AMD abgeschaut haben soll? Ist es nicht realistischer das beide sich das eben bei IDT mit PSR abgeschaut haben bzw. ggf. eingekauft wurde?
 
Stormfirebird schrieb:
Wenn wir jeweils von einem Monitor mit perfekten Schaltzeiten ausgehen dann hast du mit nur 60 FPS auf beiden den gleichen Motion Blur. Die FPS sind also wirklich notwendig.
Danke!
In diesem Falle macht BFI dann schon sinn. So hohe FPS wird man wohl nur in wenigen Titel erreichen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Zunächst mal:
Ich ziehe in Zweifel, dass Adaptive Sync ohne G-Sync nicht gekommen wäre, denn AMD hat noch vorher erste Hardware am Markt kaufbar gehabt.

Zitat aus meiner Verlinkung aus meinem vorherigen Post:
AMD soll also auf G-Sync erst reagiert haben? Und das obwohl die Entwicklung der FreeSync fähigen 7790 bereits ein Jahr vor dem ersten Zeigen von G-Sync abgeschlossen sein worden müsste. (Produktion, Verschiffen, etc. bedarf schließlich entsprechendem Vorlauf). Das halte ich doch für unwahrscheinlich. Vor allen Dingen, AMD hat eine bereits existente Schnittstelle weiterentwickelt. Wurde schließlich zum Stromsparen bereits in Laptops verwendet.
Link zu IDT mit PSR
Ich denke mal, du beziehst dich darauf. Klar, danach haben beide abgekupfert.
Ich nenne es selber Weiterentwicklung, da PSR nicht in Spielen genutzt werden konnte.

Auch Nvidia hatte so ihre Mühe mit G-Sync geflickere. Besonders die Adaptive Sync Monitore haben bei Nvidia Grafikkarten wohl mehr geflackert als bei AMD Grafikkarten.

Umsetzung von Features (Variables Overdrive, VRR Flicker)
Hierbei muss man auch einfach mal berücksichtigen, wie eine proprietäre Schnittstelle (G-Sync) ggü. einem offenen Standard sich entwickeln kann.

G-Sync: Nvidia hatte letztendlich ALLES in eigenen Händen um Entwicklung und Features umzusetzen.
Zudem wird alles im Monitor (Scaler) umgesetzt, sodass eine Anpassung der Hardware bei den GPU Chips nicht erforderlich war. Den Scaler hat Nvidia auch selber entwickelt. Es gab ja sogar ein Modul zu kaufen, das man selber einbauen konnte.

Adaptive Sync:
VESA: muss den Standard verabschieden.

Monitorhersteller/Scalerhersteller: fangen ganz sicher nicht an Ressourcen in ungelegte Eier (fehlender Standard) zu stecken, warten auf den Standard. Sind aber meiner Meinung nach auch vollständig dafür verantwortlich, wie die schwankenden "FPS" auf den Monitoren umgesetzt wird. AMD hat hier meiner Meinung nach keine Handhabe Variables Overdrive / keine Geflackere umzusetzen. Denn der dafür entwickelte Scaler kommt nicht von AMD und liegt nicht in deren Machtbereich.

AMD: muss erstmal entsprechende GPU Chips passend dem Standard herstellen, hat AMD sogar trotz Unsicherheit getan (VESA Standard kam erst über ein Jahr später).

Frame-Doubling kam erst nach Erscheinen der ersten Adaptive-Sync Monitore. (Ressourcen in ungelegte Eier und so, AMD hat also abgewartet, wie Adaptive Sync von den Scalerherstellern umgesetzt wird)

Ein offener Standard dauert halt länger, liegt in der Natur der Sache, da mehrere Parteien abzustimmen sind und parallele Entwicklungen nicht stattfinden (können) da keiner Geld verprassen will.

Die Feature Umsetzung (VRR Flicker/ Variables Overdrive) ist daher für das grundsätzliche Feature der Synchronisierung irrelevant um bestimmen zu können, wer abgekupfert haben soll.
 
Traxton schrieb:
.

Auch Nvidia hatte so ihre Mühe mit G-Sync geflickere. Besonders die Adaptive Sync Monitore haben bei Nvidia Grafikkarten wohl mehr geflackert als bei AMD Grafikkarten.

Konnte das VRR Flicker Problem mit dem CRU Tool beheben.

VRR Bereich von 35hz-165hz auf 35-100hz gesenkt.

AMD Adaptive Sync Monitor AW3423dwf + nvidia 4070ti
 
Da habe ich in Zukunft ja wieder einen guten Grund den Monitor zu Upgrade. G-Sync war bei mir immer erste Wahl wenn ich nach Monitoren geschaut habe. Es freut mich daher nun eine noch bessere Version in Monitoren vorfinden zu können. Auch wenn nicht alle Projekte von NVIDIA groß werden, so bin ich froh das sie immer wieder neues Versuchen. Deshalb werde ich NVIDIA immer treu bleiben. AMD schaut bloß was man bei NVIDIA alles (schlechter) kopieren kann.
 
Shinigami1 schrieb:
G-Sync war bei mir immer erste Wahl wenn ich nach Monitoren geschaut habe.
Basierend auf deiner Hardware frage ich mich wann bei dir wirklich mal G-Sync benötigt wird !?
Seit DLSS und vor allem Frame Generation sollte bei es bei dir doch zu 90% mit 140 FPS laufen.
G-Sync ist eher für "Geringverdiener" mit RTX4070 die auf 144Hz Monitor mit 70FPS rumkrepeln.

:heilig:
 
Baal Netbeck schrieb:
Mit OLED könnte man theoretisch näher dran kommen, indem dem eigentlichen Bild, ein schwarzes Bild himterhergeschickt würde....eventuell kommt das ja irgendwann.
Laut JJ von ASUS wird genau das so "kommen".
Für OLED auch leicht umzusetzen, gerade bei dem Schwarzwert und den geringen Schaltzeiten.
 
Stormfirebird schrieb:
Warum sollte man da auf Gsync verzichten? Hat doch trotzdem nur vorteilen.
Naja die ganze Frickelei mit tausend Einstellung bis Alles endlich smooth läuft nur um dann bei 140FPS
im Vergleich zu V-Sync einen auf fast schon Einbildung basierend geringen Input Lag zu bekommen !?
Lauf mal bei CP2077 seitlich und berichte mit welchen Einstellungen es 100% smooth läuft. Viel Spaß.
 
Mimir schrieb:
Wie kommst du zu der Annahme?
Wird jedes Mal auch bei z.b. den neusten Fernsehern oder Monitoren gemacht.

Da wird der angeblich beste TV aus 2023 mit dem besten aus 2024 verglichen.. und das Bild aus 2023 sieht dann plötzlich aus wie einer aus dem Jahr 2000.

Nur damit der neuere dann noch besser dasteht als er ist.

Typische Kundenverarsche eben. Dummes Marketing.
Klar neue Technologien sind meisten gut und besser.. Aber man sollte mal darüber nachdenken, die Kunden nicht so krass für dumm zu halten.
 
Habe mir heute mal die Zeit genommen BFI auf meinem LG OLED65G1 zu testen (120Hz + BFI).
Dazu testufo.com

Tatsächlich ist da ein deutlicher Unterschied zwischen kein BFI und BFI. Bis etwa 480 Pixels Per Second ist 120Hz gefühlt auch ohne BFI ziemlich scharf, darüber wirds aber etwas Blurry.
Schalte ich BFI ein ist das UFO gestochen scharf. Auch die Sterne sind es.
Sogar wenn ich auf 3840 Pixel pro Sekunde ist das Ufo gestochen scharf, wenn ich es mit dem Auge verfolge.

Ich werde vermutlich trotzdem ohne BFI spielen, der Heilligkeitsverlust ist für mich glaube ich schlimmer als ein bisschen Blur. Werde es demnächst aber trotzdem mal noch mit einem Game testn.

Hoffe LG baut in zukünftige TV-Modelle BFI wieder ein. Der G1 ist ja noch die letzte Generation die 120Hz + BFI bietet.

Was positiv ist, hätte vermutet dass für mich das Bild flackert mit BFI. Tut es aber nicht, ist nur dünkler. Von daher mögen die helleren OLEDs kommen, damit ich BFI guten gewissens einschalten kann.

Sorry, ist ein klein wenig Off-Topic.

Edit: Habe es jetzt doch mal noch einem Spiel getestet. Spyro Reignited Trilogy. War für mich kein grosser Unterschied mit oder ohne BFI. Mit BFI minim besser. Vermutlich würde man es in 1st Person spielen wie Shooter eher merken. Trotzdem, momentan kein Feature dass auf dem aktuellen Monitor wegen dem Helligkeitsverlust für mich Sinn macht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hotzenplotz45
Zurück
Oben