News Nvidia G-Sync Pulsar: Neues Argument für kaum genutztes G-Sync-Modul

ChrisMK72


Der Test bringt rein gar nix, wenn man ihn nicht richtig ausführt und zeigt dann eben nicht das was am Auge ankommt.
Wenn du einfach draufhältst und ein Foto mit kurzer Belichtungszeit knipst, dann ist es eben scharf. Glückwunsch, du hast nicht verstanden, wofür der Test da ist...

Du hast eben nicht den Effekt aufgenommen, der in Bewegung entsteht, wenn das Objekt am Display verfolgt wird. Da entsteht ganz massiv Unschärfe, obwohl die relative Geschwindigkeit zwischen dargestelltem Objekt und Kamera identisch ist. Und darum gehts.

Da scheinbar keiner die Links sieht, hier nochmal mit Anleitung und Erklärungen: https://blurbusters.com/motion-tests/pursuit-camera/


Ist ja schön, wenn dir das was aktuelle Monitore bieten reicht. Ich sag ja auch nicht, dass 144 oder 240 Hz kompletter Mist sind. Wenn einem das reicht und man das ok und gut findet. Passt doch. Das ist ne valide Meinung, der ich nicht wiederspreche.
Aber zu sagen, die Unschärfe ist nicht "da" im sinne von "definitiv nicht vorhanden", dann ist das nunmal quatsch.

Wenn man schon so nen ausgetüftelten Test als Grundlage zur Argumentation nimmt, dann sollte man auch bei den wissenschaftlichen Fakten bleiben und nicht einfach einen völlig falsch durgeführten Test nehmen und damit versuchen seine subjektive Meinung zu untermauern. Das ist komplett hanebüchen.


Aber ich seh schon, die Diskussion ergibt einfach keinen Sinn. Wie soll man hier diskutieren, wenn Leute nichtmal ansatzweise verstehen, wie man auf wissenschaftlicher Grundlage arbeitet, wie Tests und Messungen durchgeführt werden und was es bedeutet, wenn ein Ergebnis nicht valide ist. Das sind grundlegendste Dinge die in der Technik/Elektronik unabdingbar sind und ihr haut wild mit behauptungen und Argumenten um euch die jeder technischen Grundlage entbehren und wenn man Erklärungen formuliert und links mit weiterführenden Erklärungen liefert wird es einfach ignoriert und so getan, als hätte man es nie gepostet.


Thema ist für mich damit erledigt. Das ist einfach das falsche Forum, um solche technischen Details zu diskutieren.
 
  • Gefällt mir
Reaktionen: ChrisMK72, HageBen, Quidproquo77 und 3 andere
ChrisMK72 schrieb:
Hab mir mal den UFO Test scherzweise gegeben und man soll ja irgendwie da mit der Kamera/handy davor hin und her schwenken, während man ein Foto knipst, also in Bewegungesrichtung(wie soll man da eins charfes Bild hinkriegen ? ^^ )
Und wenn du mit dem Auge einem bewegten Objekt auf dem Bildschirm folgst, machst du etwas ähnliches wie das bewegen der Kamera in Bewegungsrichtung.

Irgendwie muss man es halt festhalten können.
ChrisMK72 schrieb:
Hier noch mein toller UFO Test mit (Billig-)handy vorm Monitor abgeknipst:
Im Grunde muss man für richtige Vergleiche eine Kamera haben, die stabil gleitet und die eine feste Belichtungszeit eingestellt hat....Handys machen da viele Optimierungen und sind eher ungeeignet.

Aber guck dir doch mal den Test mit Black Frame Insertion selbst an und folge den UFOs mit dem Auge.
Lass dir verschiedene FPS/Hz simulieren und teste selbst, wo du die Details des UFOs am besten wahrnehmen kannst.

Mit 240Hz und 240 FPS wird das vermutlich das beste sein, aber was ist mit 120 gegen 120 mit BFI?

Edit: @Mimir hat mir da schon vorgegriffen. ;)
 
  • Gefällt mir
Reaktionen: ChrisMK72 und Stormfirebird
Mimir schrieb:
Das ist falsch. Du hast bei 60, 120, 240, 480 Hz immernoch Unschärfe in Bewegung
Das ist richtig. Es hängt nur von der Szene ab. Die Antwort hast du dir ja selbst weiter unten gegeben
Ergänzung ()

Mimir schrieb:
Aber ich seh schon, die Diskussion ergibt einfach keinen Sinn. Wie soll man hier diskutieren, wenn Leute nichtmal ansatzweise verstehen, wie man auf wissenschaftlicher Grundlage arbeitet, wie Tests und Messungen durchgeführt werden und was es bedeutet, wenn ein Ergebnis nicht valide ist
Das dachte ich auch schon einige Male. Dann gibt es noch Leute, die Messungen nicht in den Kontext der realen Wahrnehmung setzen können. Vielleicht ist das auch der Dreh - und Angelpunkt.
 
Zuletzt bearbeitet:
Mimir schrieb:
Du hast eben nicht den Effekt aufgenommen, der in Bewegung entsteht, wenn das Objekt am Display verfolgt wird.
Richtig. Mit händisch geführtem Handy kann man das einfach knicken. Is witzlos. Was ich meinte is, für mich is das Bild "scharf genug", zumindest bei 240Hz/fps. Es sieht auch wirklich in echt nicht so aus, wie mit dem handy abgeknipst. In echt sieht es wie folgt aus: 60 Hz verwischt. 120 Hz leichte Unschärfe/Verwischen noch sichtbar. 240 Hz einigermaßen scharf, mit leichtem Verbesserungspotential Richtung perfektionistisch.

Wollte nur sagen, auch mal die Kirche im Dorf lassen, wenn jemand sagt:"Mein Bild ist scharf". Wenn's demjenigen doch reicht ... alles gut. :)

Mimir schrieb:
Aber zu sagen, die Unschärfe ist nicht "da" im sinne von "definitiv nicht vorhanden", dann ist das nunmal quatsch
Ich glaub an perfekt ranzukommen, wird schwer. Von daher ... worüber diskutieren wir !? Über einem Monitor auf der ganzen Welt ?
Baal Netbeck schrieb:
Und wenn du mit dem Auge einem bewegten Objekt auf dem Bildschirm folgst, machst du etwas ähnliches wie das bewegen der Kamera in Bewegungsrichtung.
Ja, das is so. Ich meinte ja auch, das ist Quatsch da als einfacher Zocker irgendwas mit dem Handy abknipsen zu wollen. Da bräuchte man ne ganze "Fabrik" an Ausrüstung, um überhaupt was annehmbares hinzubekommen.

Von daher .... Kirche im Dorf lassen, für den Normaluser.
Meins is in Real Life "ok" für mich. :)

Baal Netbeck schrieb:
Handys machen da viele Optimierungen und sind eher ungeeignet
Richtig.
Baal Netbeck schrieb:
Mit 240Hz und 240 FPS wird das vermutlich das beste sein, aber was ist mit 120 gegen 120 mit BFI?
Das müsste man mal checken. :)

Kriege gerade bock drauf, das zu vergleichen.

edit: Checke grad, was BlurBusters da für ne Schiene für die Kamera benutzen. Müsste ja sowas wie auf ner Magnetschwebebahn sein, damit die Führung auf der Schiene keine Fehler produziert. Is schon extrem aufwändig da was "richtiges" (zumindest Richtung perfekt) hin zu kriegen. Nichts, was man als einfacher User mal eben macht.

edit2:

Selbst sowas würde wohl für eine "perfekte" Messung nicht reichen. Was is schon perfekt ?
2.jpg

Als Heimuser braucht man gar nicht erst anfangen ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
ChrisMK72 schrieb:
Als Heimuser braucht man gar nicht erst anfangen ;)
Naja in dem Artikel dazu steht ja durchaus, dass man gar nichts so teures braucht und wie man an den Kontroll Punkten sehen kann, wann das Bild etwas geworden ist und wann nicht.
Ergänzung ()

ChrisMK72 schrieb:
Kriege gerade bock drauf, das zu vergleichen.
Und?
 
H6-Mobs schrieb:
Weil sich alle nicht auf einen Standard damals einigen konnten. NVIDIA hat dann allen den Mittelfinger gezeigt und gsync auf eigene Faust rausgebracht. Erst nachdem man sah was NVIDIA da gemacht hat, kamen die aus der Hefe und es entstand freesync.
Klar, und dazu hast natürlich auch eine verlässlichere Quelle als "trust me bro".
Nvidia macht das schon seit Ewigkeiten.
Stichwort: Gamesworks oder GPU PhysX
Ergänzung ()

Quidproquo77 schrieb:
Es ist völlig belanglos ob Technologien herstellergebunden sind oder nicht. Es nutzt doch auch (fast) jeder Windows, dort kommt so eine Debatte aber nur selten auf, oder?
Windows ist aber nicht herstellergebunden. Das läuft auch mit einem Qualcomm-Chip, wenn man will.
Nvidia erschafft eine Zwei-Klassengesellschaft - mit Erfolg.
Wie man das gutheißen kann, verstehe ich nicht
 
Baal Netbeck schrieb:
Naja in dem Artikel dazu steht ja durchaus, dass man gar nichts so teures braucht und wie man an den Kontroll Punkten sehen kann, wann das Bild etwas geworden ist und wann nicht.
Ja, ich hab das gesehen, auch das Video, wie man das mit der Schiene macht.

Ich hab da allgemein meine Zweifel, ob man das so perfektionistisch hinbekommen kann, wie das mit dem Auge in echt aussieht, also wie man das selber wahrnimmt. Wenn ich mir die unscharfen Bilder da ansehe, auch im Checkvideo und wenn ich auf meinen 240 Hz Monitor schaue, sehe ich halt Welten an Unterschied.

Ich weiß nicht, ob man das überhaupt wirklich genau so abfotografieren kann, selbst mit ner Fabrik an Ausrüstung, wie man das tatsächlich selbst wahrnimmt, mit echtem Hinschauen. Leichte Zweifel.

PS: 240 Hz is schon schön. :D

Baal Netbeck schrieb:
Nix.
Hab ja keine Profi Ausrüstung um was zu testen.

Werd' lieber gleich was zu Essen machen und danach ne Runde zocken. Dafür hab ich halt n 240 Hz Monitor. :)
 
  • Gefällt mir
Reaktionen: HageBen
ChrisMK72 schrieb:
Ich weiß nicht, ob man das überhaupt wirklich genau so abfotografieren kann, selbst mit ner Fabrik an Ausrüstung, wie man das tatsächlich selbst wahrnimmt, mit echtem Hinschauen. Leichte Zweifel.
Das man das "genauso" hinbekommt ist sicherlich ausgeschlossen, da eine Kamera nicht genauso funktioniert wie ein Auge, aber man kann es A reproduzierbar hinbekommen und B wenn es reproduzierbar ist, kann man auch an der Belichtungszeit, herumpielen, bis ein solches Foto zumindest sehr ähnlich zur Wahrnehmung des Testers ist.
ChrisMK72 schrieb:
Nix.
Hab ja keine Profi Ausrüstung um was zu testen.
Das hat auch wirklich niemand verlangt!

Ich hatte vorgeschlagen, dass du es dir "anguckst"...mit deinen eigenen Augen!

Öffne die UFO Seite...öffne den Black Image Insertion Test und bilde dir eine eigene Meinung....ganz ohne Fotos.
Das hätte eine Minute gedauert. ;)
Ein paar Minuten, wenn du mit den verschiedenen Optionen spielst.

https://www.testufo.com/blackframes

Die meisten anderen Tests sind auch sehr aufschlussreich, aber da fangen wir ganz neue Themen an. ;)
 
Zuletzt bearbeitet:
Baal Netbeck schrieb:
Das hätte eine Minute gedauert
Ok, ich mach mir mal eben n Kaffee. Dauert wohl länger, als der Test. ;) Ich schau gleich mal ! :D

Edit: 120 Hz mit Black Frame insertion sieht schärfer aus, als 120 Hz ohne. Dazu wenn ich brightness equalizer ausschalte ist es mit BFI dunkler.

Mir fallen beim BFI zusätzliche ... wie soll ich sagen ... Flackerbilder, oder Hakler auf, die beim darüber liegenden nicht aufkommen. Als wenn jemand für ne Millisekunde da das Licht ausknipst. ;)

Aber die Schärfe sieht mit BFI tatsächlich deutlich besser aus(wenn auch dunkler und flackernd), als beim 120 Hz ohne BFI.

Am Besten is 240 Hz ohne :D

Edit2: Hab noch mal geguckt: Mit BFI und 120 Hz zuckt das Bild immer irgendwie rum(bzw. "blinkt"). Sehr unangenehm, wenn auch schärfer als 120 Hz ohne. Bin auch allgemein überrascht wie unscharf 120 Hz ggü 240 Hz ist. Dachte nicht, dass das so deutlich ist.

edit3: krass. Gut, dass ich nochmal n paar Tests gemacht hab. Bestätigt mich, dass mein Bild "ok" aussieht für mich. Freue mich schon auf die 480 Hz Monitore, oder zumindest 360.

edit4: Glaub wir nähern uns dann(360-480 Hz) dem "perfekt" (so gut wie möglich zum Zocken) doch langsam an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
DrFreaK666 schrieb:
Windows ist aber nicht herstellergebunden.
Windows nutzt Datei-Formate, die herstellergebunden sind. Das meinte ich damit.
Natürlich läuft Windows auf unterschiedlichen Chips.
DrFreaK666 schrieb:
Nvidia erschafft eine Zwei-Klassengesellschaft - mit Erfolg.
Wie man das gutheißen kann, verstehe ich nicht
Sie entwickelten G-sync, was die Konkurrenz Jahre später mit dem offenen Adaptive Sync beantwortete.
Ich heiße es schon gut, wenn Hersteller ihre Lösungen vor der Konkurrenz schützen können.
Eine zwei Klassengesellschaft sehe ich nicht, es steht ja jedem frei es besser zu machen.
 
So ein Mist(sry, meinte ungutes Ergebnis ;) ).

Wenn ich nach meinen Tests mir noch mal das Bild aus dem Artikel ansehe ...

5.jpg

... war das bei meinem Test tatsächlich sehr ähnlich, im Ergebnis. So ungern ich das bestätige. ;)

Kommt hin vom Schärfefaktor.

ABER: Nur bei 120 Hz. Und man bedenke, dass das untere schärfere Bild bei meinem Test ungut flackerte(Nvidia wird sich da aber keine Blöße geben und das sicher in den Griff kriegen).
Besser als beides da oben, war das 240 Hz Bild, auch ganz ohne BFI.


Wollte das als eine Art Endergebnis für mich festhalten, dass man anscheinend ab 240 Hz keine dieser Strobotechniken mehr benötigt, wie es ausschaut.


Und dickes sry, @Mimir ! :schluck: Hab versucht mich konstruktiver zu beteiligen, im Diskussionssinne. Wenn auch nur auf die letzten Meter. ;) Vielleicht liegt's manchmal auch daran, wie man miteinander diskutiert. Mit Baal lief's "smoother". ;) Peace ! :love:

Wollte hinten raus eventuelle ungute Vibrations noch auflösen. Hab euch lieb ! :D
Ergänzung ()

Baal Netbeck schrieb:
Mit 240Hz und 240 FPS wird das vermutlich das beste sein
Wie Recht du hattest ! 👍
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mimir und Baal Netbeck
Unterstützung für das nVidia G-Sync Nischenmodul in Monitoren für nischigere Geräte (VA Panels, denn IPS und vor allem OLED sind für Gamer wohl deutlich relevanter/mehr im kommen) in einer Nische (Pro Gamer, bei denen nVidia Pulsar vielleicht einen Mehrwert bringt), ja doch, schon erstaulich, dass das nicht nur ein Notizartikel auf CB geworden ist und so viele Beiträge erzeugt hat, aber es geht ja bei nicht wenigen um nVidia (und Markenfans) und wohl weniger um diese (zusätzlich zu den von einigen Boardpartnern oder Monitorherstellern schon länger unterstützte) Nischentechnik.
 
DrFreaK666 schrieb:
Klar, und dazu hast natürlich auch eine verlässlichere Quelle als "trust me bro".
Nvidia macht das schon seit Ewigkeiten.
Stichwort: Gamesworks oder GPU PhysX
Also was ist daran falsch, dass eine Firma, die ein noch einzigartiges Produkt auf dem Markt hat, dieses auch exklusiv vermarktet? Das machen doch alle. Frag mal Apple, oder IBM bis Compaq dann das BIOS reverse engineert hat. Apple implementiert sogar auf Apple Silicon nur die Metal API, OpenGL/Vulkan gibt es darauf nicht von ihnen.
Es wird häufig zwar als absurd empfunden, aber das ist das natürlichste von der Welt. Wenn du jetzt als zweiter mit einem Konkurrenzprodukt auf dem Markt kommst, fällt es dir viel leichter, das ganze als offenen Standard zu puschen. Da ist man ja in einer ganz anderen Situation.

Was Gameworks angeht weiß ich es nicht, aber PhysX (von Ageia) wurde, ebenso wie 3dfx, gekauft. Da gab es damals schon extra Karten für vom damaligen Hersteller. Den Standard hat NVIDIA nicht geschaffen. Wohl aber, dass dieser schon vorher proprietäre Standard dann auf GeForce Karten lief. Ein Move, der anderen ja auch freistand.

Das ist alles einfach nachzulesen.

DrFreaK666 schrieb:
Windows ist aber nicht herstellergebunden
Aber Windows-Technologien. DirectX z.B. Auch da existieren offene Alternativen. Trotzdem ist die Verbreitung groß.

Zu verschenken hat eben keiner was. Wenn du ein tolles Produkt hast, willst da dafür logischerweise möglichst großen Marktanteil. Das ist schlicht immer das Ziel. Bist du damit als erster und deshalb allein am Markt, herzlichen Glückwunsch. Was ist daran falsch, außer der grundsätzlichen Kritik am Kapitalismus? Und wir reden hier durchweg von amerikanischen Firmen, die davon nochmal ein ganz anderes Selbstverständnis haben.

Letztendlich liegt ja auch bei dem, der proprietäre Technologien anbietet, das Unternehmerische Risiko. Und bei so einem Produkt hier dürfte das Risiko zum Rohrkrepierer durchaus groß sein. Das ist mehr ein "look what we can do", das sich geleistet wird. Ich gehe nicht davon aus, dass Nvidia sich da riesen Absatzzahlen von verspricht. Der Zug ist lange abgefahren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Shinigami1
ChrisMK72 schrieb:
Wollte das als eine Art Endergebnis für mich festhalten, dass man anscheinend ab 240 Hz keine dieser Strobotechniken mehr benötigt, wie es ausschaut.
Ein 240Hz Sample-and-Hold Monitor kann langsame Bewegungen mit bis zu 240 Pixel/s noch scharf darstellen. Hat man schnellere Bewegungen mit z.B. 960 Pixel/s, dann beträgt der Blur bereits 4 Pixel und man würde wieder von Strobing profitieren. Eine Bewegung mit 960 Pixel/s ist ja nicht einmal besonders schnell. In schnellen Shootern erreicht man beim Umsehen deutlich höhere Geschwindigkeiten.
Ab einem 480Hz Monitor kann man z.B. die Strassennamen auf dieser Karte lesen, die sich wie das Blur Busters Testufo mit 960 Pixel/s bewegt: Blurbusters - Moving Photo - Toronto Map
Auf einem 240Hz Monitor sollte ist es noch ziemlich schwierig sein die kleinen Strassennamen zu lesen.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Ich heiße es schon gut, wenn Hersteller ihre Lösungen vor der Konkurrenz schützen können.
Also wäre es besser für alle gewesen, wäre FSR3 nur für Radeons erschienen
Ergänzung ()

Grimba schrieb:
Wenn du jetzt als zweiter mit einem Konkurrenzprodukt auf dem Markt kommst
Nochmal: Nvidia ist Mitglied bei VESA. Wie groß war wohl deren Interesse ein Konkurrenz-Produkt zu G-Sync zu entwickeln?
Wäre G-Sync Standard geworden, dann hätte Nvidia auch Geld verdient, auch wenn AMD- oder Intel-GPUs im Einsatz wären.
Aber nein: Nvidia only.
Zum Glück hat sich das offene System durchgesetzt
 
DrFreaK666 schrieb:
Nvidia ist Mitglied bei VESA
Heißt? Die sitzen in dem Gremium, fertig.

Das kannst du auch tun ohne gezielt was zu pushen oder zu bremsen. Du vergisst das, was für alle Industriekonglomerate gilt: Die sind nicht dafür da, Business zu verhindern. Es ist nichts ungewöhnliches, dass eine Firma, die aber in einem freien Gremium sitzt, ein Produkt herausbringt, das sich mit dem, woran das Gremium arbeitet, überschneidet. Das passiert überall. Ein Standard muss ja nicht zwingend auch als offene Implementierung umgesetzt werden. Warum hat Intel z.B. trotz existierendem USB Standard, bei dem sie auch im Gremium sitzen, Thunderbolt herausgebracht? Oder warum heult Apple Lightning hinterher?

Natürlich wäre das für UNS als Endkunden immer gut so, aber es fließt eben auch Wissen aus bereits existierenden proprietären Lösungen wieder eben von jenen Firmen im Gremium in offene Implementierungen und Standards mit ein. Die gehen nämlich meist vorweg.
Ergänzung ()

DrFreaK666 schrieb:
Also wäre es besser für alle gewesen, wäre FSR3 nur für Radeons erschienen
Es interessiert weder AMD, noch Nvidia, noch Intel, noch Qualcom, noch Apple, noch <hier große Aktiengesellschaft und Halbleiterhersteller X aus Y einsetzen> was besser für ALLE (Kunden und Firmen) ist. Es ist vornehmlich interessant, was für die Firma am besten ist, denn sie sind stets ihren Aktionären Rechenschaft schuldig. Welche Philosophie dahinter steckt, definieren sie aus den unterschiedlichesten Gründen selbst. Ich würde so weit gehen zu behaupten, dass das in den wenigsten Fällen Allgemeinwohl ist. Dass man dennoch eine Gemeinschaft und ein gemeinsames Interesse schätzt und Unterstützt, trotz Konkurrenz, heißt nicht, dass man nicht Situationen für den eigenen Vorteil nutzt, wenn sich die Gelegenheit bietet. Das eine schließt das andere nicht aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Grimba schrieb:
Natürlich wäre das für UNS als Endkunden immer gut so
Wieso siehst es dann nicht als Kunde? Würdest du es begrüßen, wenn Intel, AMD, Apple, Microsoft und Sony ihr eigenes Süppchen kochen würden? Also ich nicht
Ergänzung ()

Grimba schrieb:
Es interessiert weder AMD, noch Nvidia, noch Intel, noch Qualcom, noch Apple, noch <hier große Aktiengesellschaft und Halbleiterhersteller X aus Y einsetzen> was besser für ALLE (Kunden und Firmen) ist
Ich habe auch nicht die gefragt, sondern dich
 
Zuletzt bearbeitet:
Weil es eben nicht nur die Kundenrealität gibt. Das ist eben nur die eine Hälfte.

Ich als Kunde bewerte die Situation zwar mit meinem Geldbeutel, aber umgekehrt bin ich ja auf das Angebot der Firmen in diesem Bereich angewiesen, denn sie stellen den Kram ja her.

Die Firmen gäbe es nicht, könnten die nicht ihre Ideen zu Geld machen. Wir sind nunmal nicht in einer Planwirtschaft. Das auszublenden ist doch absurd.
 
Was den meisten Leuten nicht klar sein dürfte ist, dass man für Asus ELMB Sync und G-Sync Pulse
hohe FPS braucht wenn sich die Anzahl der "Schwarzbilder" genau wie die Hz an die FPS anpassen.
Also 60FPS+60 Schwarzbilder werden natürlich viel mehr flimmern als 120FPS+120 Schwarzbilder.

Bei OLED TV's kann man BFI wohl in verschiedenen Stufen einstellen für die Dauer der Schwarzbilder
also länger sichtbar für mehr Bewegtbildschärfe aber eben auch mehr flackern weil auch nur 60Hz !?
Oder haben die neuen OLED TV'S 120Hz+BFI ? Wobei bei OLED der Helligkeitsverlust eh zu stark ist.
 
Zuletzt bearbeitet:
cvzone schrieb:
Beim C1 ging das ja sogar noch (Motion Pro) und wurde einfach kommentarlos ab dem C2 entfernt.
HageBen schrieb:
Bei meinem c3 der gleiche Blödsinn. Scheinbar wird da wieder an der Elektronik, Chips gespart. Die Schaltzeiten von den OLEDs sind so schnell, dass statt abwechselnd ein frame mit Bildinhalt und ein schwarzes frame, auch einfach die frames nur die halbe Frametime angezeigt werden könnten. Sprich nach wie vor 120 fps, aber quasi mit 240 Hz.

Als ob es nicht reichen würde, dass durch bfi grundsätzlich das Bild dunkler wird, was logisch ist, es leuchtet die halbe Zeit nichts. Nein es wird auch noch die framerate halbiert. Wer bitte mag niederfrequentes flimmern?
Real wird auch auf einem Oled das Bild von oben nach unten mit gleichmäßiger Geschwindigkeit aufgebaut, so dass es erst mit Ende der Framedauer vervollständigt ist.
Lässt sich mit high-speed Aufnahmen überprüfen, was auch getan wurde.
Aus diesem Grund findet man auch keine input lag Messungen bei 60fps Zuspielung mit unter 8ms, da standardmäßig bildmittig gemessen wird und der vollständige Aufbau 16ms (bei 60fps) benötigt.
Gilt selbst für lg's 120hz boost mode zur Verringerung des lags bei 60fps

Theoretisch könnte ein oled das 60fps (oder auch 120fps) Bild vielleicht auch in 3ms vollständig aufbauen und dann für den Rest der Framedauer halten, wird aber aufgrund des damit ungleichmäßigen Aufbaus vermutlich die optisch ungünstigere Wirkung erzielen, schließlich wäre die Haltezeit sogar höher.

Warum erzähle ich das?

Weil die Dunkelphasensteuerung des lg cx und c1 nicht das komplette Bild eine über eine gewisse Zeit dunkel schaltet, sondern nur einen Teilbereich und diesen vertikal durchlaufen lässt.
Nennt man oft "rolling shutter" und imitiert ein wenig den "rolling scan" von crts.

Die Dunkelphasensteuerung muss separat über das tcon Board erfolgen und wurde 2022 von lg displays leider entfernt.

Ein komplettes Abblenden des Bildes nach deiner Vorstellung verträgt sich nicht mit dem vertikalen gleichmäßigen Bildaufbau, da sonst nur eine Hälfte des Bildes angezeigt werden würde.
Ergänzung ()

0ssi schrieb:
Bei OLED TV's kann man BFI wohl in verschiedenen Stufen einstellen für die Dauer der Schwarzbilder
also länger sichtbar für mehr Bewegtbildschärfe aber eben auch mehr flackern weil auch nur 60Hz !?
Seit 2022 kann man da gar nichts mehr einstellen, es wird nur eine simple bfi (s hwarzbildeinfügung) verwendet, für ein 120hz Panel ergibt sich so 60hz Flimmerfrequenz mit 50% Duty Cycle sowie ca. 50% Helligkeitsverlust.
Nur bei 50fps oder 25fps Zuspielung wird die Flimmerfrequenz evtl. auf 50hz angepasst, das erträgt dann aber niemand mehr.

Von 2020-21 konnte man je nach oled tv die BFI Stärke, also Schwarzphasenanteil wählen.
Der panasonic jz erlaubt für die 60hz bfi (bzw. eigentlich Rolling Shutter) eine Auswahl zwischen 50% und 75% Schwarzphase.
Die 120hz Bfi richtet sich z.T. nach Zuspielung, kann aber auch bei 60fps aktiviert werden, was bei Bewegung natürlich Doppelkonturen nach sich zieht.
Auf den lg cx u. C1 oled tvs ließ sich die Stärke der 120hz bfi wohl auch wählen, dazu existiert ein eigenes Testvideo.


0ssi schrieb:
Oder haben die neuen OLED TV'S 120Hz+BFI ? Wobei bei OLED der Helligkeitsverlust eh zu stark ist.
Nur eine simple schwarzbildeinfügung, also bfi mit 60hz Flimmerfrequenz
Ergänzung ()

Nolag schrieb:
Ein 240Hz Sample-and-Hold Monitor kann langsame Bewegungen mit bis zu 240 Pixel/s noch scharf darstellen. Hat man schnellere Bewegungen mit z.B. 960 Pixel/s, dann beträgt der Blur bereits 4 Pixel und man würde wieder von Strobing profitieren.
Der sample&hold blur steht nicht im Zusammenhang mit der Anzahl an übersprungenen Pixeln wie du es abermals fälschlicherweise annimmst.
Entscheidend für die Bewegtbildschärfe ist die Haltedauer des Pixels, nicht dessen Abstand in Bewegung von Frame zu Frame.
Auf einem 1080p Bildschirm mit 60fps beträgt die Bewegtbildschärfe ca. 360 lines/ second.
Angeben tut man aber übpicherweise die mprt, diese lässt nicht simpel in lines/ second umrechnen, da auflösungs- und framerateabhängig.
Blurbusters hat darüber auch einen eigenen Artikel verfasst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Brrr, 0ssi und cvzone
Zurück
Oben