News G-Sync Ultimate: Nvidia lockert offenbar Anforderungen an Monitore

Draco Nobilis schrieb:
Dachte das FPGA Modul von Altera das für GSync benötigt wird muss schon vom OEM oct werden damit es überhaupt hinterher kommt? Also ohne Lüfter gar nicht machbar?
Die Dinger alleine wäre ohne Subvention oder Großbesteller unvorstellbar teuer.
Aber ja seit dem Gsync Freesync kompatibel wurde interessiert mich das Zeug eigentlich weniger.
Ja und nein. Das hinterherkommen ist eigentlich nur ein Problem weil Nvidia wohl irgendwelche Sicherheitsmechanismen eingebaut hat. Freesync hat auch bei höherer Bandbreite keine Lüfternot.
Ausserdem wäre es eigentlich auch ohne Lüfter machbar mit ner vernünftigen Kühllösung.
Hab nen X27 gemodded und dabei auch mal getestet was ist wenn ich den Lüfter einfach nicht anschließe - lief ne halbe Stunde gut und das mit dem kümmerlichen 0815 Kühler, der selbst von nem Intel Stock Kühler in die Schranken verwiesen wird. Wenn die Hersteller also paar € mehr reinstecken würden, wäre das auch kein Problem.
 
  • Gefällt mir
Reaktionen: CMDCake und Draco Nobilis
Novasun schrieb:
Liegt das eventuell am Content? HDR soll ja auch nicht nur Heller machen sondern mehr Farbverläufe ermöglichen....
Solar / Sunshine ist der Titel! (ich glaub so heißt der Film) soll heftig sein. Es gibt ne Szene wo die Kamera hin zur Sonne schwenkt. Auf nem 1400 nits Fernseher wird man wohl wirklich geblendet...

Der Samsung hat 8 Dimming Zonen. Wie soll da HDR vernünftig funktionieren.
 
  • Gefällt mir
Reaktionen: EntelodonX, CMDCake, gartenriese und eine weitere Person
Meiner Meining nach macht erst HDR 1000 sinn, da viel Content auf YouTube auf HDR 1000 ausgerichtet ist. Mit 600 hat man dann einen komplett überbelichtetes Bild wo zb. die Sonne mega groß ist oder gar der ganze Himmel nur noch weis ist.

Ich bin jedenfalls mit meinem HDR 600 überhaupt nicht zufrieden. Ist ein C32HG70

Auf meinem Sony KD XE 9005 sieht das um welten besser aus.
 
Zuletzt bearbeitet:
Erklärt mir einiges, schon vor einiger Zeit ist mir aufgefallen das untypische Monitore die G-Sync Ultimate Zertifizierung erhalten haben.

Die BFGD Spezifikationen waren ursrpünglich das Minimum für Ultimate mit 144Hz, 4K, 384 Zonen FALD und 1000Nits. Das hätten die ruhig so lassen können und sich eher für den anderen Kram etwas neues ausdenken können was die Spezialisierung des Monitors beschreibt. Z.B. G-Sync Speed für Monitore jenseits der 240Hz.
 
TheDarkness schrieb:
Es gibt keine G-Sync OLEDs (und wird es auch nicht so schnell geben)

klar, macht schon mein 2019 LG OLED. Ist „nur“ ein TV, aber es funktioniert traumhaft!
 
  • Gefällt mir
Reaktionen: jdiv
Gibt es Beispiele wo man HDR besonders gut sieht? Habe meinen OLED erst seit ein paar Tagen und würde das gerne mal sehen.
bei Netflix have ich zwar paar DV Serien gesehen, da ist mir bisher aber nichts besonderes ins Auge gesprungen.
 
  • Gefällt mir
Reaktionen: Pulsar77
SV3N schrieb:
Auf traditionellen Monitoren bleibt HDR für mich Spielzeug.

Mein Samsung C32HG70 ist HDR600 spezifiziert und schafft in der Spitze 631 cd/m², was in Spielen absolut untergeht.

Wechsel ich hingegen an den LG OLED 48CX macht es im Kopf direkt „Ah, das ist also HDR.“

Das sind mehr als nur Welten. Ich hatte auch schon HDR1000 zertifizierte Monitore hier, alle zum Gähnen hinsichtlich HDR.
Bin seit ewigkeiten auf der Suche nach einem brauchbaren Monitor, das ist mal eine Aussage die ich beherzigen werden. Danke.
 
  • Gefällt mir
Reaktionen: Pulsar77 und FeelsGoodManJPG
@aappleaday also ich sehe es bei unseren LG CX9 zum Beispiel bei Assassins Creed Valhalla (PS5). Das Spiel mag auf dem PC nicht das schönste sein, aber mit HDR sieht es deutlich schöner aus und an einigen Stellen blendet es auch.

@electronish der LG TV soll auch super zum Zocken (PC) sein. Ist aber halt deutlich größer als ein Monitor.
 
Also ich für meinen Teil sage schlichtweg: alle Monitore wo irgendwas von HDR400 oder 600 oder auch 1000 in der Prospektbeschreibung steht, ist nur verschwendeter überflüssiger Platz in jener Prospektbeschreibung! Mit wahrem HDR hat das rein garnix zu tun...
Denke das (fast) JEDER, der HDR am OLED-TV erleben durfte, mir da zustimmen wird.
 
  • Gefällt mir
Reaktionen: jdiv, CMDCake, TouchGameplay und 3 andere
Falc410 schrieb:
Ich dachte die LG OLED TVs können G-Sync? Nun bin ich verwirrt.
Sie sind G-Sync kompatibel besitzen aber kein G-Sync-Modul, worüber ich nicht unglücklich bin.

Mein CX48 macht mit aktiviertem G-Sync einen 1a Job, benötigt aber keinen Lüfter.
Novasun schrieb:
Liegt das eventuell am Content? HDR soll ja auch nicht nur Heller machen sondern mehr Farbverläufe ermöglichen....
Ich habe wirklich jedes Szenario durchgespielt, auf einem PC-Monitor und Geräten mit einem Backlite entlockt mit HDR einfach nicht mehr als ein Achselzucken.

Es ist wirklich wenig beeindruckend.
 
  • Gefällt mir
Reaktionen: jdiv, Illithide, engineer123 und 4 andere
SimSon schrieb:
@aappleaday also ich sehe es bei unseren LG CX9 zum Beispiel bei Assassins Creed Valhalla (PS5). Das Spiel mag auf dem PC nicht das schönste sein, aber mit HDR sieht es deutlich schöner aus und an einigen Stellen blendet es auch.

@electronish der LG TV soll auch super zum Zocken (PC) sein. Ist aber halt deutlich größer als ein Monitor.

Ich weiss, der steht bei meiner Freundin. Leider war zu Weihnachten die PS5 ausverkauft, sonst wäre ich schon bei ihr eingezogen :D
 
  • Gefällt mir
Reaktionen: morb und FeelsGoodManJPG
Wofür sollen auch 1000 nits gut sein?
Damit man sich in Word die Augen wegbrennt oder mit Sonnenbrille davor sitzen muss?

Was ist daran toll, wirklich geblendet werden zu können?

Gibt ja doch genug dumme Leute, die sich das Teil für Word auf 1000 nits stellen.
 
  • Gefällt mir
Reaktionen: conf_t und FeelsGoodManJPG
Typisch Grün. Solche Meldungen sind eine gute Erinnerung daran, woran man bei Grün ist.
Das sind Intel-Methoden, und genau wie Blau bekommt Grün dafür das Geld hinterhergeworfen.

On topic:
Selbst 1000 nits sind nutzlos, wenn das Display aus 50 Zonen besteht aber jede so groß ist, dass damit kein sinnvolles HDR drin ist. Alles Veräppelung auf normalen Monitoren.
 
HDR 400 oder 600 ist für die Tonne ich nutze es nicht. Habe am Samsung KS9090 HDR 1000 und das war schon nicht schlecht für die Zeit.

Der OLED hat das Beste HDR finde ich. Der 917 war auch nicht schlecht Gute Leuchtkraft aber nicht Stark genug mein Samsung KS9090 war Heller aber der 917 hatte ein Besseren Schwarzwert.

Monitore und HDR und gerade HDR 400 kann man sich sparen meiner Meinung nach. OLED ist Spitzenreiter und ich denke die 9 Serie legt noch mal ne Shippe drauf in Sachen HDR sowie der Samsung 90T
 

Anhänge

  • 133812352_386390425985690_5118350677759291704_o.jpg
    133812352_386390425985690_5118350677759291704_o.jpg
    379,4 KB · Aufrufe: 408
  • 20201229_173357.jpg
    20201229_173357.jpg
    1,8 MB · Aufrufe: 406
  • 20201218_085319.jpg
    20201218_085319.jpg
    1,1 MB · Aufrufe: 396
  • 20201201_175308.jpg
    20201201_175308.jpg
    1 MB · Aufrufe: 405
  • 20200914_182007.jpg
    20200914_182007.jpg
    867,2 KB · Aufrufe: 420
R4ID schrieb:
Was bringen einen 600 oder 1000 nits wenn der Monitor nur paar Zonen hat zum dimmen.
Meinst du jetzt den Hersteller oder den Endverbraucher? :-)

Selbst groben Unfug bekommt man verkauft, man muss nur auf den "richtigen" Kunden warten.
 
Bin normalerweise ein sehr visueller Mensch und liebe kräftige Farben.
Aber für oder gegen HDR gibt es so einige Überlegungen:
  • Je größer der Monitor desto greller nimmt man alles im Nahbereich alles vor einem Monitor wahr, so dass man die Farbgebung vor allem bei längerem schauen als zu grell empfindet. Im Desktopbetrieb belastet so etwas eher vehement nur unnötig die Augen. Bei einem TV mit Abstand sieht alles nochmals anders aus.
  • HDR kann man in Windows nur einheitlich an- oder abschalten, aber nicht generell meines Wissens nach mit einem Spieleprofil aktivieren. Es fehlen auch weitere zuschaltbare Abgängigkeiten für eine Aktivierung wie die Auflösung oder eben die Framerate.
  • HDR frisst wesentlich mehr Strom und kostet auch Grafikpower, welche man gerade in 4K lieber in mehr Frames investiert.
Ergo ist eine Überlegung im Spielebereich am PC bzw. vor dem Monitor für viele eher sinnlos.
Am TV oder der Konsole kann es schon anderes aussehen und für Filme wollte ich das gar nicht mehr missen.
 
TheDarkness schrieb:
War halt Druck von den Herstellern um ihren Schrott besser verkaufen zu können.
Geeeeeeeenau! Die Hersteller haben also bei Nvidia bissel Stress geschoben, damit man die überteuerten Lizenzen auch auf deren "billigen" Modellen vermarkten kann. Kostet ja auch nur n Appel und n Ei so ein G-Sync Monitor. :freak:

Ich schätze einfach das Nvidia zu wenig weitere Lizenzen verkaufen konnte und deshalb die Änderungen max. an die Monitorhersteller weitergegeben hat.
 
  • Gefällt mir
Reaktionen: TouchGameplay
HDR - nach 3D das nächste Gimmick welches nicht lange da sein wird.
 
  • Gefällt mir
Reaktionen: EntelodonX, TouchGameplay, conf_t und eine weitere Person
Vielleicht weicht hier NVidia seine Vorgaben auf, um G-Sync Schritt für Schritt abzuschaffen?
 
Zurück
Oben