News G-Sync Ultimate: Nvidia lockert offenbar Anforderungen an Monitore

Will wohl kein Hersteller den proprietären Schrott von Nvidia herstellen, da die es nicht verkauft bekommen. Kann ich verstehen. Ich habe die einen Acer Predator XB1... würde ich nie wieder kaufen!
 
Cool Master schrieb:
HDR - nach 3D das nächste Gimmick welches nicht lange da sein wird.

Bei den schlechten PC Bildschirmen stimmt das, auf einem guten TV ist es ein deutlich größeres "wow" als 4K
 
  • Gefällt mir
Reaktionen: Dittsche, PS828, Obvision und 2 andere
Dai6oro schrieb:
So schön die Entwicklung in anderen Bereichen ist. Bei Monitoren geht es gefühlt nicht voran. Ich bin zu verwöhnt von meinem OLED Fernseher so scheint es.
Das gefühl hab ich auch. War letztens beim bekannten und hab auf der PS5 auf nem relativ teuren Samsung OLED gezockt. Als ich nach hause kam und an meinen PC screen die selben Games zockte dachte ich so .... hmmmm ..... scheisse xD
 
  • Gefällt mir
Reaktionen: CMDCake
TigerNationDE schrieb:
Das gefühl hab ich auch. War letztens beim bekannten und hab auf der PS5 auf nem relativ teuren Samsung OLED gezockt. Als ich nach hause kam und an meinen PC screen die selben Games zockte dachte ich so .... hmmmm ..... scheisse xD
Dann hast du aber auf einem Samsung QLED gezockt, die sehen zwar vom Bild her gut aus, aber kommen nicht an die OLEDs der Konkurenz ran.
Also was Helligkeit angeht, schaffen die QLEDs mehr( je nach Modell ), aber Schwarzwert ist deutlich besser auf den OLEDs, würde persönlich immer einen OLED einem QLED von Samsung vorziehen.
 
  • Gefällt mir
Reaktionen: PS828
Hängt vom Einsatzgebiet ab. OLEDs in ner hellen Umgebung bringen nicht viel, da der gute Schwarzwert durch Reflexionen kaputt gemacht wird und dann die niedrige Helligkeit eher stört.
Wobei ich Samsung generell nicht (mehr) kaufen würde. Auch wenn ich das Bild an sich selbst in nem dunklem Raum nicht viel schlechter als OLED finde (dank FALD), gibt halt zu viele Software und Supportprobleme.

HDR auf nem Monitor kann auch "ok" sein, hab ja den X27, nur der FALD Algorithmus von PC Monitoren hängt dem von Fernsehern recht deutlich hinterher. Evtl. auch wegen den recht strengen G-Sync Vorgaben was Reaktionszeit & Co angeht.
 
Man kauft ja auch nicht einen Monitor, nur weil er mit Gsync Ultimate oder was auch immer betitelt wird - ich schaue ich mit Test und Specs genau an bzw entscheide nach meinem Bedarf.

Ich arbeite in einer Postproduktion für Film und Fernsehen. Der Unterschied zwischen SDR und HDR ist schon gewaltig - gerade was alles noch an Zeichnung in dunklen Szenen bzw Bildstellen zusehen ist im Vergleich zu SDR. Aber der Wow-Effekt tatsächlich nur bei HDR1000 - HDR600 wirkt tatsächlich nicht so spektakulär.

Leider war es mir bisher vergönnt, dass ganze einmal mit Games zutesten.
 
Top Down. Nvidia hat keine Anforderungen an Monitore zu stellen.
Grakas liefern aus und Monitore gehen damit um.
 
Finde ich echt schlecht. Ich finde das mein Monitor tatsächlich zu Recht die HDR1000 Zertifizierung bekommen hat. Der Kontrast zwischen hell und dunkel ist super und dank der 512 Dimming Zonen ist es auch wirklich brauchbar.

Ich hatte einen LG Monitor hier mit HDR10, einen Asus 49" mit HDR400 und einen Samsung 49" mit HDR600. Einen Unterschied zwischen den Monitoren bzgl. HDR habe ich nicht feststellen können. Erst der jetzt mit den vielen Zonen und HDR 1000 zeigt was geht.

Das ist natürlich kein Vergleich zu einem OLED, der Monitor hat aber andere Vorteile (aber auch Nachteile, z.B. der perverse Preis, welcher alles relativiert).
 
  • Gefällt mir
Reaktionen: Lübke82
  • Gefällt mir
Reaktionen: Lübke82

Falc410


können beides FreeSync und GSync selbst Monitore. Sonst würde man wohl kaum den Aufdruck an der Verpackung anbringen unten rechts.
 

Anhänge

  • 133739140_387334652557934_2533510966808677940_o.jpg
    133739140_387334652557934_2533510966808677940_o.jpg
    241,4 KB · Aufrufe: 283
  • 20201128_152418.jpg
    20201128_152418.jpg
    812,5 KB · Aufrufe: 290
  • 140305041_782823365916845_2984366771374310593_n.jpg
    140305041_782823365916845_2984366771374310593_n.jpg
    37 KB · Aufrufe: 292
Warum Nvidia die Anforderungen demnach herabgesetzt hat und warum dies nicht öffentlich kommuniziert wurde, bleibt vorerst unbeantwortet. ComputerBase hat bei Nvidia nachgefragt, kurzfristig aber noch keine Antwort erhalten.

Warum ist klar wenn man die Technischen Möglichkeiten der aktuellen Monitor Technik kennt. 1000nits sind aktuell fast das Maximum das die Industrie technisch bauen kann. Es gibt nur einen Monitor mit 2000. Die meisten Studios haben den 1000er als Referenz. Wohlgemerkt Studios die darauf ihre Filme Mastern! Ein 1000nits Monitor der darüber hinaus noch eine geringe Latenz, G-Sync und hohe Auflösung sowie Zoll Größe haben soll sprengt teilweise das was die Industrie bauen kann bzw. ist das technische (und übersteigt deutlich das finanzielle) Limit das jemand für einen Spiele Monitor bezahlen will weil es aktuell das Maximum darstellt was man bauen kann. Und ein Technisches Maximum ist nie günstig oder ein Massenprodukt.

Die BT2020 Norm in der auch HDR definiert ist, ist bewusst höher definiert worden (mit 10.000 Nits!) als man aktuell bauen kann weil die alte BT709 Norm (mit max 100 Nits! ) die die VHS Kassette , DVD und Blu-ray nutzen noch aus den analogen Röhrenmonitor/ TV Zeiten stammt. Damit man nicht zu schnell wieder technisch überholt ist wurde die neue Norm bewusst überdimensioniert für die Zukunft.

Oder anders ausgedrückt hatte das Nvidia Marketing Zahlen gewählt die aktuell das technische Maximum darstellen aber nicht das finanziell vertretbare. Deswegen wird nun zurück gerudert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: thuNDa
Oma Erna schrieb:
Top Down. Nvidia hat keine Anforderungen an Monitore zu stellen.
Grakas liefern aus und Monitore gehen damit um.
Ndivia definiert gsync. Das verbaute Modul kommt von nvidia. Natürlich dürfen sie Mindestanforderungen stellen.
 
  • Gefällt mir
Reaktionen: Lübke82
Was bringen die dollsten Monitore wenn die Hersteller lieber den lizenzfreieren Standart mitnehmen wollen? Oder was bringt der schönste Aufkleber wenn ihn keiner oder zu wenige verdienen können?

Möglicherweise sogar beides.
 
Huch, ich dachte G-Sync Ultimate wäre tot?! Ist das denn dann noch echtes G-Sync in Hardware oder hat das Nvidia inzwischen auch heimlich geändert und G-Sync ist jetzt das was früher "G-Sync compatible" hieß, also die FreeSync-ähnliche Implementierung in Software?

Wenn ich mich richtig erinnere, war ein beworbener Vorteil von G-Sync Ultimate ja, dass Adaptive Sync ab dem 1. Hz/FPS greift. Das wäre für mich in der Tat ein Kaufgrund, denn nach meiner Erfahrung bringt einem Adaptive Sync gerade in niedrigen FPS-Bereichen Vorteile. 35 FPS mit G-Sync fühlen sich für mich wie 60 FPS an. Nur unterstützen es die meisten Monitore eben erst ab 48 FPS oder so, darunter bekommt man lediglich Frequenzverdopplung.

edit: Ich mein, viele von den G-Sync Ultimate Monitoren sind doch angekündigt worden, dann aber nie erschienen. Oder wo ist bitte der Asus PG32UQX, der letztes Jahr auf der CES angekündigt wurde?? Dieses Jahr kündigt Asus auf der CES dann wieder einen gleichnamigen, allerdings ohne X an. Das ist doch ein Witz...
 
Zuletzt bearbeitet:
SV3N schrieb:
Auf traditionellen Monitoren bleibt HDR für mich Spielzeug.

Mein Samsung C32HG70 ist HDR600 spezifiziert und schafft in der Spitze 631 cd/m², was in Spielen absolut untergeht.

Wechsel ich hingegen an den LG OLED 48CX macht es im Kopf direkt „Ah, das ist also HDR.“

Das sind mehr als nur Welten. Ich hatte auch schon HDR1000 zertifizierte Monitore hier, alle zum Gähnen hinsichtlich HDR.
Solche Teile wie dein LG OLED 48CX bräuchte doch eigentlich DisplayPort? Nochwas. Stört beim spielen der hohe Kontrast nicht eher wenn man "geblendet" wird. Ich denke da wird man eher blöde in der Birne oder?
 
BaserDevil schrieb:
Stört beim spielen der hohe Kontrast nicht eher wenn man "geblendet" wird. Ich denke da wird man eher blöde in der Birne oder?
Nein, es geht ja eher um die punktuelle Helligkeit und die starken Kontraste.
BaserDevil schrieb:
Solche Teile wie dein LG OLED 48CX bräuchte doch eigentlich DisplayPort?
Nein, der läuft hier ganz ausgezeichnet über HDMI 2.1.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack und gartenriese
Ich habe FressSync2 Premium mit einer Vega64
am laufen und bin damit HART zufrieden
Ja HDR fehlt
Aber alleine Free/Adaptive Sync bietet schon so dermaßen ein besseres
Erlebnis das ich den NV Aufpreis nie so recht verstanden habe.

Man Hätte den "Standard" ja so lassen können.
Wenn man wirklich das Beste will, hätte man das auf einen Blick gesehen
( und auch am Preis :D ) Das man hier oberste Lade kauft.
Und nach unten wird halt gestaffelt.

So wirkt das einfach inkonsistent.
Noch so ein pseudo-Standard der nicht wirklich was aussagt ?
Scheint als hätte man hier seine eigene Marke geschwächt.
 
aappleaday schrieb:
Gibt es Beispiele wo man HDR besonders gut sieht? Habe meinen OLED erst seit ein paar Tagen und würde das gerne mal sehen.
bei Netflix have ich zwar paar DV Serien gesehen, da ist mir bisher aber nichts besonderes ins Auge gesprungen.
Guck dir mal diese Vogel-Doku auf Netflix an, das sieht richtig stark aus.
Ergänzung ()

Cool Master schrieb:
HDR - nach 3D das nächste Gimmick welches nicht lange da sein wird.
Schreibt jemand, der noch kein richtiges HDR gesehen hat.
 
  • Gefällt mir
Reaktionen: KenshiHH und foo_1337
basix schrieb:
Ich finde die Herabsetzung des Standards grundsätzlich schlecht. Allerdings machen 1000 Nits bei OLED keinen Sinn. HDR1000 oder HDR400 TrueBlack werden sich gefühlt wohl nicht viel nehmen.
Deswegen gibt es für OLED eigene HDR-Richtlinien. Und keinen einzigen OLED mit Gsync Ultimate-Siegel soweit ich sehe.
 
Was ich von Nvidia verlange ist quasi, dass man endlich Gsync Monitore auch mal für FreeSync freigibt. Absolut lächerlich, dass die teuren Geräte, welche technisch jedem Freesync Monitor überlegen sind, keine Kompatibilität mit Freesync besitzen.

Natürlich versucht man die Personen an Nvidia Karten zu binden, aber mit Gsync comp. geht man diesen Weg ja auch...absolut unverständlich sowas.
 
  • Gefällt mir
Reaktionen: PS828 und Faranor
Zurück
Oben