Notiz Samsung C49RG90: Preis und Spezifikationen zum 5K-120Hz-HDR-Monitor

@Ikone Dein Arbeitgeber und eine Intel HD 630.
 
  • Gefällt mir
Reaktionen: iron_monkey
Laggy.NET schrieb:
Warum nicht 21:9?
24:10 hat doch kein Monitor (oder doch?) und entspricht umgerechnet auf die gängige "9" exakt 21,6:9 oder richtig gekürzt halt dann 12:5. Ist ja immer das gleiche Verhältnis.

Aber ein 21:9 Monitor wäre doch ziemlich exakt das, was du willst. Zumal ein 21:9 Monitor bei 38 Zoll sogar ein wenig höher wäre, als ein 24:10 Monitor. Wäre doch ideal, wenn du diese extremen Schlitzformate eh nicht magst.

Das Problem ist, die 21:9 mit 34" sind mir zu klein, vor allem die höhe ist kleiner als jetzt bei meinem 16:9 mit 28" und weniger höhe will ich nicht mehr.
Deshalb find ich die 37,5"er mit 3840x1600 optimal, nur gibt es die mit max 75Hz und die Anderen Werte auch nicht berauschend und die Ausläuchtung ist sowieso bei den WidesMonis ein Graus
 
Qonqueror schrieb:
@RichieMc85 wenn dir das so wichtig ist, musst du halt in den sauren Apfel beißen und dir nen G-Sync Ultimate Monitor oder Nvidias neue BFGDs kaufen.
Geizhals G-Sync HDR

Wobei ich mir eher nen 2019er LG OLED mit HDMI 2.1 (VRR + 4k 120+Hz Chroma 4:4:4) holen würde, anstatt eines 65 Zoll großen FALD Monitor für 4000€ ohne eingebauten TV Tuner.

Mit den verlinkten Monis kann ich nix anfangen, da ich ja schon ewig auf die seit 2017 angekündigten UWQHD mit 200HZ und LD warte. Den C9 werde ich sowieso im Sommer als Ersatz für meinen C7 kaufen. Bringt aber nix oder kennst du ne Graka mit HDMI 2.1?
Ergänzung ()

benneque schrieb:
@RichieMc85 Ja, natürlich hat es mit dem Scaler von Nvidia zu tun. Das bestreitet auch niemand.

Das "Problem" (und gleichzeitig der Vorteil) ist, dass in FreeSync Monitoren ein beliebiger Scaler drinstecken kann. Für ein billigen (nicht günstig) Monitor wird dann halt der 50ct Scaler von der Resterampe verbaut. Aber genau so besteht auch die Möglichkeit einen Scaler zu verbauen, der genauso gut (oder sogar noch besser) als der von Nvidia ist.
Es gibt halt einfach nur kein Qualitätssiegel, wie bei GSync. Da kann man blind einen Monitor kaufen und weiß, dass der Scaler schnell und gut arbeitet.

In deinem Beispiel wurde halt einfach ein bescheidener Scaler im FreeSync Monitor verbaut. Der Preisunterschied muss ja auch irgendwo herkommen. Der GSync Scaler ist nicht grundlos so teuer. Ja, natürlich stecken da haufenweise Nvidia Gebühren drin, aber eben auch teure Technik bzw. Entwicklungskosten.

Und mit FreeSync 2 sollte sich das eigentlich auch so ziemlich erledigt haben, indem für FreeSync 2 bestimmt Mindestspezifikationen eingehalten werden müssen: LFC, HDR und Low Latency. Natürlich wird dort auch weiterhin dann gute und nicht so gute FreeSync 2 Monitore geben. Aber man kann bei Monitoren mit FreeSync 2 von einer gewissen Qualität ausgehen, wohingegen bei FreeSync 1 alles und nichts möglich war.

Lassen wir uns überraschen ob bei Freesync 2 endlich mal ein wenig Wert auf Qualität gelegt wurde. Wie du oben schon erklärst war es ein riesen Fehler jedem Moni das FS Label zu geben ohne Kontrolle. Aber AMD wollte wohl nur schnelle mehr Auswahl als NV haben. Aber wie es immer so ist. Lieder Klasse als Masse.
 
@RichieMc85 Naja, auch die billigsten FreeSync Vertreter beherrschen ja die Synchronisation. Und wenn man damit Programme und Spiele nutzt, bei denen das Input Lag egal ist, dann kann man von FreeSync profitieren ohne irgendwelche Nachteile. Das Tearing wird ja trotzdem verhindert. VSync hätte den Job natürlich auch erledigt, allerdings dann mit ungleichmäßigeren Frames und noch mehr Input Lag.

FreeSync 2 ist auf jeden Fall ein Schritt in die richtige Richtung.
 
@RichieMc85 Ja gibt bisher noch keine GPUs mit HDMI 2.1, aber wie es aussieht ist LG auch der einzige Hersteller der das 2019 schon anbietet. Vielleicht gibts ja noch nen aktiven Adapter, der einem wenigstens DisplayPort 1.4 am TV nutzen lässt.
 
Wie viele Dimming Zonen hat das Teil hier? Wenns wieder nur ein paar sind, kann man sich das HDR gleich sparen.

Und ja, unter 5k verstehen die Meisten 5120 × 2880 Pixel
 
  • Gefällt mir
Reaktionen: Haldi
5K? Schön wärs. Wo bleiben die Slim-Bezel 5120x2880 Monitore auf 27"? Ich warte und warte und warte und keiner will mein Geld
 
Qonqueror schrieb:
noch keine GPUs mit HDMI 2.1

Wozu überhaupt!? DisplayPort ist der deutlich bessere Standard.

MPQ schrieb:
5K? Schön wärs.

Ist doch 5k? Halt nur kein 16:9, aber der Schritt von 4k ist da ohnehin kaum noch zu unterscheiden...
 
@Fragger911 Gibt es schon einen Testbericht, oder worauf beziehst du dich? Mein aktueller LG 38UC99-W hat auch keine Traumwerte, aber das stört mich beim programmieren überhaupt nicht.

Mich interessiert Pixelmasse + mehr als 60Hz + 32:9 und in diesen Belangen ist das Teil einfach top. HDR ist dann auch noch nice to have.
 
  • Gefällt mir
Reaktionen: ShelbyBoss
Qonqueror schrieb:
@RichieMc85 Ja gibt bisher noch keine GPUs mit HDMI 2.1, aber wie es aussieht ist LG auch der einzige Hersteller der das 2019 schon anbietet. Vielleicht gibts ja noch nen aktiven Adapter, der einem wenigstens DisplayPort 1.4 am TV nutzen lässt.

Dachte DP 1.4 ist auch zu langsam? Die tolle Kompression in 1.4 wird ja leider bis jetzt nicht unterstütz. Glaube vor 2020 mit den neuen 7nm NV Karten werden wir keine Lösung sehen.
 
@MaverickM HDMI 2.1 hat mit 48 Gbit/s (DP1.4 25,92 Gbit/s) eine viel höhere Datenrate.
Bei DisplayPort 1.4 gehen maximal 4k@120Hz ohne Chroma Subsampling (Komprimierung) und mit 10 Bit Farbtiefe für HDR z.B. verringert sich das dann auf nur noch 98Hz. Da fehlt einfach noch die Bandbreite.

Bis DisplayPort 1.5 kommt (soll 64 Gbit/s schaffen), bleibt HDMI 2.1 die bessere Wahl für die Übertragung von 4K bei 60+Hz Signalen.

@RichieMc85 Ja, aber DP 1.4 ist übergangsweise immernoch besser als HDMI 2.0.
Aber wie du schon sagst, bis Grafikkarten kommen die so viele Frames überhaupt zuverlässig pushen können, dauert das noch etwas.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RichieMc85
G3cko schrieb:
Für das Geld kauf ich mir doch lieber einen OLED Fernseher. Sollte der doch irgendwann einbrennen kaufe ich mir halt einen zweiten. Die Preise sind verrückt...

55" OLED gibt's ab 1200€. In 4-5Jahren dann für 600-800€

Die Preise sind wirklich komplett aus den Rahmen überhaupt wenn man es mit den ultra großen neuesten Oled vergleicht.....

Leider ist der Pc Monitor Markt um ein zich faches kleiner als der lukrative TV Markt sonst hätten wir hier auch besser Konditionen.

Oled Technick im Monitor Bereich ist zurzeit auch noch Zukunft Musik.. der Einbrenn-Effekt/Farbwechsel ist gerade zu prädestiniert für Pc Monitore abgesehen von den Kosten der Entwicklung und der geringen Batchmates der Panels kommt noch dazu das der Markt (im vergleich) zu klein ist.

Es wird noch ein paar Jahre dauern denke ich dann kommen sie ...
Am Anfang natürlich mit utopischen Preis :smokin:
 
Qonqueror schrieb:
Da fehlt einfach noch die Bandbreite.

Und das bringt genau was, wenn es auf beiden Enden der Kette keine Geräte dafür gibt?

Abgesehen davon ist DisplayPort alleine schon wegen des Kabels, der Stecker und der Auslagerung des Signaltaktgebers ins Endgerät im Vorteil gegenüber HDMI. Egal ob momentan (!) HDMI bei den Specs die Nase vorne hat, DisplayPort ist der deutlich sinnvollere Standard, vor allem für Monitore.

epixxcry3 schrieb:
Die Preise sind wirklich komplett aus den Rahmen überhaupt wenn man es mit den ultra großen neuesten Oled vergleicht...

Monitore und TVs vergleichen ist großer Unfug... Sicher, wer einfach nur ein möglichst großes Bild will, fährt mit dem TV auch preislich besser. Wer aber möglichst geringen Lag will, hohe Farbakkuratheit benötigt und/oder schlichtweg etwas anderes als 16:9 Standard-Auflösungen will, kommt wohl kaum um einen Monitor rum.
 
Laggy.NET schrieb:
Warum nicht 21:9?
24:10 hat doch kein Monitor (oder doch?) und entspricht umgerechnet auf die gängige "9" exakt 21,6:9 oder richtig gekürzt halt dann 12:5. Ist ja immer das gleiche Verhältnis.
Die gängige 34"-Auflösung von 3440x1440 ist auch nicht 21:9, sondern exakt 21,5:9. Die Verhältnisse sind alle etwas krumm. 24:10 ist aber durchaus üblich, da ist die horizontale Auflösung die gleiche wie bei UHD, wodurch man beim BluRay-schauen keine Pixel verliert :D
 
MaverickM schrieb:
Und das bringt genau was, wenn es auf beiden Enden der Kette keine Geräte dafür gibt?

Abgesehen davon ist DisplayPort alleine schon wegen des Kabels, der Stecker und der Auslagerung des Signaltaktgebers ins Endgerät im Vorteil gegenüber HDMI. Egal ob momentan (!) HDMI bei den Specs die Nase vorne hat, DisplayPort ist der deutlich sinnvollere Standard, vor allem für Monitore.



Monitore und TVs vergleichen ist großer Unfug... Sicher, wer einfach nur ein möglichst großes Bild will, fährt mit dem TV auch preislich besser. Wer aber möglichst geringen Lag will, hohe Farbakkuratheit benötigt und/oder schlichtweg etwas anderes als 16:9 Standard-Auflösungen will, kommt wohl kaum um einen Monitor rum.

Das ist mir wohl klar ! mir gehts ja eher um den Fortschritt im Berreich.
Wie jedes Jahr Samsung mit ihren Qled TV immer besser werden und Oled TVs schon immer näher kommen ....
Und im Pc Monitor berreich wartet man sich den Ast ab.... und das liegt nun mal daran das der TV Markt einfach um zich fach lukrativer ist.

Und was Imput Lag betrifft werden die Tvs auch immer besser...
 
Ich halte weder OLED noch QLED (Was ja eh nur durch Marketing aufgepimptes normales LCD Display ist...) für relevant in den nächsten Jahren, am wenigsten im Monitor-Bereich.

Da ist Samsungs The Wall schon viel interessanter!
 
JiJiB! schrieb:
Gibt es schon einen Testbericht, oder worauf beziehst du dich?

Guckst du meinen Post, da ist ein CB-Test verlinkt... und darauf bezog sich meine Aussage.
 
Ob das Gerät wohl durch Adaptive Sync mit einer Nvidia GPU (anständig) funktionieren wird?
 
Zurück
Oben