4k Gaming Allgemeine Frage!

@DoS007
Die Geräte sind nach Vesa Standard zertifiziert. daran kann man sich richten.
Es gibt Display HDR400,500, 600 und 1000, zudem noch HDR400, 500 True Black.
Mehr Infos: https://displayhdr.org/performance-criteria/
Display HDR1000 erreichen fast nur Geräte mit Full Array Local Dimming ( FALD ), da LCD Technik da an ihre Grenzen kommt.
Mein Monitor hat eine andere Zertifizierung, nennt sich Ultra HD Premium, ist ähnlich die Display HDR1000 nur das noch gewisse Farbräume erfüllt werden müssen.
 
abcddcba schrieb:
Aehm, nein. Das muss ja im Bildmaterial drin sein. Hoeherer Range in einem groesseren Farbraum (dank 10 Bit Panel) - das sind deutlich mehr Daten

Schau dir dieses Bild aus dem genannten Artikel an:

Full_Array_Local_Dimming_Hearthstone_Frozen_Throne_format.jpg


Warum sieht das so toll aus? Weil man auf der einen Seite knackiges Blau hat und daneben richtiges Schwarz. Das kann man bisher schon kodieren über #000000 und #05D3FD. Damit das so toll aussieht, braucht man also nicht noch irgendwelche weiteren Kanäle. Das hat also nur etwas mit der technischen Wiedergabefähigkeit des Monitors zu tun.
 
Um nochmal auf die ursprüngliche Frage zurückzukehren: 4k Gaming ist aufjedenfall drin. Dann darf man halt ausnahmsweise Mal nicht 220FPS erwarten, die man m.M.n sowieso nicht braucht.
Ich selbst spiele nur mit einer RX480 8GB und einem Athlon X4 870k @4,5GHz auf einem 4k Monitor und habe noch einen Full HD 2. Monitor Und dümpel je nach Spiel zwischen 25 und 72 FPS, auf mittleren bis epischen Einstellungen, rum. (Titanfall 2, Rainbow Six, Overwatch, LS19, City Skylines, Forza Horizon 3, GTA 5, etc.) Mich persönlich stört das absolut nicht. Ich bin sicher mit der Highend Hardware deines Kollegen wird das absolut kein Problem!
 
Ketamaa schrieb:
Jetzt ist meine frage.. wie seht ihr das?
Ist 4k in aaa spielen schöner wenn man es auf high spielt...
Oder lieber 2k und (160 herz) und Ultra!

Ihr bescheisst euch doch mit dem Hinterhergerenne von "Ultra" schon selbst. Finde ich jedenfalls.
Wenn ich in BF5 alle Regler anknalle, dann habe ich 39 FPS in FHD. Was für mich bedeutet, selbst in FHD muss ich schon die Regler im Game benutzen. Dazu sind sie übrigens da, dazu haben sie die Programmierer eingefügt. Das man seine Software an die Hardware und an seine Vorlieben an die FPS und die Bildqualität anpassen kann. Warum will die niemand benutzen und warum seid ihr so verdammt Ultra-Fixiert?
bfv_2019_02_15_09_24_s8kyo.jpg


Aber ich benutze die Regler und kann bequem in UHD zocken.
Ohne DLSS gehts in 3840x1648 (und die Graka langweilt sich bei 60 FPS vsync)
bfv_2019_02_09_13_42_m2kt5.jpg
Und mit DLSS ist dann auch die volle Auflösung kein Problem mehr.

Macht da doch nicht immer so ein Aufriss drumrum.
Dem einen ist es halt völlig egal wie es aussieht, hauptsache er hat FPS und er gewinnt wie ein Gott. Der soll sich halt nen kleinen Monitor kaufen. Dem anderen ist halt wichtiger wie es aussieht, und dafür verzichtet er gerne auf ein paar FPS, der möchte sich bitte einen hoch aufgelösten Monitor kaufen.

Ich versteh auch 2560x1440 heute nicht mehr wirklich. Ich hab meinen ersten 2560x1600er Monitor vor 11 Jahren gekauft. Damals war das toll (übrigens waren da gerade GTX8800 das Ende der Fahnenstange, überlegt euch mal was ihr dagegen heute für Leistung bei den Grakas habt). Und auch das ging damals schon. Und ihr macht da heute nen Aufriss drumrum g
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wolve666, krsp13 und Deathangel008
DoS007 schrieb:
Das hat also nur etwas mit der technischen Wiedergabefähigkeit des Monitors zu tun.
Ich verstehe nicht was das jetzt soll. Wenn das Material es nicht beinhaltet, dann bringt dir ein HDR Abspielgeraet nix. Warum verstehst du das nicht? In HDR wird Material einen wesentlich breiteren Helligkeitsbereich von 0,0005 bis 10.000 cd/m² ohne Kompressionsbedarf aufgezeichnet. Die Wiedergabebedingungen für die Produktion von Inhalten (ITU-R BT.2100) sind auf eine maximale Helligkeit von 1.000 cd/m² und eine minimale Helligkeit von 0,005 cd/m² ausgelegt. SDR geht nur bis 100 cd/m².
Aber ok, wenn du sagst das Quellmaterial ist egal, ok. Komisch dass nicht alle Inhalte heutzutage in HDR verfuegbar sind...naja, dann hol dir einen HDR Fernseher und guck halt alles in HDR. Wird schon klappen ...
 
@abcddcba ja, d.h. die Farbräume können nicht mal 255x255x255 (rgb) aktuell darstellen? Das halte ich für ein Gerücht. "Warum ich das nicht verstehe" steht oben. Ein sattes komplettes Schwarz angrenzend zu einem hellen Blau ist selbst mit diesem simple, naiven rgb Farbraum möglich. Oder sind die heute verwendeten Farbräume nicht so gut wie simples RGB?
 
Es gibt zwei Dimensionen hier. Zum einen die Farbabstufungen, heute hat man 10bit Panels, das heisst man hat eine 1024 Abstufungen pro Farbton. Aber viel wichtiger ist doch wie gesagt der Helligkeitsbereich. SDR geht bis 100 cd/m² HDR von 0,0005 bis 10.000 cd/m². Und das alles passiert in der Aufnahme, bei SDR brauchte man nicht so viele Daten aufzeichnen und konnte komprimieren.
Diese werden dann spaeter entweder statisch oder dynamisch verarbeitet. Deswegen dann der Kram mit HDR10, HDR10+, DV etc.
 
Ich versuche es noch etwas konkreter zu erklären. Kein Mensch stellt seinen Monitor so ein, dass 255, 255, 255 1000 oder 10000cd/m2 hell ist, weil einem dann die Netzhaut wegbrennt (vielleicht etwas übertrieben ;)) . Möchte ich also die 1000 oder 10000cd nutzen, müsste ich bei 255 Stufen, die normalen Bildinhalte mit etwa 50 Stufen darstellen und könnte dann die Highlights mit den restlichen 200 Stufen darstellen. Jetzt sollte jedem klar sein, dass es so nicht funktionieren kann. Daher ist HDR mit 10Bit und einem exponentiellen Helligkeitsverlauf definiert, damit man für den normalen Helligkeitsbereich noch genug Stufen hat.
 
@abcddcba @Nolag Ich danke euch beiden, ich glaube mir geht ein Licht auf. Mal angenommen ich habe die RGB-Farbe 157,210,15. Ich hatte zuvor gedacht, dass wenn man es dunkler machen möchte in einer dunkleren Szene, dass dann z.B. einfach nur ein anderer, dunklerer RGB-Wert genommen werden muss: Also z.B. 150, 200,13. Dadurch hat man ja in der Farbe implizit auch die Helligkeit mit dabei. Wieso funktioniert das so nicht?
 
Das RGB System funktioniert schon so wie von dir beschrieben. Was wir versuchen zu verdeutlichen ist, dass der Unterschied die maximale Helligkeit ist, für die das klassische 8Bit RGB System ausgelegt ist. Vereinfacht gesagt, braucht man einfach mehr Bits, wenn man den Helligkeitsbereich von den gängigen 100-200cd auf 1000 oder gar 10000cd erweitern will, um nicht die Farbauflösung im unteren Helligkeitsbereich reduzieren zu müssen.
 
@HisN

Ja um das gehts mir ja....
Ich weiß schon das es Regler gibt um die Grafik an die Hardware anzupassen!
Genau das ist ja mein Punkt.. ich kauf mir ja nicht aktuelle Hardware um ältere
spiele in 4k zu spielen! Welchen sinn mach es heute auf 4k zu gehen wenn ich
aktuelle spiele nicht in 4k ultra spielen kann
Um das gehts mir ja, aber mach es sinn sich einen 4k Monitor zu kaufen....
Ist die Technologie schon so weit!


bf 5 3440x1440 ultra

bfv_2019_02_21_05_09_59_178.jpgbfv_2019_02_21_05_28_52_044.jpgbfv_2019_02_21_05_20_53_668.jpg
Ergänzung ()

fidschi schrieb:
Hallo TE,

kuck dir doch mal diesen Monitor an:
https://geizhals.de/acer-predator-x34p-um-cx0ee-p01-a1761232.html?hloc=at&hloc=de
21:9 ist zwar ein zweischneidiges Schwert, ich aber finde ihn sehr sehr geil.


Genau das würde ich ihm auch empfehlen ..
Aber er will eben 1 monitor zum spielen.. und einen 2ten monitor zum stream schaun!
Und 2 uwqhd Monitore sind ihm zu groß!
Ergänzung ()

Sturmwind80 schrieb:
Bei 27" würde ich noch auf 1440p setzen und ab 30 Zoll eher 4k, aber da gibt es noch keine Monitore mit 144Hz. Ich kann mir nicht vorstellen, dass der Unterschied auf 27" so groß ist zwischen 1440p und 2160p, aber bei ersterem ist die Grafikkarte wesentlich genügsamer.

Selbst die 2080Ti schafft nicht immer die 60FPS in aktuellen Spielen und das wird dieses Jahr sicher nicht besser werden.

Ansonsten kann man natürlich auch alles mit 4K spielen, wenn man die Regler im Spiel bedienen kann. Das Ganze ist einfach subjektiv zu betrachten und dein Kollege sollte sich so entscheid, dass er selber gut damit klar kommt. Im ersten Moment sieht es eher danach aus: "Ich kaufe mir das teuerste am Markt und bin zufrieden"

Sinnvoll ist das bestimmt nicht.


Ja das denke ich mir eben auch!
Es ist eben verdammt schwer ihm das beizubringen!
Die meisten Arbeitskollegen von mir haben einen ps4 pro oder xbox x...
Und die schwärmen immer von 4k gaming! Ich will ihm eben erklären das es am pc
ein bisschen anderes ist!
 
Zuletzt bearbeitet:
Ketamaa schrieb:
Die meisten Arbeitskollegen von mir haben einen ps4 pro oder xbox x...
Und die schwärmen immer von 4k gaming! Ich will ihm eben erklären das es am pc
ein bisschen anderes ist!

Vielleicht kauft er sich dann einfach eine XBox und PS4 Pro :D
Die Konsolen sind halt speziell zum Spielen am TV gebaut worden und klar sieht dann 4K genial aus. Die Bildschirmdiagonalen sind aber auch wesentlich größer, so dass 4K auch wieder Sinn macht. Selbst meine Switch hat am neuen 4K TV noch Mal einen Sprung nach oben gemacht, obwohl die gar nicht direkt 4K unterstützt.

Er muss halt begreifen, dass man das nicht mit dem PC vergleichen kann.
 
Wenn die Kollegen von 4k auf der Box schwärmen, was vielleicht gerade mal medium auf den PC entspricht, warum muss es dann Ultra und sonst nix sein? Das Problem ist nicht der PC oder die Hardware sondern vor dem Monitor.
 
Ich selbst habe ebenfalls eine PS4 pro und auf meinem 27" 4k Monitor, finde ich die Grafik vom PC sogar schöner, wie mit der Playstation... Letztlich bleibt alles Geschmackssache
 
Lutscher schrieb:
@DoS007
Die Geräte sind nach Vesa Standard zertifiziert. daran kann man sich richten.
Es gibt Display HDR400,500, 600 und 1000, zudem noch HDR400, 500 True Black.
Mehr Infos: https://displayhdr.org/performance-criteria/
Display HDR1000 erreichen fast nur Geräte mit Full Array Local Dimming ( FALD ), da LCD Technik da an ihre Grenzen kommt.
Mein Monitor hat eine andere Zertifizierung, nennt sich Ultra HD Premium, ist ähnlich die Display HDR1000 nur das noch gewisse Farbräume erfüllt werden müssen.
Ah ok, d.h. letztlich gibt es solche Normenspezifikationen verlgleichbar zu Bronze, Silber, Gold. Danke.
Ergänzung ()

Nolag schrieb:
Das RGB System funktioniert schon so wie von dir beschrieben. Was wir versuchen zu verdeutlichen ist, dass der Unterschied die maximale Helligkeit ist, für die das klassische 8Bit RGB System ausgelegt ist. Vereinfacht gesagt, braucht man einfach mehr Bits, wenn man den Helligkeitsbereich von den gängigen 100-200cd auf 1000 oder gar 10000cd erweitern will, um nicht die Farbauflösung im unteren Helligkeitsbereich reduzieren zu müssen.

Hätte jetzt gedacht, dass das RGB-System reicht, 255 255 255 z.B. einfach für volle Helligkeit, die möglich ist. Aber anscheinend reicht das dann halt einfach nicht, muss man vermutlich selbst erlebt haben.
 
Die 255 Stufen sind ja bei SDR schon zu wenig. Es kommt bei bestimmten Gradienten zu deutlichem Banding weil 255 Abstufungen pro Farbe schon jetzt einfach zu wenig sind, weshalb Profis ja schon lange mit 10Bit arbeiten. Würde man also 8Bit auf einen größeren Helligkeitsbereich erweitern, würde der Effekt derart verstärkt werden, dass Banding fast immer sichtbar wäre. Man darf nicht vergessen, dass für den bisherigen Helligkeitsbereich dann nur noch 50 oder weniger Stufen zur verfügbar stünden.
 
Zurück
Oben