News Erster „4K“-IGZO-Monitor mit 3.840 × 2.160 Pixeln erhältlich

weil es ca. 77% mehr pixel sind die berechnet werden müßen?
 
warum soll sich ein monitor mit höherer auflösung nicht lohnen?

fernseher mit 4k sind unnötig, aber bei monitoren kann man es gut gebrauchen.
 
Elkinator schrieb:
weil es ca. 77% mehr pixel sind die berechnet werden müßen?



Naja, rechne Dir mal einen Framebuffer aus. Da kommt nicht viel zusammen. BreitexHöhexFarbtiefe, 2x oder 3x (Doublebuffer, Tripplebuffer). Der Hauptanteil des VRAMs geht immer noch für Texturen drauf (denen ist es übrigens egal ob sie auf ein Dreieck mit 2 Pixeln oder 2000 Pixeln gelegt werden, die haben meistens feste Größen) und Filter-Effekte (unter anderem Antialiasing, das zähle ich zu den Filtern^^). Antialiasing braucht bei steigender Auflösung auch mehr VRAM. An sonsten ist es meistens sehr von der Engine abhängig ob bei steigender Auflösung auch mehr VRAM gebraucht wird, ich würde sagen die Änderung ist kleiner als beim Antialiasing^^
 
trotzdem ist es nicht ungewöhnlich das eine GPU einbricht wenn sie fast doppelt so viele pixel zu berechnen hat.
die pixelanzahl steigt eben zum quadrat, bei doppelter auflösung sind es 4mal so viele pixel.

und wieviel VRAM belegt wird ist ja auch egal, das hat ja nichts damit zu tun wie schnell die karte rechnet.
gibt ja genug karten die nur viel speicher haben weil es bei DAUs gut aussieht, aber wo es aufgrund der langsamen GPU sinnlos ist.
 
Die Auflösung bei einem so "kleinen" Monitor hat doch den Vorteil, dass man AA runterdrehen oder vielleicht auch ganz ausmachen kann. Hm... ob sich der Leistungsverlust durch die höhere Auflösung mit der steigenden Performance durch weniger/kein AA ausgleicht? Das wäre mal ein interessanter Test für CB.
 
das könnte ja auch jemand testen der 2 monitore hat.
man testet einmal mit einem und danach mit 2 monitoren.

bei 2x 1920x1080/1200 sollte ja jede karte ins schwitzen kommen?

2 monitore hat schnell mal jemand, einen monitor mit 4k wird man nicht so leicht finden.
 
bei 2x 1920x1080/1200 sollte ja jede karte ins schwitzen kommen?
Tut meine 6970 nicht. Auch nicht bei 3 Monitoren. Aber ich zocke keine Shooter mehr. Das sind ja die Art Spiele, die für gewöhnlich die anspruchsvollste Grafik haben.

World of Tanks ging aber ohne Probleme @5760x1200 @3x 24". Allerdings fühlt man sich bei der Monitoraufstellung merkwürdig. Es wirkt surreal und macht benommen.
 
Sorry aber wer fast 7000€ für diesen Monitor ausgibt, dem is nichtmehr zu helfen. Der Preis ist mehr als übertrieben. Dann leiber noch ein paar Jahre warten bis der Preis in den normalen Bereich sinkt. Mit normal meine ich um die 500 - 600€. Ok wenn man sich jetzt speziell auf diesen 31 Zoll Monitor bezieht sind bis zu 800€ auchnoch gut.
 
Zuletzt bearbeitet:
Enthusiasten achten nicht wirklich auf P/L Verhältnis, aber du hast recht 7000€ sind einfach zu viel.
Für 7000€ kriegt man einen gebrauchten Kleinwagen oder HISNs System :D
 
In Anbetracht der Tatsache, dass heutige Smartphones schon FullHD bei unter 5 Zoll aufweisen, bin ich mal gespannt, wann erste Tablets mit Ultra-HD erscheinen :) Dann dürften die größeren Geräte für PC oder TV auch endlich im Preis fallen ;)
 
Kann eigendlich der Anschluss des Retina MacBook mit der Auflösung vernünftig umgehen, sodass MacOS skalieren kann?

Ich denke mal unter Windows sind 4k einfach zu klein???
 
e-Laurin schrieb:
Die Auflösung bei einem so "kleinen" Monitor hat doch den Vorteil, dass man AA runterdrehen oder vielleicht auch ganz ausmachen kann.

AA ganz aus auf keinen Fall. Davon abgesehen, dass es bei jeden individuell unterschiedlich ist, wieviel ppi er bräuchte, hab ich es mal mit meinem Notebook getestet (1920x1080 bei 15,6" -> 141ppi). Da sieht man bei 70 cm Abstand noch deutlich die Teppeneffekte. Ich müßte 1,8m weit weg sitzen um auf AA vollständig verzichten zu können. Bzw. bei 15,6" und normalen Sitzabstand bräuchte ich irgendwas zwischen 4k und 8k als Auflösung um auf AA verzichten zu können. Kann ja jeder mal für sich ausprobieren wie weit er beim Spielen bei seinen aktuellen Monitor wegsitzen müßte damit er die Treppeneffekte nicht mehr sieht.
 
Lord Quas schrieb:
Ich bin wirklich auf die 2/4k Geräte gespannt und vor allem, wie OLED aussieht. Zur Zeit kann mich nichts mehr überzeugen als Panasonic Plasma TV´s, leider ist dort bei 1080p Schluß. Ich habe irgendwie die Befürchtung, dass zwar die Auflösung mit der neuen Technologie steigt aber die Bildqualität abnimmt.

Meinst du mit "Bildqualität" (insbesondere bezogen auf Panasonic-Plasmas) Phänome wie:

- Rising Blacks
- Floating Brightness
- 50Hz-Bug/False Conture-Effekt und
- Eingebrannte Senderlogos und Huds von Spielen?

Damit will ich nicht die Plasmatechnik ansich oder als Solche diskreditieren, aber es ist nunmal eine Tatsache (und das kann man bis heute von den Nutzern in Fachforen, wie dem Hifi-Forum immer wieder nachlesen) dass diese Technik genauso ihre Schwächen und Mängel hat bzw. mit sich bringt, wie die LCD/LED-Technik! (die übrigens - auch wenn Plasmafanboys, welche die besagten, angesprochenen Plama-Schwächen beständig ignorieren oder unterschlagen bzw. herunterspielen - in den letzten Jahren in einigen wichtigen Belangen, wie etwa der Farbdarstellung oder auch beim Schwarzwert stark aufgeholt hat!)

Es hat schon seine Gründe, warum Panasonic jüngst angekündigt hat, die Produktion von Plasma-TVs einzustellen!

Was 4K und OLED im Hinblick auf die Bildqualität (im Vergleich zur heutigen LCD als auch Plasma-Technik) bringen werden, muss sich erst noch zeigen, ich denke aber schon, dass wir hier deutliche Verbesserungen erwarten dürfen...

Elkinator schrieb:
warum soll sich ein monitor mit höherer auflösung nicht lohnen?

fernseher mit 4k sind unnötig, aber bei monitoren kann man es gut gebrauchen.

Letzterem kann ich nur zustimmen (obwohl ich das mit den 4K-TVs anders sehe): Seit ich vor einigen Monaten ein iPad 4 mit Retina-Display (2048x1536, bei eine Pixeldichte von 256 ppi) angeschafft habe, erscheint mir selbst mein 30"er mit seinen immerhin 2560x1600 Pixeln "wiederum" als ziemlich grobpixelig!

Man merkt bzw. realisiert einfach, dass nach oben hin bildtechnisch noch immer Einiges an Spielraum vorhanden ist und das hat bei einem Desktop-Monitor vor allem im Hinblick auf ergonomische Aspekte eine grosse Relevanz!

Mit Leuten, die das noch nie Live und in Farbe gesehen haben, braucht man sich darüber aber natürlich logischerweise nicht zu unterhalten, weil die es ja garnicht erst einschätzen können, allein schon, weil sie garkeinen Vergleich haben... (sinnlos darüber auf so einer Basis zu diskutieren...)

mumpel schrieb:
Schon "Der Hobbit" im Kino gesehen? Das sieht aus wie ne billige Seifenoper. Wie ne gut gemachte Terra X-Folge. Aber niemals wie ein großer Kinofilm. Ich hab bis ~3/4 des Films gebraucht, bis ich den Effekt nicht mehr total kacke fand. Die letzten 1/4 fand ich ihn nur nur ziemlich kacke. Das ist der berühmte Soap-Effekt, den auch alle Samsung-TVs frei Haus liefern :) Gaaaaanz furchtbar.

Tja, es wurde noch nicht realisiert, dass die 24P-Darstellung ein wichtiges filmisches Stilmittel ist, welches eben genau die Atmosphäre eines Filmes trägt oder zum Grossteil überhaup erst ausmacht/erzeugt. Man muss sich ja zu einem beliebigen Film nur mal ein Making of anschauen, wo Szenen vom Drehort mit der normalen Darstellung von 50 oder 60 Bildern pro Sekunde gezeigt werden. Da sieht man dann ja schon den Unterschied! (das sieht eben überhaupt nicht mehr filmisch aus!)

Aber der moderne (junge) Mensch von heute hat auch eine sonderbare Vorstellung von "Fortschritt": Jahrzehntelang hat sich kein Mensch an den (heute angeblich) ach so schlimmen 24P-Filmjuddern oder an der angeblich unscharfen Bewegungsdarstellung gestört (wenn in der Realität ein Zug oder PKW mit 100 km/h an mir vorbeifährt, dann sehe ich den auch nicht mehr scharf, das ist völliger Blödsinn, sowas zu suggerieren) Er nimmt lieber extrem unecht aussehende Bewegungskompensation (durch Einfügen künstlicher, ursprünglicher im Bild nicht vorhandener, hinzuberechneter Zwischenbilder) in Kauf (das was TVs heute machen) als den besagten Filmjudder. Und das wird dann als "natürliche" Darstellung empfunden?

Zum Glück wird "Der Hobbit - Eine unerwartete Reise" auf Bluray/DVD ganz normal in 24 bzw. 25P dargestellt (im Kino hab ich ihn nicht gesehen und muss ich mir auch nicht geben...) ;-)

Dieser Müll wird sich aber wohl dennoch mittelfristig durchsetzen, denn wir wissen ja alle, dass die Industrie heute keine Rücksicht mehr auf das nimmt, was die Leute wirklich wollen und brauchen (sieht man auch daran, dass es fast nur noch Desktop-Monitore im Format 16:9 gibt oder daran, dass Microsoft mit Windows 8 den Leuten eine Smartphone-Gui für Desktop-Rechner aufzwingen möchte...) Die wissen eben einfach besser, was gut für uns ist, als wir selbst! /ironie off

Elkinator schrieb:
warum sollte man bei einer hohen auflösung nichts mehr lesen können?

Weil die Darstellung auf dem Bildschirm zugunsten von mehr nutzbarer Arbeitsfläche miniaturisiert wird (Skalierung) und du dann übertieben ausgedrückt ein Elektronenmikroskop brauchst oder den Sichtabstand auf 5 cm verkürzen musst, um noch Text lesen bzw. ergonomisch (<- ich weiss, ein Fremdwort in diesem Forum) damit arbeiten zu können. Die Hersteller von Betriebssystemen müssen erstmal diese anpassen, damit das Problem gelöst wird! (die Schriftgrösse/Darstellung allein anzupassen reicht dafür nicht!)

keine 4hnung schrieb:
Jetzt müsste Microsoft mal so langsam anfangen sein Betriebssystem für so hohe Auflösungen benutzbar zu machen...

So ist es!

Microsoft erachtet es z.Z. aber offenbar als wichtiger, Windows in ein grosses Smartphone umzuwandeln und einen tollen App-Store zu integrieren... (immer das bringen, was der Nutzer am Wenigsten braucht. Und das wird dann als Fortschritt vermarktet/verkauft. Hochintelligent, keine Frage...)

Elkinator schrieb:
warum sollte das bild bei mehr bildern pro sekunde schlechter werden?

Weil der durch 24P erzeugte typische/klassische filmische Look/Darstellung durch eine höhere Framrate total verloren geht/zerstört wird. Und dieser ist ein wichtiges Stilmittel des Films, weil er einen Einfluss auf das Flair und die Atmophäre beim Schauen eines Films hat! (ansonsten sieht das Ganze eben aus, wie die Liveberichterstattung im TV, bzw. wie ein billiger Porno, wo die finanziellen Mittel für eine filmgerechte Darstellung offensichtlich nicht gereicht haben, oder so als ob die kleine Schwester den Film mit dem Handy aufgenommen hat!)

Hier gilt wie so oft der alte Spruch: Weniger (Bilder pro Sekunde) ist mehr!

lazsniper schrieb:
der preis schockt mich jetzt nichtmal so arg, was mich primär schockt sind 93 watt verbrauch Oo

Angesichts der Leistung/Bildqualität bzw. der Menge an Pixeln, die hier befeuert werden müssen, finde ich 93 Watt noch recht moderat... (ein grosser aktuell käuflicher 55"-"LCD/LED"-TV verbraucht vielleicht ~ 70 Watt, ein Plasma derselben Grösse deutlich mehr!)

Mein Dell 3008WFP verbraucht z.B. glaub (je nach eingstellter Helligkeit) auch um die 125 W (arbeitet halt noch auf Basis von CCFL) was man auch an seiner Wärmeentwicklung auf der Rückseite deutlich spürt! (man kann sich da beinahe verbrennen)

Homer OC schrieb:
Enthusiasten achten nicht wirklich auf P/L Verhältnis, aber du hast recht 7000€ sind einfach zu viel.
Für 7000€ kriegt man einen gebrauchten Kleinwagen oder HISNs System :D

Das Ganze ist halt z.Z. noch (lange) nicht massenmarkttauglich. Wird wohl sicherlich noch mindestens 3-5 Jahre dauern, bis es soweit ist, dass solche Monitore und TV-Geräte für normale Menschen erschwinglich sind... (sprich zu Preise zu haben, die man heute für gute Full-HD-Monitore oder TVs zahlt)

Ist auch insofern nicht "schlimm", da viele Voraussetzungen noch garnicht erfüllt sind, für die sinnvolle Nutzung dieser Technik, angefangen damit, dass die Betriebssysteme nicht dafür ausgelegt sind und wenn man sieht, dass viele Blurays zwar als Blurays verkauft werden, aber keine HD-würdinge Bildqualität sondern eher hochskalierte DVD-Qualität bieten, dann weiss man auch im Heimkinobereich, was Sache ist... (wobei man aber merkt, dass sich die Situation allmählich verbessert, da immer mehr neu erscheinenende Blurays, als auch restaurierte ältere Filme/Serien eine immer bessere Bildqualität offerieren!)

Bis dahin sind dann vielleicht auch:

1. 4K-Inhalte verfügbar (Heimkino/TV)
2. Die Betriebssysteme und Anwendungen an 4K-Darstellung angepasst bzw. anpassbar
3. Grafikkarten auf dem Markt + erschwinglich, die 4K im Bereich Spiele adäquat mit Leistung befeuern können, was heute nichtmal eine 1000 € teure GTX Titan (und wahrscheinlich auch kein entsprechendes SLI-Tandem) leisten kann (falls der PC bis dahin als Spieleplattform überhaupt noch eine Rolle spielen sollte, versteht sich!)
 
Statt immer mehr Pixel auf eine Fläche zu klatschen sollten die lieber mal was an der Refreshrate ändern.
Und das bitte nicht mit den Pseudo-1000hz!
 
<donquixotemodus>
Windows hat eine DPI-Skalierung, die nicht nur Schriften, sondern das komplette Interface (Schaltflächen, Icons, etc.) anpasst. Übrigens schon seit XP. Es gibt noch ein paar Unstimmigkeiten sowie schlechte Drittanbietersoftware, die sich nicht entsprechend verhält, aber meines Erachtens ist es gut benutzbar.
</donquixotemodus>
 
Ja, die DPI-Skalierung (ich nutze sie auf meinem 30"er bei 2560x1600 ebenfalls, weil bereits dort die Darstellung in der "Werkseinstellung" für Leute mit normaler Sehschärfe zu klein ausfällt und somit kein ergonomisches Arbeiten möglich ist) funktioniert zwar grundsätzlich, allerdings nur in viel zu groben Schritten/Rastern bzw. nicht stufenlos und bestimmte Elemente, wie z.B. Gadgets in der Sidebar (Windows 7) skalieren eben nicht mit, was dann zu einer ziemlich inhomogenen/unharmonisch wirkenden Darstellung führt!

Es gibt da für MS noch hinreichend Verbesserungspotential bzw. vielmehr - Bedarf: Windows XP gibt es immerhin seit 2001 und Monitore mit Auflösungen von 2560x1600 gibt es seit ca. 2006, also schon ein ganzes Weilchen länger <- Da hat sich seither faktisch nichts mehr getan!
 
Das ist falsch. Metro ist vektorbasiert und funktioniert damit mit jeder beliebigen Auflösung. Genauer gesagt, passt es sich der Bildschirmgröße an, damit Bildelemente überall gleichgroß aussehen.
 
Zurück
Oben