Fachsimpelei: 4k Auflösung und Kantenglättung / Antialiasing

Die Pixeldichte bei 23" FullHD ist lächerlich. Die 100dpi sind noch weit von ordentlichen Druckerzeugnissen entfernt.

@Topic
Natürlich braucht es weiterhin AA. Mit steigender Auflösung kommt feinerer Content hinzu, der wiederrum flimmert.
 
Zuletzt bearbeitet:
Ich habe halt nicht so hohe Anforderungen an die Pixeldichte, Menschen sind verschieden ;)
 
23" und 1920x1080, d.h. der Monitor hat einen PPI (pixel per inch) von 96.

Hier zum bloßem Vergleich:
Oben: Macbook Air mit 13.3" und 1440x900, PPI = 128
Unten: Macbook Pro Retina: 15" und 2880x1800, PPI = 226

air-retina-pro-screen-comparison.jpg

Quelle
Wie man sehen kann, ist das Bild von Retina viel besser.

sagen wir mal, 23" und 4k, dann haben wir gerade mal einen PPI von 192.

Und zurück zum AA bei 4K, man braucht trotz dem noch AA:
Another interesting topic for gaming at 4K resolutions is whether or not you'll need antialiasing technology anymore. The argument basically says that with sufficient pixel density, the benefits of smoothing out lines with AA becomes much less apparent to the human eye. There is definitely truth to this statement, but in my game testing with the PQ321Q there were still plenty of cases where turning off AA result in jaggies and "shimmers" in objects that were improved with AA enabled.
Quelle


Andere Discusion ist 1080p mit SSAA und 4K-Auflösung. Was ist eigentlich besser für Spieler?
 
Zuletzt bearbeitet:
@Fantasy
Wer sitzt denn so nah am Monitor, dass die Fragmentierung der Symbole ins Auge fällt? Ich sitze momentan ~60cm vom 23"er weg und ich sehe die Pixelübergänge nicht.
 
@deathscythemk2
eventuell siehst du es nicht, aber wenn du 2 Macbook pro nebeneinander hast und ein von beide hat Retina Display, dann wirst du für Macbook mit Retina Display entscheiden, fragst mich nicht wieso ;)
 
Zuletzt bearbeitet:
Hier auch ein schönes Bild zur Verdeutlichung:
Anhang anzeigen 370142

Wie vielleicht schon gesagt, muss man 4K oder höher einfach mal im direkten Vergleich gesehen haben, dann möchte man auch nimmer zurück ;-)
 
Unyu schrieb:
Die Pixeldichte bei 23" FullHD ist lächerlich. Die 100dpi sind noch weit von ordentlichen Druckerzeugnissen entfernt.

Wenn ich mich nicht irre, ist die Auflösung bei Druckerzeugnissen so hoch, weil die ja aus verschiedenen Farbpunkten zusammengesetzt werden.
Das ist bei einem Computermonitor natürlich genauso, aber da hat jedes Pixel gleich drei verschiedenfarbige Subpixel. Im direkten Vergleich mit Durckerzeugnissen müsste man die Bildschirmauflösung also verdreifachen.

Ansonsten sehe ich es aber auch so, dass man die Auflösung von Computermonitoren noch ordentlich hochschrauben kann und immer noch deutliche Qualitätssteigerungen bemerkt. Deshalb wird das auch die Zukunft sein.
In ein 20 Jahren wundern wir uns, wie wir die heutigen Augenkrebs-Auflösungen ertragen konnten. Genauso, wie wir uns heute wundern, wie man früher VGA-Auflösung auf flimmernden 60Hz-(oder weniger)-Röhrenmonitoren ertragen konnte.
 
@DerBaya
Jetzt setz dich mal 1m weit weg vom Monitor und du erkennst kaum einen Unterschied zwischen 1080p und 4k ;)
Ich möchte die Technik nicht mies machen, aber 4k wird IMHO viel länger brauchen bis es sich etabliert hat, als Full HD. Es gibt noch so viele Leute die noch nicht mal einen "modernen" Fernseher mit 720/1080 haben und ihr kommt schon mit 4k. Und die Leute die sich in den letzten 2-4 Jahren eine HD ("Hartz4") Glotze gekauft haben, werden ne lange Zeit nicht mehr wechseln. Vor allen Dingen nicht zu den Preisen die verlangt werden.
 
Also ich glaub du hast was an den Augen :) *sry*
Jetzt mal ganz ehrlich, wennich einen 1m von meinem 24" Monitor weg sitze und dieses Bild (Avatar) ansehe,
dass fällt dennoch deutlich auf!
Du musst die Details beachten, Haare, Haut, Wimpern etc....

Es empfindet halt jeder anders... Sei es wie es ist, in 10 Jahren lachen wir über 1080p auf 40" z.B. ;-)
 
Natürlich "sehe" ich das, aber es nicht so ein enormer Unterschied wie von 480 auf 1080 ;)
GIbt halt immer Leute die immer neues brauchen und sofort kaufen (Early Adopters), ich finde das fast schon krank, aber wie gesagt, jedem das seine.
 
Herdware schrieb:
Wenn ich mich nicht irre, ist die Auflösung bei Druckerzeugnissen so hoch, weil die ja aus verschiedenen Farbpunkten zusammengesetzt werden.
Möglich bei den heimischen Tintenspritzern oder Feinstaubläsern, aber diese utopischen 1200dpi meine ich gar nicht.
Bei Offset werden gerne reale 300dpi genannt.

deathscythemk2 schrieb:
Und die Leute die sich in den letzten 2-4 Jahren eine HD ("Hartz4") Glotze gekauft haben, werden ne lange Zeit nicht mehr wechseln. Vor allen Dingen nicht zu den Preisen die verlangt werden.
Doch, denn die Dinger halten nicht ewig. Böse Zungen würden sogar behaupten die Röhren hielten damals länger. Die Preise sinken stetig, 2k oder 4k ist bestimmt nicht das Ende der Entwicklung.

Nur nutzen werden es wenige. In den Läden haben sich BDs noch nicht durchgesetzt, 3D ist fast belanglos, 2k wird es sehr schwer haben. Übrigens kein Wunder bei den Preisaufschlägen. Auf das Fernsehen brauchen wir nicht zu hoffen, die ÖR hängen bei 720p und die Privaten verbinden ihr 1080i mit Aufpreisen und Kundengängelung.
 
Zuletzt bearbeitet:
deathscythemk2 schrieb:
Natürlich "sehe" ich das, aber es nicht so ein enormer Unterschied wie von 480 auf 1080 ;)
GIbt halt immer Leute die immer neues brauchen und sofort kaufen (Early Adopters), ich finde das fast schon krank, aber wie gesagt, jedem das seine.

das liegt aber auch daran, das dein monitor keine 4k auflösung hat, im prinzip müsste man das bild auf einem höher auflösenden monitor sich ansehen, dann wird es deutlicher. ich muss auch schon genau hinsehen, um den unterschied zu erkennen.

von normal auf retina display beim mac und beim iphone war es ein meilenstein, gerade was das lesen von schrift angeht. ich merks jetzt auch an meinem ipad mini, das es manchmal anstrengend ist, daher wird ein ipad mini mit retina auch nochmal einen deutlichen unterschied machen.
 
deathscythemk2 schrieb:
Ich habe halt nicht so hohe Anforderungen an die Pixeldichte, Menschen sind verschieden ;)

Du hast den Thread nicht verstanden. Es ging primär darum, ob AA bei 4K Auflösung noch Sinn ergibt.

deathscythemk2 schrieb:
Natürlich "sehe" ich das, aber es nicht so ein enormer Unterschied wie von 480 auf 1080 ;)

Und jetzt warte mal bis 4k Beamer oder >50" 4k Fernseher in den <1000€ Bereich fallen, dann wird keiner mehr fragen ob er 4k braucht oder nicht.
 
Nunja kaufen wieder alle 4k fernseher und schauen nichmal hd... immer das selbe :)

Aber mir solls recht sein ich find 4k sehr geil! 1080p ist veraltet... Bei den fernsehern gehts aber ein 27er mit 1080p PFUI.
 
Naja, das is ja deren persönliches Problem.
 
Trolllunger schrieb:
Nunja kaufen wieder alle 4k fernseher und schauen nichmal hd... immer das selbe :)

Aber mir solls recht sein ich find 4k sehr geil! 1080p ist veraltet... Bei den fernsehern gehts aber ein 27er mit 1080p PFUI.

beim fernsehen ist es schon lächerlich, Full HD TV und die Sender strahlen in unterirdischer Auflösung aus (außer gegen Aufpreis für die HD Sender^^) :rolleyes:
wenn ich an die alten Röhrenmonitore denke (hatte Anno 1998 einen 15" mit 1024x768) und man dort die volle Auflösung eingestellt hat bei Games (sofern möglich von der Leistung des PCs), gab es nicht dieses extreme Treppchenbildung - vielleicht kommt es mir auch nur so vor :freak:
denke AA verliert dann eindeutig an Bedeutung, wobei ich eh kein "AA-Fetischist" bin, mehr als 4xAA bei 22" brauche ich nie!
 
Danke für eure Meinungen. Die Tendenz geht wohl doch dahin, dass AA bei 4k gaiming noch gebraucht wird um Flackern und Flimmern an Kanten zu vermeiden oder zu entschärfen (im wahrsten Sinne des Wortes)

Fantasy schrieb:
23" und 1920x1080, d.h. der Monitor hat einen PPI (pixel per inch) von 96.
Hier zum bloßem Vergleich:
Bild Oben: Macbook Air mit 13.3" und 1440x900, PPI = 128
Bild Unten: Macbook Pro Retina: 15" und 2880x1800, PPI = 226
Wie man sehen kann, ist das Bild von Retina viel besser.
sagen wir mal, 23" und 4k, dann haben wir gerade mal einen PPI von 192.
Und zurück zum AA bei 4K, man braucht trotz dem noch AA:
Quelle

Diese Quelle geht in die Richtung die ich meinte.
Interessant der Abschnitt nach dem Zitat:
"... in Crysis 3, at Very High presets, I couldn't really tell the difference with AA enabled or disabled and playing a few minutes of the game. Obviously texture quality on a game to game basis will mean a lot when it comes the continued need for AA in gaming on displays with pixel density this high."
Daraus entnehme ich: Auch die Spielinhalte bzw. Texturen (und damit die Engines und Entwicklungsumgebungen) müssen erst an 4k angepasst werden, bevor man es mit entsprechenden Grafikkarten an entsprechende Monitore bringen kann.

Ich denke, wenn es soweit ist und 4k Computermonitore verfügbar sind (und ich lehne mich soweit aus dem Fenster und sage dass Ende 2014 die ersten 4k Monitore im 2X" Bereich auf dem Markt sein werden) werden die Grafikkarten sich mit wandeln.
Ich tippe auf mehr Speicher mit noch breiterer Anbindung bei geringerer Antialiasing-Leistung als heute.
 
es gibt ja soweit ich weiß nichtmal einen 24 zoller mit 2560x1600... sehr schade eigentlich, gäb sicher einen markt dafür unter spielern.
 
Naja ich denke der Markt dürfte verdammt klein sein. Selbst mir wäre egal ob ich auf 24" nun 1920x1200/1080p oder 2560x1600/1440p hätte. Ich sehe da keinen Unterschied mehr auf Schreibtisch-üblichen-Abständen von rund 50-60cm. Bei großen Monitoren ergibt es dagegen durchaus Sinn.
Was aber nicht heißen soll, dass solche Displays niemand braucht/will. Ich persönlich würde dagegen nur lieber einen deutlich größeren kaufen mit diesen Auflösungen. Vor allem dann auch im 21:9 Format und nicht mehr 16:10/16:9.
 
Zurück
Oben