Verständnisfrage zu Monitoren

Naja, kann man so kaum sagen. Ein 3840x2160 Pixel Monitor, sollte man immer auf dieser Auflösung betreiben, da die Flüssigkristalle eine feste größe haben. Danach wird interpoliert und es wird recht schnell matschig das Bild. Aber, man kann in Windows mit der Skalierung arbeiten...heißt Auflösung bleibt gleich und es wird trotzdem größer dargestellt. Aber, je nach Anwendung gibt es mal Problemchen. Die beste Auflösung imho bei 27" ist einfach am PC 1440p, also 2560x1440 Pixel. Sowohl als Spieler, als auch zum arbeiten. Hatte selbst 27" UHD und die Skalierung hat nicht immer pefekt funktioniert. Gerade bei älteren Anwendungen häufig ein Problem. Aber auch in Spielen teilweise.

Beispielsweise bei GuildWars2 war mir der Text teils etwas zu klein in UHD auf 27".
Aber, je höher der DPI-Wert ist, umso schärfer ist er natürlich. DPI-steht ja für Dots per Inch, also Punkte pro Zoll...dann ist es ja klar.

Was hast du denn bisher für einen Monitor? Möchtest du einen neuen kaufen?
 
  • Gefällt mir
Reaktionen: Baal Netbeck und coasterblog
Das erste ist richtig.

Aber eine "krumme" Auflösung nutzen macht es nicht schärfer. Man skaliert dann über Windows mit der Anzeigeeinstellung zB. (125/150%)
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Hallo epiro,
ja, sofern man die Skalierung verwendet sind die z.B. Buchstaben gleich groß, jedoch stehen halt mehr Pixel zu Verfügung, um diese darzustellen. Gerade Objekte mit Kurven und diagonal verlaufende Kanten profitieren davon. Schrift wirkt schärfer, Bilder detailreicher.

https://www.scientiamobile.com/wp-content/uploads/2018/12/Pixel-Density.jpg

Sapphire Fan hat aber auch recht, ältere Anwendungen könnten die Skalierungen nicht berücksichtigen und wirken matschig (Desktopprogramme) oder Spiele skalieren die UI nicht mit.
 
Inhalte werden üblicherweise mit bestimmter Größe in einer gewissen Anzahl an Pixeln, oder nach dem Prinpip Punktgröße angezeigt.
Wie der TE richtig erklärt hat werden somit die Inhalte bei gleichbleibender Bildschirmdiagonale und ansteigenden DPI/PPI immer kleiner ausgegeben.
Also kann der Benutzer in diversen Programmen/Spielen und/oder zentral im Betriebssystem mit Skalierungsfaktoren die Ausgabegröße der Inhalte vergrößern.

Um ohne benutzerdefinierte prozentuale Skalierung müsste also bei steigender Ausgabepixelmenge die Bildschirmdiagonale größer gekauft werden, damit die Inhalte ähnlich groß wie bei kleinerer Auflösung bleiben, aber die Gesamt-Arbeitsfläche vergrößert wird.
 
MacOS skaliert deutlich besser als Windows, da hat Apple recht früh für gesorgt. Das hättest du erwähnen sollen.
 
Gibt es bei Apple keine Möglichkeit, zu skalieren? Uhd Monitor bei niedriger Auflösung nutzen, geht ja gar nicht...
 
Grundsatz: Ein Monitor muss immer in der nativen Auflösung laufen. Wenn die Schrift / Symbole zu klein sind, verwendet man die integrierte Skalierungsfunktion, welche bei Windows und macOS sehr gut funktioniert. Nur auf Linux ist es Müll. (vielleicht in 5 Jahren)

Bei einem 4k Bildschirm:
3840x2160 auf 100% bietet den meisten Nutzen. (100% Arbeitsfläche, 100% schärfe - das Optimum)
3840x2160 auf 200% ist wie 1080p, aber deutlich schärfer. (Nur noch 25% der Arbeitsfläche, meist scharf)
1920x1080 auf 100% ist unscharf und matschig, auch wenn 4 Pixel 1 Pixel darstellen sollen. Manchmal sieht man es stärker, manchmal schwächer.
????x???? auf ???% ist sehr deutlich unscharf und sehr matschig, da bspw. ein Symbol mit nativen 13 Pixel Höhe auf 9 Pixel gequetsch oder 20 Pixel gestreckt wird.


Für externe Bildschirme:
Eine kleine Mathe-Aufgabe, wenn es perfekt sein muss.
Wenn die DPI am Ende gleich sind, der Abstand und/oder die Größe aber nicht, kann es blöd aussehen.
Je weiter der Monitor von dir entfernt steht, desto geringer müssen die DPI sein.
Optimal wäre es immer, wenn man auch auf dem externen Bildschirm die native Auflösung und die gleiche Skalierung verwendet wie auf dem Hauptbildschirm. So wird ein Fenster, Symbol, Schrift, etc. beim Verschieben auf den externen Monitor genauso groß und scharf bleiben wie auf dem Hauptmonitor.
 
Zuletzt bearbeitet:
Die Aussagen sind so nicht richtig weil sich die Schärfe nicht nur über DPI definiert. Wenn das Coating des Panels mies ist bzw. zu stark, dann kommt auch bei sehr hohen DPI Werten nur Matsch raus.
Das sieht man sehr schnell wenn man mal mehrere Bildschirme, z.B. WQHD 27", nebeneinander hat, dass bei manchen die Schrift einfach nicht knackscharf ist. Da ist dann das Coating zu stark um den Monitor z.B. stark zu entspiegeln. Da kommt man auch mit keinen Einstellungen mehr auf ein scharfes Bild.
 
Highspeed Opi schrieb:
Nur auf Linux ist es Müll. (vielleicht in 5 Jahren)
Hast du gerade den heiligen Gral beschmutzt? :p

Auf YT habe ich gerade mal bzgl. MacOS gesucht und da gibt es eine Menge Stoff zum Thema. Und ja, die native Auflösung ist vorzuziehen. Man macht sich vor dem Kauf Gedanken zum Verhältnis wenn man nicht skalieren will oder kann.
 
  • Gefällt mir
Reaktionen: DieRenteEnte
Natürlich bietet Ultrawide mehr Fläche. Der Rest ist Mathe und natürlich welche Panels in welcher Qualität.
 
Ja das mit dem Coating ist schon richtig. Es gibt aber als Beispiel keinen 27" Full HD Monitor der scharf ist, egal wie gut oder schlecht der Rest des Bildschirms ist.
 
Alles eine Frage des Preises.
 
Schau dir Tests an, evtl. YT Reviews. Hätte ich das Geld käme der sicherlich in die engere Wahl; alleine schon wegen der Größe.
 
"Viel Arbeitsfläche" in allen Ehren.
42" auf dem Schreibtisch muss man wollen und mögen. Mein LG hat 31,5" @ 16:9. Wenn ich jetzt nochmal 10" draufrechne wär mir das eindeutig zuviel "Kopfbewegen".

Für mich persönlich hab ich den Sugarpoint bei ±32" @4k bei 125% Skalierung unter macOS gefunden.
Unscharfe Apps könnt ich bisher nicht feststellen und bin eigentlich extrem empfindlich bei solchen Sachen.

Nen kleiner allgemeiner Hinweis noch:
Apple/MacOS können teilweise Probleme mit Formaten außerhalb von 16:9 / 16:10 haben.
Kann z.B. selbst nen ganzes Buch schreiben über mein (ex) MBP 16" und dem 5k LG (21:9)
 
Zurück
Oben