Bildschirm mit hoher Qualität vom Iphone-Niveau // was macht die Augenfreundlichkeit aus, sind es nur die ppi?

Ioscius

Cadet 4th Year
Registriert
Aug. 2019
Beiträge
106
Hallo,

ich habe ein seltsames Problem. Seit über 10 Jahren strengt es mich relativ an, an Bildschirmen verschiedenster Art Texte zu lesen, bei Tageslicht ist es noch viel schlimmer – während ich mit einem Iphone stundenlang Texte lesen kann, auch bei hellstem Sonnenlicht. (Es geht nur ums Lesen, Spiele oder Filme gehen auch auf Bildschirmen problemlos). Nun habe ich erfahren, dass die Apple-Bildschirme relativ berühmt für hohe Qualität sind: https://de.wikipedia.org/wiki/Retina-Display

Gleichwohl habe ich hier einen „normalen“ PC (ASRock 450M Pro4, AMD Ryzen 5600G und zwei Jipraws DDR4 3200), den ich nicht mit einem iMac austauschen möchte. Zurück zum Bildschirm für meinen PC: Größe oder so kann ich nicht angeben, dass es für Word am besten ist. Ich glaube, ich bin da zwischen 10 und 20 Zoll sehr offen...

Den Monitor meines am Arbeitsplatz zur Verfügung gestellten Notebooks finde ich und Verwandte furchtbar (nach einhelliger Meinung sieht z.B. schon die Iconbeschriftung verpixelt aus( https://www.notebookcheck.com/Lenovo-ThinkPad-E15-G3-20YG004CGE.627480.0.html ), während der mit nur gerade um 20 ppi höhere Notebookbildschirm nach einhelliger Meinung ein viel schöneres, klareres Bild hat: https://www.notebookcheck.com/Fujitsu-LifeBook-U937.246158.0.html. Wir haben die Displays vergleichend gegenübergestellt. Wie kann das sein, liegt das wirklich an den 20 ppi?

Nun habe ich mit dem IPhone nur Erfahrung mit den 326 Pixel. Angenommen, ich besorge mir einmal ein Ipad, werden die 264 eines Ipad Pro ausreichend sein, oder ist da das Antireflex-Feature das entscheidende...

Und ich erlaube mir noch eine Fachfrage: Diese „Qualitäts“bezeichnungen Full HD, 4k usw. geben doch eigentlich „nur“ die absolute Pixelanzahl an, sind also eigentlich keine Auflösung/Qualitäts, = PPI-Angabe (dieses 4k dazu noch relativ, weil 4x so viele Pixel wie Full HD). Es kommt ja auf den Bezugsrahmen, die Bildschirmgröße an, richtig? Passt es dann letzten Endes doch, weil es dann jeweils doch noch so viele PPI sind – egal ob Full HD, 4k usw. –, dass bspw. ein HD+ immer mehr ppi hat als ein HD-Bildschirm, also die absolute Pixelanzahlunterschiede zwischen den Bezeichnungen so groß sind, dass ein evtl. größerer Bildschirm immer noch eine größere Punktdichte ergibt? Ihr versteht, worauf ich hinaus will, eig. müssten die Bezeichnungen durch die Punktdichte bestimmt werden, wie: HD immer so grob 100 ppi, HD+ 120 ppi usw.. Vielleicht tut es das auch...

Ich weiß, der Thread oszilliert hier zwischen Kaufberatung und Diskussion.. aber da ich den Fragebogen gelöscht habe, glaube ich, es bietet sich hier mehr die Diskussion an, in der Kaufberatung würde das wahrscheinlich geschlossen werden..

Viele Grüße
 
PPI=Pixel Per Inch (oder auch DPI, Dots per Inch)

Ohne die Displaygröße ins Verhältnis zur Auflösung zu setzen kann man das nicht ermitteln. Auch 320x200 können total töfte ppi haben, wenn das Display nur 0,5" hat (754.72 PPI).

https://www.sven.de/dpi/

Zum Rumspielen.

Glanz vs. Matt mag bei Dir vielleicht auch eine Rolle spielen. Oder vielleicht eher das Du ein Hochglanz-OLED mit Absurd-PPI vom Smartphone mit einem vergleichsweise Bauklotz-PPI TN-/IPS-Panel eines Notebooks vergleichst.

Auflösung, Pixeldichte, Beschichtung, Panel-Technologie, Wiederholraten sind alles wichtige Aspekte.

Letztlich musst Du es selbst ausprobieren und es Dir direkt anschauen was Dich anspricht. Das die Pixeldichte allein das Kriterium ist, wage ich zu bezweifeln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jlnprssnr, Ioscius, Rego und eine weitere Person
Ioscius schrieb:
dass ein evtl. größerer Bildschirm immer noch eine größere Punktdichte ergibt?
Nein. ein 65" 4k TV hat eine deutlich kleinere Pixeldichte als ein 32" 4k Monitor. Beide haben die gleiche Anzahl an Pixel, der TV muss die aber auf die ca. doppelte Fläche verteilen.
Hier liegt der Unterschied der Wahrnehmung bzw. dem Empfinden in erster Linie aber am Abstand zum Gerät.
Du sitzt in recht geringem Abstand vor dem Monitor, zum 65"er hast du aber 2-3 Meter Abstand. Dadurch fällt die geringere Pixeldichte des TVs nicht mehr wirklich ins Gewicht.


Deine beiden Notebooks haben das gleiche Panel (IPS), die gleiche Auflösung und (vermutlich) die gleiche Entfernung zu dir, aber unterschiedliche Größen (15,6" vs 13,3"). Da können 20 ppi durchaus einen sichtbaren Unterschied ergeben.

Grob gesagt: Je kleiner das Display und je höher die Auflösung, umso schärfer das Bild. (Siehe das Beispiel von @Cat Toaster)

Ich würde dir raten einfach mal zu nem Elektronikhändler zu gehen und dort aufgebaute Tablets / Notebooks aufzusuchen und dir dort die Displays anzuschauen, bezogen auf die verschiedenen Kombinationen aus Größe und Auflösung.
 
  • Gefällt mir
Reaktionen: Ioscius, Cat Toaster und species_0001
  • Gefällt mir
Reaktionen: Ioscius
Ioscius schrieb:
ich habe ein seltsames Problem. Seit über 10 Jahren strengt es mich relativ an, an Bildschirmen verschiedenster Art Texte zu lesen, bei Tageslicht ist es noch viel schlimmer – während ich mit einem Iphone stundenlang Texte lesen kann, auch bei hellstem Sonnenlicht.
Du kannst Smartphone und PC Bildschirm nicht vergleichen, die PPI sind nur einer von sehr vielen Unterschieden.

Das Wichtigste ist schon mal die Größe: Der PC Bildschirm belegt bei normalen Schreibtisch Abstand fast Dein gesamtes Gesichtsfeld. Auf eine riesige, relativ nahe Fläche ohne Tiefeninformation zu starren, ist für die Augen extrem anstrengend.
Darf ich fragen wie alt Du bist? Bereits ab Mitte 30 werden die Augenlinsen weniger elastisch, dadurch wird es immer anstrengend auf die Nähe zu fokussieren.

Der nächste Unterschied: Ein Smartphone kann man ähnlich wie ein Buch beliebig bewegen, dadurch ändert sich Sehabstand und Körperhaltung. Am Bildschirm sitzt man recht statisch, das strengt nicht nur die Augen an, es führt auch zu Muskelverspannungen.

Notebook Displays gibt es leider immer noch in mieser TN Ausführung, besonders bei Lenovo, wenn der Arbeitgeber zum billigsten Modell greift…
Da ist vor allem der mangelnde Kontrast das Problem.


Ein qualitativ hochwertigeres PC Display kann natürlich das „Erlebnis“ verbessern, aber das heißt nich, dass Deine Probleme vollständig verschwinden
 
  • Gefällt mir
Reaktionen: Ioscius
Ioscius schrieb:
Den Monitor meines am Arbeitsplatz zur Verfügung gestellten Notebooks finde ich und Verwandte furchtbar (nach einhelliger Meinung sieht z.B. schon die Iconbeschriftung verpixelt aus( https://www.notebookcheck.com/Lenovo-ThinkPad-E15-G3-20YG004CGE.627480.0.html ), während der mit nur gerade um 20 ppi höhere Notebookbildschirm nach einhelliger Meinung ein viel schöneres, klareres Bild hat:
Das Problem des Lenovo dürfte das körnige Coating sein. Im folgenden Test wird das auch negativ erwähnt und es ist auch in der Makroaufnahme des Displays zu sehen: NotebookCheck: Lenovo ThinkPad E15 G3 AMD im Test
 
  • Gefällt mir
Reaktionen: Ioscius
Ioscius schrieb:
Den Monitor meines am Arbeitsplatz zur Verfügung gestellten Notebooks finde ich und Verwandte furchtbar (nach einhelliger Meinung sieht z.B. schon die Iconbeschriftung verpixelt aus( https://www.notebookcheck.com/Lenovo-ThinkPad-E15-G3-20YG004CGE.627480.0.html ), während der mit nur gerade um 20 ppi höhere Notebookbildschirm nach einhelliger Meinung ein viel schöneres, klareres Bild hat: https://www.notebookcheck.com/Fujitsu-LifeBook-U937.246158.0.html. Wir haben die Displays vergleichend gegenübergestellt. Wie kann das sein, liegt das wirklich an den 20 ppi?

Ist das hier etwa der effekt, den du meinst?
[IMG]https://www.prad.de/wp-content/uploads/2021/08/refcoat.jpg[/IMG]

Matt ist nicht gleich Matt, es gibt unterschiedliches.
Mein alter Dell Monitor z.B. hat ein recht angenehmes mattes Panel. Mein Acer Gaming Monitor streut das Licht so, dass das Panel bei weißem Hintergrund leicht ölig aussieht, bzw es "glitzert" leicht.
Zum Glück so gering, dass es gerade noch so geht.

Das ist einer der Vorteile von nicht-matten Panels, bzw glänzenden Panels mit lediglich einer (mehr oder weniger guten) Anti-reflex beschichtung, wie z.B. bei Apple. Die Subpixel werden nicht gestreut und das Bild bleibt sehr clean.
Ioscius schrieb:
Nun habe ich mit dem IPhone nur Erfahrung mit den 326 Pixel. Angenommen, ich besorge mir einmal ein Ipad, werden die 264 eines Ipad Pro ausreichend sein, oder ist da das Antireflex-Feature das entscheidende...
Hatte ich bisher keine Probleme. Ein Tablet hält man auch ein wenig weiter weg als ein Smartphone.
Ioscius schrieb:
Und ich erlaube mir noch eine Fachfrage: Diese „Qualitäts“bezeichnungen Full HD, 4k usw. geben doch eigentlich „nur“ die absolute Pixelanzahl an, sind also eigentlich keine Auflösung/Qualitäts, = PPI-Angabe (dieses 4k dazu noch relativ, weil 4x so viele Pixel wie Full HD). Es kommt ja auf den Bezugsrahmen, die Bildschirmgröße an, richtig?
Richtig.
Ioscius schrieb:
Passt es dann letzten Endes doch, weil es dann jeweils doch noch so viele PPI sind – egal ob Full HD, 4k usw. –, dass bspw. ein HD+ immer mehr ppi hat als ein HD-Bildschirm, also die absolute Pixelanzahlunterschiede zwischen den Bezeichnungen so groß sind, dass ein evtl. größerer Bildschirm immer noch eine größere Punktdichte ergibt?
Nope, du kannst einen Full HD Monitor auch mit 32" Kaufen. Oder sogar 40" TVs mit Full HD, und auf den Schreibtisch stellen.
Das ist schon sehr grobkörnig.

Ioscius schrieb:
Ihr versteht, worauf ich hinaus will, eig. müssten die Bezeichnungen durch die Punktdichte bestimmt werden, wie: HD immer so grob 100 ppi, HD+ 120 ppi usw.. Vielleicht tut es das auch...
Das wäre keine gute Idee, auch wenn der Gedanke interessant ist.
Die Bezeichnungen müssen absolute Pixelangaben sein (also 4k UHD z.B. muss genau 3840x2160 Pixel haben, Full HD muss genau 1920x1080 Pixel haben). Das hängt mit dem Videomaterial zusammen. Wenn du Videomaterial erstellst, kannst du das nicht in ppi erstellen, sondern mit Bildpunkten.
In dem Fall müsste es dann andere bezeichnungen geben, um die absolute Pixelanzahl benennen zu können.

Zudem... Die effektive ppi, die du mit deinen Augen siehst, lässt sich auch simpel verändern.
Geh z.B. mal auf 5cm nah an deinen Fernseher ran, und du wirst selbst bei einem 4k TV (50-80"?) die einzelnen Pixel sehen können.
Nun geh 5 meter weg und guck auf den TV. Du erkennst keine Pixel mehr.


Apple greift deinen Gedanken aber halbwegs ähnlich auf mit ihrem "Retina" Marketingbegriff.
Mit Retina bezeichnet Apple immerhin alle Displays, die bei üblichem Nutzungsabstand eine so hohe Pixeldichte haben, dass du keine einzelnen Pixel mehr erkennst.
Bei Smartphones mit IPS sind das 326ppi, die OLED Modelle (andere subpixelstruktur) sind da etwas höher. Tablets 264 ppi, Macbooks, iMacs und andere Displays bei etwa 220 ppi - auch weil MacOS auf 220 ppi ausgelegt ist (doppelte Pixeldichte von 110, wie es früher war).
Deswegen nutzt Apple bei den aktuellen Macbooks so komplett krumme Auflösungen die vom Standard abweichen, um nahe bei 220~ ppi zu bleiben.
 
  • Gefällt mir
Reaktionen: TomH22 und Ioscius
Darkseth88 schrieb:
Full HD muss genau 1920x1080 Pixel haben
Das ist „fast“ richtig. Die Bezeichnungen SD, HD und Full HD bezeichnen ursprünglich nur die Zeilenanzahl (vertikale Auflösung):
SD 480 (USA) bzw. 576 (Europa), HD 720 und Full HD 1080 UHD 2160 Zeilen,
Die horizontale Auflösung hängt vom Seitenverhältnis ab, also z.B. 4:3 oder 16:9.
Da die Monitor Industrie hat FullHD mal irgendwann mal als Bezeichnung für 1920*1080 in 16:9 übernommen. Es gibt aber auch Auflösungen bei Monitoren die nichts mit den Videoformaten zu tun haben. Z.B. WQHD oder auch 16:10 oder Ultrawide Displays.
 
  • Gefällt mir
Reaktionen: Ioscius
Ich danke euch sehr für eure Antworten. Ich bin bald 32 Jahre alt.
Cool, dass ihr auch die beiden Monitore (lenovo und fujitsi) verglichen habt, einerseits scheinen beide ja zB. in Bezug auf IPS fast dieselben Eigenschaften zu haben, andererseits soll nur der Lenovobildschirm dieses TN haben.

Unter Berücksichtigung eurer profunden Erklärungen wundert es mich aber umso mehr, dass die 20 ppi wohl den Unterschied machen, weil dieser um 20 ppi schärfere Monitor ja der kleinere ist, wo ihr ja gesagt habt: je kleiner, desto näher ist man dran, umso höher sollte also die ppi sein.
 
TomH22 schrieb:
Das ist „fast“ richtig. Die Bezeichnungen SD, HD und Full HD bezeichnen ursprünglich nur die Zeilenanzahl (vertikale Auflösung):
SD 480 (USA) bzw. 576 (Europa), HD 720 und Full HD 1080 UHD 2160 Zeilen,
https://de.wikipedia.org/wiki/Full_HD
https://www.cyberport.de/techniklex... Full,Bildschirmauflösung 1.920 x 1.080 Pixel.
https://www.it-service24.com/lexikon/f/full-hd/
https://de.wikipedia.org/wiki/Bildauflösung

etc etc.
Full HD ist immer 1920x1080 mit 16:9. Wüsste nicht, wann das je anders war?!
Oder hast du eine Quelle parat, bei der Full HD eine andere horizontale Pixelzahl hat, und ebenfalls als "Full HD" bezeichnet wird?
TomH22 schrieb:
Die horizontale Auflösung hängt vom Seitenverhältnis ab, also z.B. 4:3 oder 16:9.
Um das Seitenverhältnis geht es nicht, zumal:
TomH22 schrieb:
Es gibt aber auch Auflösungen bei Monitoren die nichts mit den Videoformaten zu tun haben. Z.B. WQHD oder auch 16:10 oder Ultrawide Displays.
die haben auch ihre eigene bezeichnung.
1920x1200 ist z.B. kein Full HD, sondern WUXGA
2048x1080 ist auch kein Full HD sondern 2k DCI.
Auch 2560x1080 ist kein Full HD, sondern UWFHD.

WQHD ist z.B. auch immer 2560x1440.

Da ist das häufig recht unmissverständlich.
Mal abgesehen von unfähigen Marketingabteilungen bei Asus/Huawei und co, die 2560x1440 als 2k verkaufen, was faktisch einfach falsch ist.:freak:

Ausnahmen gibt's, z.B. bei 4k. Das kann 4k DCI, 4D UHD sein, oder auch ein 4:3 Format was als 4k bezeichnet wird.
Aber 4k habe ich auch nicht einer einzigen Auflösung zugeordnet, sondern speziell "4k UHD". Und eben FHD.
 
  • Gefällt mir
Reaktionen: Ioscius
Darkseth88 schrieb:
Oder hast du eine Quelle parat, bei der Full HD eine andere horizontale Pixelzahl hat, und ebenfalls als "Full HD" bezeichnet wird?
Ich musste tatsächlich eine Weile suchen, aber z.B. hier:
https://en.wikipedia.org/wiki/Blu-ray

Ziemlich weit unten in dem Artikel stehen die erlaubten Formate. Und da ist 1440*1080 dabei, das wurde früher auch teilweise bei SAT TV verwendet. Und das ist entweder 4:3 Material oder 16:9 anamorph. Wenn ich mich recht erinnere, gab es auch HDTV 720p noch in analoger Technik (wo es ja keine definierte horizontale Auflösung in Pixel gibt). Allerdings haben Blue-Rays kein „Full HD“ Logo.

Allerdings ist da heute alles weitgehend obsolet, und in der Tat wird heute FullHD immer mit 1920x1080 gleichgesetzt, z.B. auch in den Richtlinien der IBU.

Aber egal, Deine zentrale Aussage auf die Frage des TE war ja, das Full HD eben keine Bezeichnung für die Pixeldichte ist, sondern für die absolute Auflösung in Pixeln.
Bekannt wurde der Begriff ja zunächst Logo bei Fernsehern, in Abgrenzung zu „HD Ready„ und „HD Ready 1080p“

Darkseth88 schrieb:
die haben auch ihre eigene bezeichnung.
1920x1200 ist z.B. kein Full HD, sondern WUXGA
2048x1080 ist auch kein Full HD sondern 2k DCI.
Auch 2560x1080 ist kein Full HD, sondern UWFHD.

WQHD ist z.B. auch immer 2560x1440.
Ja, danke fürs aufzählen, ich war vorhin noch auf einem Autobahn-Rasthof und zu faul die ganzen Varianten rauszusuchen, merken kann ich mir die nicht alle 😉.
Vielleicht erwähnenswert ist, das bei WUXGA 16:9 Videos eben oben und unten jeweils einen schmalen schwarzen Balken haben, weil der Screen im Format 16:10 ist. Dafür eignet sich dieses Verhältnis besser für Office Dokumente.
 
  • Gefällt mir
Reaktionen: Ioscius und Darkseth88
Habt alle nochmal vielen Dank für eure profunden Erklärungen. Wahrscheinlich macht es Sinn, sich das auch in einem Laden anzuschauen, aber mit ein bisschen Vorwissen, vielleicht auch Empfehlungen, ist es sicherlich besser, in einen Laden zu gehen, Media Markt, Saturn… Deswegen werde ich mir ein mal einen entsprechenden Thread im anderen Subforum erlauben ;)
 
Hallo an alle,

ich habe mich in den letzten 10 Tagen mit fast nichts anderem als Auflösung, Bildschirmgröße, Panel, Anschluss usw. beschäftigt. Ich könnte von gewonnen Erkenntnissen und dadurch entstandenen Fragen berichten, doch zunächst ganz praktisch, weil ich irgendwann auch mal eine Entscheidung treffen muss:

Da ich durch Recherchieren mehr und mehr herausbekomme, dass ein 4k-Bildschirm @60Hz mit meinem ASRock B450M Pro4 + AMD Ryzen 5 5600G nicht möglich ist, sondern nur mit separat gekaufter GraKA möglich wäre (weil jetzt noch ne RX6600 kaufen, dann nicht zu wissen, ob es wegen der Watt langt, das will ich nicht), möchte ich zu einem WQHD greifen: https://www.benq.eu/de-de/studio/designer/pd2506q/specifications.html Es ist immer noch kompliziert, weil hier HDMI 2.0 steht und ASROck offen lässt, ob es nur bis HDMI Ver. 1.4 geht https://www.asrock.com/mb/AMD/B450M Pro4/index.asp#Specification .
Ich habe den BenQ-Support angerufen, eine eher hilflos wirkende Frau hat sich kurz beraten, nachdem ich ihr sagte, dass ich 2.0 auch in den Bildschirm-Daten gelesen habe, aber WQHD @60 Hz ja mit 1.4 klappen müsste. Nach kurzer Besprechung sagte sie mir, es dürfte keine Probleme geben.

Ich tendiere nun stark zu diesem bereits genannten, den mir auch der brilliante madmax empfohlen hat. Jetzt bin ich noch zusätzlich auf diese Technologie gestoßen: https://www.benq.eu/de-de/campaign/benq-eye-care-technology.html gestoßen. Meint ihr, das bringt wirklich was, und ich sollte auch so einen doch deutlich günstigeren Bildschirm in Betracht ziehen (https://www.benq.eu/de-de/monitor/business/bl2420pt.html ), oder ist das einfach nur so ein Marketingbegriff und die Technologie ist auch in dem PD2506Q drin?

Vielen Dank!
 
Ioscius schrieb:
Da ich durch Recherchieren mehr und mehr herausbekomme, dass ein 4k-Bildschirm @60Hz mit meinem ASRock B450M Pro4 + AMD Ryzen 5 5600G nicht möglich ist,
Da es eine Einschränkung des Mainboards (nur veraltete HDMi und DVI Ports) ist und nicht der CPU, kannst Du auch einfach das Mainboard tauschen.
 
  • Gefällt mir
Reaktionen: Ioscius
Da fällt mir eine Fachfrage zu den Auflösungen ein: Warum wird denn Skalieren (darunter verstehe ich das künstliche Vergrößern, bei dem wohl mehrere "native Pixel" zu einem verbunden werden) ab 4k notwendig? Wenn die Auflösungen größer werden, freut man sich, und die Darstellungen wurden ja auch nicht mit größeren Auflösungen niedriger, sondern die Filme und Programme werden entsprechend angepasst.. zumindest fällt mir nicht auf, dass in den letzten Jahrzehnten irgendwas kleiner wurde, weil eine so hohe Punktdichte erzielt werden kann.
Warum soll das beim PC anders sein, warum wird ausgerechnet die Schrift dadurch kleiner, die ja auch irgendwie losgelöst sein soll von den Pixeln, Vektor.. da kenne ich mich nicht aus, auf jeden Fall hat ja dann die (Pixel-)Auflösung sehr viel mit der Schriftdarstellung zu tun.
Es ist ein komisches Gefühl die Vorstellung, alles vergrößert sich/bessere Punktdichte der Grafiken, nur die Schrift wird separat kleiner angezeigt. Schaffen die Fonts und Office kein 4k? - Es interessiert mich als Fachfrage.

(Nach meiner Laienvorstellung ist das Auswählen einer niedrigeren Bildschirmauflösung als der Bildschirm kann dann wahrscheinlich nichts anderes als Skalieren: Verschiedene Pixel werden zusammengenommen.)
 
Zuletzt bearbeitet: (Anliegen hat sich geändert)
Ioscius schrieb:
Da fällt mir eine Fachfrage zu den Auflösungen ein: Warum wird denn Skalieren (darunter verstehe ich das künstliche Vergrößern, bei dem wohl mehrere "native Pixel" zu einem verbunden werden) ab 4k notwendig?
Die Skalierung hat nicht unbedingt etwas mit 4K zu tun, sondern mit den PPI. So skaliertet man üblicherweise auch Full HD auf Laptop Displays.

Die Skalierung hängt damit zusammen, das Windows Programme “historisch“ für ca. 75-100 ppi ausgelegt sind. Es gibt in klassischen Windows GUIs viele Elemente, die eine feste Pixelgröße haben, z.B. die Icons, bzw. auch die Bitmaps von grafischen Buttons wie etwa in vielen Toolbars.

Schriften sind bei Windows schon seit vielen Jahren „TrueType“ Vektorfonts und können auf beliebige Größen skaliert werden.
Aber das nützt ja wenig, wenn die Schrift zusammen mit den Pixel-Elementen dargestellt werden soll. Windows löst das Problem, indem es mit festen Umrechnungsfaktoren zwischen virtuellen Koordinaten ( sogenannten Dialog Units) und den Pixel Koordinaten arbeitet. Nur so bleibt das Verhältnis zwischen Pixel- unf Vektor-Elementen gleich. Damit würden aber auf HiDPI Displays viele GUI Elemente zu klein erscheinen. Da kommt die Skalierung ins Spiel, sie gibt einfach an, wie alles vergrößert werden soll. Moderne Programme, die „HiDPI Aware“ sind, bekommen die „echte“ Auflösung und Skalierung mitgeteilt, und können ihre Fensterinhalt dann passend rendern. Da erscheint dann alles ohne Qualitätsverlust in der richtigen Größe. Schriften sind dann auch entsprechend hochauflösend gerendert, und erscheinen dadurch auch scharf und ohne Pixel.
Programme, die nicht „Hi DPI“ aware sind, bekommen einen niedrig aufgelösten Bildschirm „vorgegaukelt“, in den sie rendern. Das Ergebnis wird dann von Windows hochskaliert, und das sieht bei krummen Faktoren ggf. hässlich aus.

Die meisten Programme sind aber mittlerweile HiDPI „aware“ und funktionieren ohne Qualitätsprobleme. Manche Programme sind auch nur teilweise dazu in der Lage, sodass z.B. einzelne Dialoge skaliert angezeigt werden. Microsoft Office kommt mittlerweile auch größtenteils mit HiDPI klar.
 
  • Gefällt mir
Reaktionen: Ioscius und species_0001
Noch zur Ergänzung dieser Link:
https://learn.microsoft.com/en-us/w...pi-desktop-application-development-on-windows

Ist eventuell nur teilweise verständlich, wenn man kein Windows Entwickler ist.
Der Text erwähnt noch ein Thema, das ich oben garnicht berücksichtigt habe:
Die Auflösung und Skalierung kann im Betrieb wechseln, wenn ein Fenster zwischen verschiedenen Monitoren umhergeschoben wird.

Deswegen gibt es bei Windows auch das Konzept des „Hauptbildschirms“. Der wird für „DPI unaware“ „System DPI aware“ Anwendungen als Referenz genutzt.
 
  • Gefällt mir
Reaktionen: Ioscius
wow, dann fasse ich es mal laienhaft so zusammen, dass verschiedene Windows-Grafiken/ -GUIs für eine bestimmte Punktdichte ausgelegt sind. In gewisser Weise steht es dem Grundsatz entgegen, dass Spiele/Grafiken/Filme nicht in einer als abstrakt bezeichneten Punktdichte, sondern in Auflösungen erstellt werden. Aber vielleicht habe ich auch einen Denkfehler:
Bei einem Notebook wird ja auch bei FHD skaliert, aufgrund der geringeren Bildschirmdigonale. Bei 16 Zoll vllt. so 125 oder 150 %. Also wäre es auch korrekt zu sagen, die Windows-GUI war für ne bestimmte Auflösung, sagen wir, die VGA-Auflösung konzipiert, und aus welchem Grund auch immer kann Windows diese Elemente nicht „vergrößern, also im Sinne einer qualitativen, Auflösungsvergrößerung, sondern bloß einer künstlichen, der Skalierung. Und wenn die Pixelgröße — entweder durch eine hohe Auflösung, oder durch eine niedrige Bildschirmgröße — verkleinert wird, im schlimmsten Falle , beides zusammen, dann gibt es eben eine zu kleine Schrift.
Und so formuliert ergibt dein Satz, „konzipiert für eine bestimmte ppi“, verstanden als bestimmte Kombinationen von Auflösung und Bildschirmgröße, Sinn.

Aber entsprechend kann ich ja auch Firefox beim Browsern oder in Word beim Zoomen vergrößern, und hätte dann meine WQHD- oder 4K-Schriftqualität, je nach Bildschirm.

Ich hoffe, hier nicht den Bogen zu überspannen, aber nach meiner Vorstellung ist es nicht möglich, dass ein SD/4:3-/576i-Fernseher einen 720p-Film wiedergibt (oder höchstens, indem eben nur ein Teil des Bildschirms gezeigt wird).
Zur Kompatibilität eines 720p-Filmes müssten doch die horizontalen HD-1280 auf vertikales SDTV-720 downgeauflöst werden; vertikale proportional auf 405, der Rest schwarze Letterbox.
Für mich ist also Skalieren das Gegenteil, das Erstellen einer höheren Auflösung, durch niedrigere Punktdichte.
 
Ioscius schrieb:
Also wäre es auch korrekt zu sagen, die Windows-GUI war für ne bestimmte Auflösung, sagen wir, die VGA-Auflösung konzipiert, und aus welchem Grund auch immer kann Windows diese Elemente nicht „vergrößern, also im Sinne einer qualitativen, Auflösungsvergrößerung, sondern bloß einer künstlichen, der Skalierung
Nein, das stimmt so nicht. Windows 1.0 erschien ca. 1985, und war schon damals nicht auf eine bestimme Auflösung festgelegt. VGA gab es da z.B. noch gar nicht, damals übliche waren 640x200 (CGA) und 640x350 (EGA). Und man hat schon damals das Ziel gehabt, das GUI Anwendungen auf verschiedenen Auflösungen funktionieren. Da aber die damaligen Rechner sehr leistungsschwach waren, konnte man nur Bitmaps Fonts verwenden. Windows hatte (und hat im Prinzip heute noch...) eine sogenannte "Systemschriftart", die hat eine feste Größe (bzw. es gab schon damals 2-3 verschiedene Größen für verschieden Bildschirmauflösungen, aber eben nicht mehr). Dinge wie Menüs, Dialogboxen, usw. sind um diese Systemschriftart herum organisiert.
Vereinfacht gesagt, wird die Größe von Dialogelementen in "Dialog Units" angegeben, und die werden von Windows so auf Pixel umgerechnet, das sie zur Systemschriftart passen. Sonst wäre nicht sichergestellt, das z.B die Beschriftung eines Buttons in den Button hineinpasst.

Dieses Konzept ist grundsätzlich auf jede beliebige Auflösung und Pixeldichte skalierbar. Allerdings gingen ältere Windows Versionen davon aus, dass sich Auflösung und Pixeldichte des Bildschirms nicht im laufenden Betrieb ändert, und schon gar nicht davon, dass ein Fenster von einem Bildschirm mit 100DPI auf einen mit 200DPI verschoben wird. Es gab im Jahr 1985 - und auch in den 15 Jahren danach - noch gar keine Hardware die so etwas unterstütze...


Ab Windows 8.1 hat Microsoft angefangen Mechanismen für diese Situationen in Windows einzubauen. Programme müssen aber aktiv mithelfen, solche Mixed-DPI Szenarien zu unterstützen. Wenn sie z.B auf einen anderen Bildschirm verschoben werden, müssen sie ggf. ihren ganzen Fensterinhalt neu berechnen und zeichnen. Für Programme die das nicht können, nutzt Windows eben die DPI des "Hauptbildschirms. Dem Programm wird vorgespiegelt, das es immer auf einem Bildschirm mit dieser DPI läuft, und wenn es verschoben wird, dann skaliert Windows das Fenster nachdem das Programm seinen Inhalt gezeichnet hat. Dann entstehen ggf. diese unscharfen Darstellungen.

Jetzt gibt es aber auch Programme, die selbst dann unscharf erscheinen, wenn sie auf dem Hauptbildschirm dargestellt werden, wenn dieser einen Skalierungsfaktor von <>100% hat. Das hat damit zu tun, das es viele Programme gibt, die fest von einer Pixeldichte von ~96 DPI ausgehen und Elemente mit absoluten Pixelgrößen (z.B. Icon Bitmaps) enthalten. Diese würden auf einem HiDPI Bildschirm entweder unbenutzbar klein erscheinen, oder das Verhältnis zwischen Bitmaps und Systemschrift würde nicht stimmen. Daher spiegelt Windows komplett "DPI Unware" Programmen einen 96 DPI Bildschirm vor und skaliert ihn.
Solche Programme sind zum Glück mittlerweile eher selten.
Programme dies mindestens "System DPI aware" sind, funktionieren korrekt auf dem "Hauptbildschirm", und damit auch immer in einem Ein-Monitor Setup.

BTW: Alles was Browser-basiert ist, und damit auch viele "moderne" Programme die intern die Chromium Engine zur Ausgabe nutzen (etwa Teams, Visual Studio Code, usw.) ist von diesen Problemen überhaupt nicht betroffen, da Chromium eine eigene Rendering Engine enthält, die komplett vektorbasiert.


Ioscius schrieb:
In gewisser Weise steht es dem Grundsatz entgegen, dass Spiele/Grafiken/Filme nicht in einer als abstrakt bezeichneten Punktdichte, sondern in Auflösungen erstellt werden.
Die Wirklichkeit ist auch hier wieder komplex. 3D Grafik Spiele sind z.B. grundsätzlich erst mal auflösungsunabhängig, da Vektorbasiert. Aber für 3D Grafik braucht man Texturen, und solange man die Texturen nicht algorithmisch berechnet (was nur teilweise möglich ist) liegen die Texturen auch in verschiedenen Auflösungen vor. Filme hingehen sind prinzipbedingt Bitmaps, daher liegt ein Film immer in einer bestimmen Auflösung vor.


Ioscius schrieb:
Ich hoffe, hier nicht den Bogen zu überspannen, aber nach meiner Vorstellung ist es nicht möglich, dass ein SD/4:3-/576i-Fernseher einen 720p-Film wiedergibt (oder höchstens, indem eben nur ein Teil des Bildschirms gezeigt wird).
Das sind zwei verschiedene Dinge die Du mischst: Auflösung und Aspekt-Ratio.
Das Seitenverhältnis eines Bildschirms ist nun mal nicht veränderbar (solange Du keine Säge ansetzt ;) ).
Deswegen kann man natürlich einen 4:3 Film nicht auf einem 16:9 Display darstellen ohne Schwarze Balken links und rechts zu haben. 16:9 auf 4:3 kann man entweder mit Balken unten/oben darstellen oder "zoom & pan" verwenden. Das ist ein Verfahren, das Fernsehsender früher gerne eingesetzt haben, um Breitbildmaterial ohne Balken auf 4:3 darzustellen.
Es wird auch heute noch teilweise eingesetzt um 21:9 oder noch breite Bilder ohne riesige Balken auf 16:9 umzurechnen.

Bei gleicher Aspekt Ratio kann man aber schon alle Auflösungen ineinander umrechnen auch krumme, also z.B. 576 Zeilen Material auf VGA runterrechnen.

Ioscius schrieb:
Für mich ist also Skalieren das Gegenteil, das Erstellen einer höheren Auflösung, durch niedrigere Punktdichte.
Die Formulierung "höhere Auflösung durch niedrige Punktdichte" verstehe ich nicht.
Unabhängig davon: Im Bereich der Computergrafik, bezeichnet Skalierung die Anpassung der Größe sowohl nach oben, wie nach unten.
Bei der technischen Realisierung von Skalierung, gibt es auch verschieden aufwändige Verfahren, die eine direkte Auswirkung auf die Bildqualität haben. Siehe auch: https://de.wikipedia.org/wiki/Skalierung_(Computergrafik)
 
  • Gefällt mir
Reaktionen: species_0001
TomH22 schrieb:
Das sind zwei verschiedene Dinge die Du mischst: Auflösung und Aspekt-Ratio.
Das Seitenverhältnis eines Bildschirms ist nun mal nicht veränderbar (solange Du keine Säge ansetzt ;) ).
Deswegen kann man natürlich einen 4:3 Film nicht auf einem 16:9 Display darstellen ohne Schwarze Balken links und rechts zu haben. 16:9 auf 4:3 kann man entweder mit Balken unten/oben darstellen oder "zoom & pan" verwenden. Das ist ein Verfahren, das Fernsehsender früher gerne eingesetzt haben, um Breitbildmaterial ohne Balken auf 4:3 darzustellen.
Es wird auch heute noch teilweise eingesetzt um 21:9 oder noch breite Bilder ohne riesige Balken auf 16:9 umzurechnen.

Bei gleicher Aspekt Ratio kann man aber schon alle Auflösungen ineinander umrechnen auch krumme, also z.B. 576 Zeilen Material auf VGA runterrechnen.

Wow, wenn ich das lese, fühle ich mich richtig dumm. Ich denke, du hast in der Richtung etwas studiert, oder? Ich meinte mit „hoher Auflösung durch niedrige Punktdichte“ wahrscheinlich eher, dass eine hohe Qualität mit einer kleinen Punktgröße einhergeht, die ja durch eine möglichst hohe Auflösung bzw. einen kleinen Bildschirm erreicht werden kann. Aber ich denke, als Laie muss ich mal nicht mehr wissen. - Ich wollte die beiden Dinge nicht vermischen, nur die Änderung des Auflösungsstandards ging meines Wissens ja mit der Änderung des Seitenverhältnisstandards, zumindest was das TV angeht, einher: SD/PAL (4:3) zu HD, 720P (16:9). Sicherlich ist das sehr pauschal, aber ich finde, es trifft den Kern: Ich kann mir plastisch gut vorstellen, wie ein SD-Film auf einem HD-Fernseher „vergrößert“ wird und dabei in der Vertikalen anstößt (links und Rechts Ränder). Anders bei einem HD-Film am alten SD/4:3-Fernseher: Bild wird verkleinert, bis an der Horizontalen passt (oben und unten Ränder). Ich frage mich nur, wie das genau vonstatten geht: Muss der 4:3-Film entsprechend bearbeitet werden, bevor er an einem HD-Fernseher abgespielt wird (weil gäbe es ja auch oben und unten Ränder (links rechts noch größer), weil die Auflösung ja niedriger ist. Die Auflösung wird künstlich vergrößert/hochgerechnet wird, eine Art Skalierung: Es ist dann keine wirkliche 720p-Qualität, sondern die Pixel werden halt verdoppelt.
Anders herum ein HD-Film auf einem 4:3-Fernseher: Eigentlich dürfte es nicht nur links/rechts Ränder geben, sondern aufgrund der höheren Auflösung müsste man nur einen Bildausschnitt des Filmes sehen.
Meine Beispiele fußen auf der Annahme, dass die 4:3-Fernseher eine Auflösung von 720x576 haben (ob jetzt eig 5:4, ob das keine quadratischen Pixel usw. sind, all das muss ich ja nicht verstehen), sondern es ging ja ganz bildlich um die Vorstellung: Einmal hat der Film mehr Bildpunkte, als der Bildschirm anzeigen kann, ein andermal gibt es eigentlich auch in der Horizontalen Platz.

Aber ich muss das nicht so genau verstehen, mich würde zum Schluss noch etwas ganz Praktisches interessieren: Ich habe auf Empfehlung auch eines Experten dieses Forums den erwähnten BenQ PD2506Q gekauft (WQHD, 25“). Nach dem Experten sollte es „ungezoomed„ funktionieren, womit er wohl keine Skalierung meinte. Nun war die 125%-Skalierung voreingestellt. Meine Frage ist: Ist die Bild-/ Schriftqualität dann ähnlich schlecht, wie wenn ich die (native) Auflösung des Bildschirms verändere (125 % hinkt jetzt ein bisschen, weil 1440%1,25 = 1152), oder bezieht sich das nur auf die Schrift und der Rest bleibt in gleicher Qualität? So müsste es ja sein, so habe ich es verstanden.
Das heißt, wenn ich die Standardauflösung 1440 belasse und die empfohlene Skalierung von 125 % lasse, habe ich dann die gleiche Qualität, wie wenn ich die Skalierung auf 100 Prozent habe, oder ist es eine andere? (Auch bei 125 % habe vergrößere ich stark in Word, aber das müsst eben allem Wissen von Vektorgrafiken ja kein Problem sein, die Qualität müsste gleich bleiben).
Ich bin nur durch eine Sache verwirrt: Soweit ich mich entsinne, hat der User hier gemeint, dass 4K 27“ keinen Sinn ergibt, weil man dann auf 200 % skalieren müsste, was FHD gleichkäme und somit witzlos sei. Wenn auch die Qualität des Schriftbildes der Schrift durch die Skalierung abnähme, wäre es ein Problem.

Manchmal denke ich, ich schreibe zu viel, ich will aber auch deutlich meine Frage machen. Nichtsdestotrotz nochmal in kurz: Kann mein Schriftbild meines WQHD-Monitors besser werden, wenn ich die 125 %-Skalierung entferne? (dann gäbe es bei Word wohl + 300 %).

Hier wird die Skalierung auch angesprochen:
https://www.prad.de/testberichte/test-benq-pd2506q-gelungener-auftritt-fuer-grafiker/2/#Bedienung
https://www.prad.de/testberichte/te...gener-auftritt-fuer-grafiker/4/#Interpolation
 
Zuletzt bearbeitet:
Zurück
Oben