HP W2228h 22" auf 1080p

McGillis

Lieutenant
Registriert
Aug. 2007
Beiträge
566
Heey,

Ich habe einen HP W2228h 22". Ich kann die Auflösung in Spielen sowie auch in Windows bis auf 1920 x 1080 stellen.
Ich überlege schon seit ein paar Tagen, jedoch bin ich noch auf keine Lösung gekommen : Warum kann ich einen 22" TFT bis auf 1920 x 1080 stellen (1080p)?


Wenn ich die 1080p Videos in 1680 x 1050 anschaue, habe ich oben und unten einen Balken. Wenn ich die 1080p Videos in 1920 x 1080 annschaue, habe ich keine Balken.

Ist das jetzt wirkliches 1080p oder wie?!

LG

Petermann24
 
die 1920 x 1080 pixel werden einfach skaliert, du hast deswegen aber nicht mehr pixel ;)
 
Petermann24 schrieb:
Warum kann ich einen 22" TFT bis auf 1920 x 1080 stellen (1080p)?

ich kann einen crt auch bis auf 2560x1600 stellen, angezeigt wird aber nur ein ausschnitt und um den rest vom bildschirm zu sehen wird das bild hin und her gescrollt. dass du etwas einstellen kannst, heißt noch lange nicht, dass es auch genau so angezeigt wird. ein 22"er hat eine max auflösung von 1680x1050, welche er auch anzeigen kann. sobald du sie höher stellst, passiert das oben beschriebene. das bild wird trotz allem in 1680x1050 angezeigt, aber du kannst den rest des bildes erscrollen.
Petermann24 schrieb:
Wenn ich die 1080p Videos in 1680 x 1050 anschaue, habe ich oben und unten einen Balken. Wenn ich die 1080p Videos in 1920 x 1080 annschaue, habe ich keine Balken.

Ist das jetzt wirkliches 1080p oder wie?!

das liegt daran, dass 1680x1050 eine auflösung im verhältnis 16:10 ist und 1920x1080 16:9. hd content wird meist in 16:9 ausgestrahlt, wodurch oben und unten auf 16:10 monitoren ein rand zu sehen ist. manch hd content wird aber auch in 2.35:1 hergestellt (müsste dem format im kino entsprechen), wodurch du selbst bei 16:9 einen rand hast (lord of war fällt mir da ein).

"wirkliches" 1080p ist alles >= 1920x1080.
 
So heyho, hab nochmal ne Frage :)

wenn ich mit meinem 22" auf 1920 x 1080 spiele und die Performance mit 1680 x 1050 vergleiche, merke ich bei meiner 88 GTX nur einen sehr kleinen Unterschied ( 2-4 FPS). Liegt das jetzt daran das er es nur skaliert oder ist der Unterschied genau der Gleiche wenn ich einen 24" mit 1920 x 1080 betreibe?

d.h. :

Würde es bei einem 24" auf 1920 x 1080 mehr Leistung verbrauchen wie bei einem 22" der auf 1920 x 1080 skaliert?

LG
 
Ich schätze nein, denn deine Graka gibt die 1920*1080 unskaliert aus, der Monitor übernimmt die Arbeit.
Es sei denn du hast die Skalierung durch die Graka Treiber gefordert.
 
Um zu testen, wie viel Performance die Grafikkarte bringt, sollte sich mein Freund einen 24 Zöller kaufen :)

Und auf die Frage: "Wie" kann ich ganz schnell sagen: Skalieren ist alles ;)

PS.:
Eigentlich schonmal den Thread durchgelesen? steht eigentlich alles oben :rolleyes:
 
Zuletzt bearbeitet:
Humptidumpti schrieb:
Ich frage mich gerade wie du 1920*1080 einstellen willst wenn dein Monitor nur 1680*1050 Pixel hat.

Die Frage hab ich oben gestellt un die wurde auch oben beantwortet :)

stell's dir vor, wie wenn du ein Bild z.B. in Windows öffnest, er skaliert es auf die Fenstergröße, d.h. er zieht
das Bild zusammen / macht es kleiner.

LG
 
Zuletzt bearbeitet:
Ich bin durchaus nicht doof und weis auch wie das ganze Funktioniert :rolleyes:

Nur wieso ist diese Auswahl überhaupt zu treffen da der Monitor über diese Auflösung nicht verfügt.

Da kann doch schon einiges nicht ganz richtig sein wenn man im Windows eine größere Auflösung auswählen kann als jene die der Monitor unterstützt bzw. überhaupt anzeigen kann.

Auch das zwischen den Auflösungen keine Performanceänderung zu messen ist spricht dafür das hier lediglich irgendwo ein Fehler aufgetaucht ist und die Auflösung nie erreicht wird.
 
Da kann doch schon einiges nicht ganz richtig sein wenn man im Windows eine größere Auflösung auswählen kann als jene die der Monitor unterstützt bzw. überhaupt anzeigen kann.
Nein... man kann einmal einstellen, dass der Nvidia Treiber auf 1920*1080 skaliert oder der Bildschirm.

Wenn man den Bildschirm das machen lässt, sollte es einen Performanceverlust geben. Dabei muss der Bildschirm (Der eine höhere Pixeldichte als Input hat als er üebrhaupt unterstützt) einfach
sage ich mal, jedes 3te Pixel weglassen. Das ist ein Feature, den ein paar Bildschirme haben, unteranderem auch der HP w2228h
Auch das zwischen den Auflösungen keine Performanceänderung zu messen ist spricht dafür das hier lediglich irgendwo ein Fehler aufgetaucht ist und die Auflösung nie erreicht wird.

Ganz einfach gesagt: Berechnet werden gleich viele Pixel, sie werden aber so zusammengeschoben, dass man genau den gleichen Bildschausschnitt sieht, als wäre es FullHD (80p). Dabei gibt es auch

nur einen minimalen Performanceverlust, da lediglich das skalieren nur ein bisschen Leistung kostet.

Ist deine Frage
Nur wieso ist diese Auswahl überhaupt zu treffen da der Monitor über diese Auflösung nicht verfügt.
Damit geklärt? :)

Nochmal zusammengefasst:

a) Die Grafikkarte skaliert (kein Performanceverlust)

b) der Bildschirm lässt ein paar Pixel einfach weg (Performanceverlust, da Graka trotzdem die vollen 1080p berechnen muss)
 
Zuletzt bearbeitet:
Also mein HP-Bildschirm (w2207h) hat das auch mit dem Input von FullHD-Material. Meine Vermutung ist, dass man dadurch ein Upscaling verhindern kann. Schließt man z.B. eine Spielekonsole an den einzigen digitalen Eingang (HDMI) an, dann muss man sich nicht mit der kleinen Standard-HD-Auflösung quälen und kann FullHD verwenden.

Ich persönlich spiele gerne in FullHD, selbst wenn es der Bildschirm nicht anzeigen kann. Mirror's Edge und Assassin's Creed erzwingen ja das 16:9-Seitenverhältnis, indem schwarze Balken eingefügt werden. Und das kann ich per FullHD umgehen. Ok, das Bild ist minimal verzerrt, aber nach wenigen Minuten hat man sich daran gewöhnt und merkt es nicht mehr. Als ich noch den 5:4-Bildschirm hatte war es extrem verzerrt, wenn ich 1280x720 eingestellt habe, um die Balken wegzubekommen...

Und es ist echt erstaunlich, wie wenig die PErformance im Vergleich zu 1680x1050 einbricht. Aber da machen sich die 768MB VRAM einer 8800GTX bemerkbar. Ich bin immer froh an den 1024MB meiner 8800GT. Erinnert ihr euch an den Performance-Report zu Racedriver Grid? Mein System ist in FullHD schneller, als das Testsystem mit dem 4GHz-QuadCore, da ich eben mehr Grafikspeicher habe. Und das bei einem DualCore mit 2,6 GHz.
 
Zuletzt bearbeitet:
Humptidumpti schrieb:
Ich bin durchaus nicht doof und weis auch wie das ganze Funktioniert :rolleyes:

-> warum fragste das dann oben? oder habe ich deine frage falsch verstanden?

Humptidumpti schrieb:
Da kann doch schon einiges nicht ganz richtig sein wenn man im Windows eine größere Auflösung auswählen kann als jene die der Monitor unterstützt bzw. überhaupt anzeigen kann.

-> das habe ich ja gefragt (siehe Threadname :D) und das wurde oben erläutert! hast du nich gesagt du weißt wie es funktioniert?

Humptidumpti schrieb:
Auch das zwischen den Auflösungen keine Performanceänderung zu messen ist spricht dafür das hier lediglich irgendwo ein Fehler aufgetaucht ist und die Auflösung nie erreicht wird.

-> Warum ein Fehler? :D also hast du's doch nicht kapiert? Ich habe nie geschrieben es sei keine Performanceänderung zu messen. Es war die ganze Zeit die Rede von 2-4 FPS.



________________________

Kingfisher OK schrieb:
b) der Bildschirm lässt ein paar Pixel einfach weg (Performanceverlust, da Graka trotzdem die vollen 80p berechnen muss)


-> 1080p meinst du, oder?

LG
 
Zuletzt bearbeitet:
Also der klare Beweis dafür, dass wirklich 1080p ausgegeben wird ist Fraps. Die Screenshots haben eine Auflösung von 1920x1080 Pixeln.
 
Ich meine von der Grafikkarte wird 1080p ausgegeben...

PS: Der Thread der großen Missverständnisse und des Aneinandervorbeiredens.
 
Zuletzt bearbeitet:
Zurück
Oben