1920x1080 ist 1080p. für meine glotze und meinen rechner leider nicht!

Registriert
Juli 2012
Beiträge
1
hallo,

habe meinen rechner via dvi-d/hdmi adapter an den hdmi eingang meines fernsehers angeschlossen. die grafik meines rechner ist onboard. ist ne amd760g. der fernseher ist ein lg 32ld550. mir ist aufgefallen, das ich bei der grafikeinstellung 1920x1080 @ 60 hertz vom fernseher als eingangsignal vom tv on screen display 1920x1080 angezeigt bekomme. bei der grafikeinstellung 1920x1080@ 50hz. bekomme ich aber 1080p (im osd)angezeigt. da ist das bild(eher der text) dann etwas verschwommener, aber die farben sind besser. vor allem bei spielen. da is es noch komplizierter,. ich spiele oblivion normalerweise auf 1280x720. wird auch genauso angezeigt. nur mit meiner neuen einstgellung wird jetzt auch da stattdessen 720p angezeigt. sieht auch besser aus als die einstellung wo die glotze sonst nur die kompleete auflösung anzeigt, statt 1080p oder 720p. nur ist die grafik langsamer geworden. woran liegt das alles.

ich möchte jetzt wissen, welche einstellung mehr zu empfehlen ist. warum meine glotze bei 60hz 1920x1080 anzeigt und bei 50hz 1080p. ujnd wieso das auch bis in die spiele übernommen wird. ich habe eigentlich eingestellt, das die spiele ihre eigenen videomodis festsetzen.

vor allem verstehe ich nicht das die spiele in dem 50hz modus (720p statt 1280x720) ruckeln. die framerate scheint deutlich niedriger zu sein.

ich weiss das 1280x720 das gleiche sind wie 720p bzw. das 1920x1080 eigentlich 1080p sind. aber mein fernseher macht da einen unterschied, und die spiele sind ja auch langsamer. das es sich um 720i handelt kann auch nicht sein, denn das würd mir die glotze auch anzeigen.

vielen vielen dank, schon allein für´s lesen :-)
 
50Hz sollten hier 50fps sein. Zusammen mit der Reaktionsgeschwindigkeit des Panels könnte es bei bestimmten Spielen etwas zu wenig sein und deswegen eher zum Ruckeln neigen als 60Hz.

Möglicherweise kennzeichnet das Gerät glatt 60Hz zudem nicht als gültiges 1080p, sondern nur 59,94Hz und zeigt deswegen eine andere Bezeichnung.

1920x1080 ist eine Auflösung, 1080p dagegen verschiedene HDTV-Formate. Gleich ist es also nicht.
 
Zuletzt bearbeitet:
Ist ein bißchen knifflig. Stell doch mal rein was um dein 760g herum alles eingebaut ist.
(Vor allem Betriebssystem, unter XP/Vista gibts da eher mal Probleme)

Könnte ein einfaches Treiber/Einstell Problem sein, seitens Fernseher oder PC.

Soweit ich weiß fehlt dem 760g im vergleich zum 780´er der Videobeschleuniger. Könnte mit der Framerate(wenn du das mit Geschwindigkeit gemeint hast) zusammenhängen.
 
Gegen das ruckeln hilft möglicherweise das aktivieren von VSync. Die anzeige von Auflösung und 1080p/720p liegt möglicherweise daran das das Eingangssignal einmal als pc erkannt wirt und einmal nicht. Im PC modus werden meistens alle Bildverbesserungen abgeschaltet um die Latenz zu senken.
 
1280*720 und 720p ist das Selbe1 Die ÖR in Deutscland strahlen ihre HD-Sender in 720p mit der Auflösung von 12080*720. wegen der Übertragungsrate. 1920*1080 ist die Bluray-HD-Auflösung für Europa. Dafür gibt es 2 Verfahren 1080i(Halbzeilenaufbau: Erst alle ungeraden Zeilen und dann die Geraden) und1080p(Vollzeilenaufbau alle Zeilen auf einmal) ich vermute das dein Goltze bei 60hz das 1080i-verfahren verwendet und 50hz hat er genügend Grafikpower für das Vollzeilenverfahren 1080p. Stellung die Auflösung deiner Glotze für den HDMI-eingang auf "AUTO" dann pass die Glotze sich dem Eingangssignal an. Übrigend können die mesiten DVI-HDMi-Adapter kein 1080P
 
du spielst Oblivion mit ner ATI Radeon HD 3000 igp?

Diese ist vermutl. zu schwach - da du eigtl mindestens ne X800/6800GT bräuchtest, die mehr als 4x so schnell ist...
 
Zuletzt bearbeitet:
Tag,
jou daher auch low Fps und somit ruckel ruckel, da zu schwach auf der Brust.

Rucon schrieb:
Übrigend können die mesiten DVI-HDMi-Adapter kein 1080P
ehm ja... soweit stimmts
Also TE, du weisst was zu tun ist?


Ansonsten viel Erfolg - wofür auch immer.
Gruß
 
Zurück
Oben