Verschlimmbesserungen Videoqualität

tox1c90

Lt. Commander Pro
Registriert
März 2007
Beiträge
1.220
Hallo!

Bin gerade nach vielen Jahren NVidia-Grafikkarten auf eine HD 7870 umgestiegen. Ein Problem habe ich nicht wirklich, aber ich war bisschen erstaunt wegen des sehr merkwürdigen Bildes beim Abspielen von DVDs und HD-Videodateien. Erstere waren irgendwie total fleckig und hatten leicht nachziehende Konturen und letztere waren massiv weichgezeichnet, sodass die Vorteile der FullHD-Auflösung völlig weggewischt waren.

Ein Blick in den Treiber offenbarte dann die Ursache allen Übels, so ziemlich alle "Bildverbesserungen", zu finden unter Video->Farbe und Video->Qualität im CCC sind standardmäßig eingeschaltet.

Total konträr zu den Default-Einstellungen bei NVidia, denn die sind standardmäßig immer so, dass das Videomaterial nicht angetastet sondern 1:1 ausgegeben wird (was imho sehr viel sinnvoller ist als Standardeinstellung).

Daher wollte ich jetzt mal mehr interessehalber fragen: Sieht das mit den Defaulteinstellungen bei irgendjemandem von euch tatsächlich besser aus als ohne diese "Verbesserungen"? Oder kann man die irgendwie so einstellen, dass DVDs wirklich besser upscaled werden statt total überzeichnet? Wenn ich im CCC unter Video alles ausmache bis auf das automatische Deinterlacing, habe ich wieder ein vernünftiges und gutes Bild.

Ich war ein wenig schockiert, dass AMD ab Werk gleich sämtliche Rauschfilter aktiviert sowie Deblocking und diverse "Farboptimierungen", obwohl sogar in der Hilfe drinsteht, dass das auch kontraproduktiv sein kann.
Der 0815-User vermutet doch sowas gar nicht, sondern wundert sich nur über die miserable Bildqualität in Videos!? :confused_alt:
 
Zuletzt bearbeitet:
Naja der 0815 user hat eh nen 100€ TFT und hat 0 ansprüche an der bild qualität, daher ja ansich ok die grundeinstellung
 
Ich muss jetzt mal blöd fragen, denn ich wollte auch mal wieder eine AMD probieren.
Ist das Bild denn nach deaktivieren der Filter wie erwartet?

Wenn ja, ist das doch eigentlich egal.
Wenn man im Gforce FXAA aktiviert hat man ja teils ähnliche Probleme.
Wie sinnvoll das als Grundeinstellung ist, lässt sich wohl drüber streiten.
Das sowas bei HD ehr störend als nützlich ist, ist ja bekannt.
Einige Player schlagen bei HD material auch automatisch vor, Filter vorübergehend zu deaktivieren.
 
Also was ich meine bezieht sich nur auf die DVD-, Video- und Bluray-Wiedergabe, mit Spielen hat das ja nix zu tun (weil du FXAA erwähnst).

Ansonsten ja, wenn man das alles deaktiviert, sieht die DVD auch so aus, wie sie wirklich produziert wurde. Dann macht die GPU ja nix anderes als das MPEG2 bzw. bei Bluray H.264 zu decodieren und auszugeben.

Sobald man Rauschfilter oder ähnliches einschaltet, muss die GPU in den 3D-Takt hochtakten (braucht dann auch erheblich mehr Strom) und das Bild passiert die Shader.
Dann kriegt man trotz Bluray oder sehr gutem DVD-Bild einen Pixelmatsch serviert.

Daher finde ich das so katastrophal und frage mich, was die Entwickler bei AMD nur geritten hat, das als Standard einzustellen. Ein 1080p-Bildmaterial braucht weder einen Rauschfilter, noch eine Farboptimierung für "Lebendigere Farben", noch ein Deblocking, noch einen dynamischen Kontrast der alle paar Sekunden das Bild aufblitzen lässt. Und Kantenhervorhebung bzw. Bildschärfung braucht man bei 1080p-Material, das man auf einem FullHD-TFT ausgeben will, auch nicht. Da ist pixelgenaue Wiedergabe des Quellmaterials das Optimum, und trotzdem pfuscht das Ding per Default massiv dran rum.

Dann wird noch fleißig blau beigemischt, um weiß weißer erscheinen zu lassen. Wer das anlässt, hat den Sinn von hochauflösendem HD-Material meiner Meinung nach nicht verstanden. :)
 
Ich bin mal bei mir ins CCC gegangen und hab alle Regler mal in die jeweiligen Extrempositionen verschoben.
Selbst mit der Nase am Bildschirm kann ich keinen Unterschied bei einem 720p Video feststellen...

Kann auch in keiner Weise nachvollziehen was du mit schlechter Videoqualität bei AMD meinst. Bei mir passt jedenfalls alles.
Treiber hab ich noch den 12.6er drauf.
 
Ich hab das mit einer ganz normalen DVD getestet. Die Einstellungen haben übrigens nur dann Auswirkung, wenn die Abspielsoftware die Hardwarebeschleunigung auch nutzt, wenn das über einen Software-Codec läuft, ist das wirkungslos. Das muss Unterstützung für NVidia PureVideo bzw. AMD Avivo haben.
Daher kann es natürlich sein, dass es vielen gar nicht auffällt. Ich benutze PowerDVD und hab die Hardwarebeschleunigung an und dann haben die Einstellungen im CCC massive Auswirkungen. Standardeinstellung produziert dann knallige Farben und total ausgewaschenes Bild. Der Windows Media Player benutzt das glaube ich auch.
 
mh0001 schrieb:
Sobald man Rauschfilter oder ähnliches einschaltet, muss die GPU in den 3D-Takt hochtakten (braucht dann auch erheblich mehr Strom)...

interessant, da diese wohl standardmäßig aktiviert sind, würde das dann auch erklären, warum die AMD Karten beim Test im Blu-ray Wiedergabe Modus relativ schlecht abschneiden (höherer Stromverbrauch als bei der Konkurrenz).
 
Jumanji schrieb:
interessant, da diese wohl standardmäßig aktiviert sind, würde das dann auch erklären, warum die AMD Karten beim Test im Blu-ray Wiedergabe Modus relativ schlecht abschneiden (höherer Stromverbrauch als bei der Konkurrenz).

Jup, ist auch so:

Dank der Catalyst-Treibervoreinstellung, welche laut AMD für einen HQV-Bildqualitätsindex von 200 von 210 maximal möglichen Punkten sorgt, muss die HD 7800 des öfteren zwischen dem UVD-Powerstate mit 400/2.400 MHz und 0,9 Volt auf volle 3D-Leistung mit 860 bzw. 1.000 MHz/2.400 MHz und 1,21 Volt hochschalten. Die Leistungsaufnahme liegt dann bei 45 bzw. 46 Watt - eine Geforce GTX 560 Ti kommt mit rund der Hälfte aus. Deaktivieren Sie im Catalyst-Control-Center unter "Video" - "Videoqualität" die Optionen Kantenanhebung, Entrauschen, Mosquito-Rauschunterdrückung, Deblocking und Dynamischer Kontrast, sinkt die Blu-ray-Leistungsaufnahme auf 32 bzw. 33 Watt.
Quelle: http://www.pcgameshardware.de/Grafi...m-Test-Schnell-und-sparsam-dank-28-nm-870528/
 
Der normale Nutzer wird die Verbesserungen wahrscheinlich gut finden.

Achte mal drauf, wie die Leute ihre Fernseher eingestellt haben, da sind bei den TFTs nämlich meist ähnliche Filter standardmäßig angeschaltet. Die meisten Leute finden das auch gut, mit knalligen Farben und voll aufgedrehtem Kontrast.

Außerdem gibts da in den Videobenchmarks im Zweifel bessere Bewertungen ;)
 
Ich meinte auch Videos.
FXAA funktioniert doch global, desktop, browser etc pp.
Gibt Anwendungen da kannst dann die Schrift kaum noch lesen, weil es so blurry ist.

Würde ich mal stumpf per Mail bei AMD anfragen, 'was das soll'.
Wäre ja schon interessant zu wissen. Wahrscheinlich eine auf Nutzerstatistiken beruhende Voreinstellungen. Beim weit verbreiteten komprimierten Material ist sowas ja auch nicht unbedingt verkehrt. Optimal wäre natürlich wennd as material erkannt, und Einstellungen automatisch angepasst werden.
 
Rumbah schrieb:
Der normale Nutzer wird die Verbesserungen wahrscheinlich gut finden.

Achte mal drauf, wie die Leute ihre Fernseher eingestellt haben, da sind bei den TFTs nämlich meist ähnliche Filter standardmäßig angeschaltet. Die meisten Leute finden das auch gut, mit knalligen Farben und voll aufgedrehtem Kontrast.

Etwas, dass ich wohl nie verstehen werde. :)

Ich finde auch bei einer DVD-Wiedergabe auf einem FullHD-Bildschirm die Bildqualität am besten, wenn einfach nur das Originalmaterial interpoliert ohne irgendwelches Postprocessing dargestellt wird.
Funktionen zum Schärfen finde ich machen das Bild schlechter, weil da dann auch immer das Bildrauschen mitgeschärft wird, das Bild wird also insgesamt grieselig. Details, die nicht da waren in der DVD-Auflösung, können prinzipiell auch mit dem besten Upscaler nicht zum Vorschein kommen. Um das Grieseln dann wegzukriegen, wird dann auch noch ein De-Noise-Filter hinterhergeschaltet, und man bekommt wunderschöne Plastikgesichter.


NotBQTagain schrieb:
Ich meinte auch Videos.
FXAA funktioniert doch global, desktop, browser etc pp.
Gibt Anwendungen da kannst dann die Schrift kaum noch lesen, weil es so blurry ist.

Würde ich mal stumpf per Mail bei AMD anfragen, 'was das soll'.
Wäre ja schon interessant zu wissen. Wahrscheinlich eine auf Nutzerstatistiken beruhende Voreinstellungen. Beim weit verbreiteten komprimierten Material ist sowas ja auch nicht unbedingt verkehrt. Optimal wäre natürlich wennd as material erkannt, und Einstellungen automatisch angepasst werden.

Man kann ja tatsächlich im CCC eine Einstellung aktivieren, die das dann auch für Internetvideos umsetzt. Das wäre dann meiner Ansicht nach auch die einzig sinnvolle Anwendung dafür, jedenfalls für schlechte Videos. Aber das ist per Default ausgeschaltet.

Diese Einstellungen kommen ausgerechnet dann massiv zum Tragen, wenn man sich DVDs oder Blurays anguckt.
 
Zuletzt bearbeitet:
Die Bildverschlimmbesserer der AMD Grafikkarten ist immer das erste was ich deaktiviere (bis auf das deinterlacing natürlich). Ich kann auch nicht verstehen warum das als werkseinstellung gemacht wird. Genauso auch der Underscan per HDMI, den muss man auch erstmal deaktivieren. Solange man es noch deaktiveren "kann" ist es ok, aber unnötig.
 
Hi, bin eig. auch strikter Nvidia Fan, wollte es aber jetzt doch mal wagen (Preis - Leistung) und ich muss schon sagen das ich enttäuscht bin gerade wegen solcher unerklärlicher Schei*e und anderen skurrilen Fails. Ich bleibe bei Nvidia. Lg Joe
 
FXAA funktioniert doch global, desktop, browser etc pp.

FXAA funktioniert bei Nvidia nur in Spielen und ist je nach Texturauflösung und Detailtiefe entweder akzeptabel oder unakzeptabel.
In Guild Wars 2 finde ich FXAA gut.
In Batman eher nicht.

FXAA ist "by default" deaktiviert.
 
Bei mir war es genau andersrum, ich hatte eine Nvidia zurückgeschickt. Im DVBviewer mit cyberlinkscodec (HW on) waren bei der nvidia (standard Pal) nur Blöcke zu sehen. Das konnte meine alte Ati- Karte besser. Ein Blick mit dem DXVA Checker offenbarte auch Unzulänglichkeiten der Videobeschleunigung seitens Nvidia. Ich habe nach herumprobieren meine optimalen Einstellungen (neue ATI) gefunden und das Beste, es frischt auch stark komprimiertes Flashvideo auf. Ein Grund warum ich auch von Win 8 auf Win 7 zurück bin, weil derzeit Flashvideos nicht Hardwarebeschleunigt wiedergegeben werden und der Modern Ui Videoplayer auch keine Videohardwarebeschleunigung bietet.

@GioJoe89
eigentlich=relativ
strickt=nicht relativ / zusammen ein bißchen paradox^^
ansonsten nicht informatives Bashing
Ergänzung ()

Bei mir war es genau andersrum, ich hatte eine Nvidia zurückgeschickt. Im DVBviewer mit cyberlinkscodec (HW on) waren bei der nvidia (standard Pal) nur Blöcke zu sehen. Das konnte meine alte Ati- Karte besser. Ein Blick mit dem DXVA Checker offenbarte auch Unzulänglichkeiten der Videobeschleunigung seitens Nvidia. Ich habe nach herumprobieren meine optimalen Einstellungen (neue ATI) gefunden und das Beste, es frischt auch stark komprimiertes Flashvideo auf. Ein Grund warum ich auch von Win 8 auf Win 7 zurück bin, weil derzeit Flashvideos nicht Hardwarebeschleunigt wiedergegeben werden und der Modern Ui Videoplayer auch keine Videohardwarebeschleunigung bietet.

@GioJoe89
eigentlich=relativ
strickt=nicht relativ / zusammen ein bißchen paradox^^
ansonsten nicht informatives Bashing
 
Ich hatte in der vergangenheit auch schon viele grafikkarten (eigentlich jedes jahr ne neue ^^), darunter waren auch ein paar nvidia karten und die haben mich besonders im video bereich stark enttäuscht, einfach zuviele treiberbugs, das ist auch der hauptgrund warum ich ATI/AMD bevorzuge. Klar man muss bei den AMD karten erstmal einiges einstellen (zb den overscan deaktiveren, pixelformat usw) aber letzendlich funktioniert das dann besser und einfacher. Ich brauche eine neutrale video wiedergabe die bugfrei läuft, da ich die filme auf einem Beamer anschaue (auch 3d filmwiedergabe spielt da eine große rolle).
 
Zurück
Oben