VLC / WMP @ FFDSHOW / PowerDVD13 unterschiedliche bildqualität

hanspeter63

Banned
Registriert
Juli 2013
Beiträge
447
als quelle handelt es sich um eine bluray disc im mpeg2-ts container und h264/mp4avc codec.

VLC:

vlc.jpg

WMP @ FFDSHOW Decoder:

wmp_ffdshow.jpg

PowerDVD13:

powerdvd.jpg

wie kommt es dass vlc eine mmn deutlich bessere bildqualität abliefert als wmp@ffdshow decoder und powerdvd? was muss man beim ffdshow decoder / powerdvd einstellen um eine vergleichbare bildqualität zu erhalten?
 
Also meiner Meinung nach hat da VLC die schlechteste Qualität, und zwar bei weitem...

Muß man aber wohl den Film sehen.
 
das ist die farbsättigung meiner einschätzung nach, einfach mal bei den bildeigenschaften im ffdshow rumspielen
mmN pfuscht aber eher VLC am bild dran rum, weil ffdshow ja bislang potenziell nicht dran rumgestellt wurde und powerdvd/ffdshow ein ähnliches bild ausgeben
Ergänzung ()

btw gefällt mir das von ffdshow/powerdvd auch besser, aber das ist ja subjektiv
 
also vllt. liegt es nur an dem beispiel, jedoch ist mein gesamteindruck beim anschauen verschiedener filme dass bei vlc die farben nicht nur natürlicher wirken sondern auch das ganze bild sauberer und schärfer rüberkommt, während bei wmp/powerdvd das bild eher verwaschen aussieht.
 
Bei den Bildern sehe ich beim VLC-Player ziemlich blasse Farben wodurch das Bild etwas unschärfer wirkt. Man sieht kaum, dass die Sonne auf dem Bild richtig kräftig scheint.

Für mich ist das mit Abstand das schlechteste der drei Bilder. Dieses deckt sich auch mit meinen bisherigen Erfahrungen mit dem VLC-Player, dass die Qualität der verwendetetn Filter nicht so gut ist. Besonders bei SD Material wird dies sehr deutlich.

FFdshow würde ich wenn es nur im die Decoder geht durch die LAV-Filter erstezen. Diese werden im Gegensatz zu ffdshow deutlich aktiver im Moment weiter entwickelt.
 
Das mit Abstand beste Bild erhält man mit madVR (nur ein Video Renderer) und einem madVR-kompatiblem Videoplayer wie beispielsweise MPC-HC.

selbst wenn man ein Full-HD Video auf einem Full-HD Monitor guckt gibt es Unterschiede in der Bildqualität:

-sehr genaue Umrechnung von YUV nach RGB
-Farbmatrix wird berücksichtigt und wenn unbekannt "gut" geraten
-mehrere Qualitativ gute Dither-Methoden
-sehr gutes Upscalen des Farbanteils im Bild (ist bei Blu-Rays 960x540 Pixel)
-Optionen gegen Tearing
-kein ungewolltes Ändern von Kontrast oder Schärfe da es die "Bildverbesserer" des Graka-Treibers ignoriert

Nachteil ist, dass madVR teilweise recht viel Rechenpower benötigt.

Außerdem sind Bildvergleiche mit unterschiedlichen Bildern eines Videos relativ nutzlos, da starke Schwankungen in der Bildqualität geben kann, z.B. wenn man ein I-Frame trifft.
Der MPC-HC kann z.B. im Video einzelne Bilder vorwärts gehen, man muss also nicht wie ein blöder Blitzschnell auf Pause drücken und hoffen dasselbe Bild zu erwischen (macht Vergleiche einfacher).

Und um das klar zu sagen: Für mich ist die beste Bildqualität die, die so nah wie möglich am Original liegt. Also keine knallbunte Version, wie bei dir im Beispiel bei WMP oder PowerDVD zu sehen ist.
 
Zuletzt bearbeitet:
Gallo2000 schrieb:
Das mit Abstand beste Bild erhält man mit madVR (nur ein Video Renderer) und einem madVR-kompatiblem Videoplayer wie beispielsweise MPC-HC.

Also so groß ist der Unterschied zu anderen Rendern nicht. Also ich nutze im MPC-HC mit EVR-Renderer zusammen mit den Lav-Decodern. Im Vergleich zu madVR sehe ich fast keinen Unterschied. MadVr nutze ich selbst nicht, da es bei mir zusammen mit SVP (Videointerpolation) nicht perfekt lief.


Gallo2000 schrieb:
Und um das klar zu sagen: Für mich ist die beste Bildqualität die, die so nah wie möglich am Original liegt. Also keine knallbunte Version, wie bei dir im Beispiel bei WMP oder PowerDVD zu sehen ist.

Ich nehme immer Szenen in denen die Sonne scheint als Grundlage. Denn da sollte Schatten sehr kräftig wirken und kräftige und leuchtende Farben vorliegen. In dem Beispiel Bild ist aber beim VLC dies genau nicht der Fall.

Allerdings hängt natürlich auch einiges noch vom Monitor ab. Es kann sein, dass wir alle hier völlig andere Farbeindrücke von den oben geposteten Bildern haben.
 
reobase schrieb:
Denn da sollte Schatten sehr kräftig wirken und kräftige und leuchtende Farben vorliegen. In dem Beispiel Bild ist aber beim VLC dies genau nicht der Fall.

Wenn der Produzent gewollt hätte, dass alles übersättigt ("kräftige und leuchtende Farben") und überschärft ("Schatten sehr kräftig") aussieht, dann hätt er es ohne Probleme machen können.

Nur im Gegensatz zu dir sind andere Leute auch daran interessiert, feine Details im Video sehen zu können. Und die Bügelt man mit zu hohem Kontrast/Farbsättigung oder Schärfe weg.

Das Bild wird dadurch also schlechter und nicht besser. Warum es trotzdem vielen Leuten besser gefällt hat mit dem Schärfeempfinden zu tun, ist also quasi eine "Täuschung der Wahrnehmung".

Kurz gesagt verbindet das Gehirn einen höheren Kontrast mit einer höheren Schärfe (was in Echt auch nicht schlimm ist, bei Monitoren/TVs schon).

-Beim Schärfen werden Konturen im Bild gesucht und krass gesagt mit schwarzen und weißen Pixeln ersetzt (weil schwarz/weiß den höchsten Kontrast überhaupt hat). (Farb-)Details gehen so an der geschärften Stelle verloren, durch den höheren Kontrast wirkt es aber Schärfer.

-Beim erhöhen des Kontrastes im TV selbst oder im Videoplayer oder der Farbsättigung gibt es dasselbe Problem. Hohe Werte erhöhen den Kontrast und somit die empfundene Schärfe.
Auf der anderen Seite ist aber der Kontrast eins TVs oder Monitors physikalisch begrenzt. Somit wird helles Grau zu weiß, dunkles Grau zu schwarz. In dunklen Filmen ist dann kaum noch was zu erkennen (Mit den Farben ist es ähnlich).

Also geht in Wirklichkeit der Detailreichtum deutlich zurück, das Bild wirkt aber trotzdem viel Schärfer.
Schärfe ist in diesem Zusammenhang nämlich leider nicht mit mehr Bildinformationen gleichzusetzen, was man eigentlich erwartet
(z.B. bei dem Vergleich von 2 Bildern aus 2 verschiedenen Kameras; wenn ein Bild schärfer ist hat es dann auch mehr Details).

Das mal als Versuch einer aus Halbwissen erstellten sachlichen Beschreibung, weil einige Leute sich immer mit dem Satz "Aber mir gefällt es so ja besser" aus der Affäre ziehen ohne argumentieren zu müssen.



reobase schrieb:
Also so groß ist der Unterschied zu anderen Rendern nicht.

Natürlich ist der Unterschied von Video zu Video unterschiedlich, aber madVR hat immer das bessere Bild und Teilweise halt sehr deutlich.
 
Zuletzt bearbeitet:
Gallo2000 schrieb:
Wenn der Produzent gewollt hätte, dass alles übersättigt ("kräftige und leuchtende Farben") und überschärft ("Schatten sehr kräftig") aussieht, dann hätt er es ohne Probleme machen können.

Nur im Gegensatz zu dir sind andere Leute auch daran interessiert, feine Details im Video sehen zu können. Und die Bügelt man mit zu hohem Kontrast/Farbsättigung oder Schärfe weg.

Das stimmt schon aber im obigen Beispiel ist der Kontrast beim VLC zu schwach. Bei den anderen beiden Beispielen ist der Kontrast viel höher aber ohne das dadurch Konturen und Details verschwinden. D.h. sie sind näher am Optimum. Übersättigte Farben sehe ich da nicht.
Den Kompromiss zwischen zu starkem Kontrast und zu starken Farben meistert der VLC-Player meistens schlechter als andere Player.





Gallo2000 schrieb:
Natürlich ist der Unterschied von Video zu Video unterschiedlich, aber madVR hat immer das bessere Bild und Teilweise halt sehr deutlich (in Bewegung noch deutlicher als auf dem Bild zu sehen):

Vergleich madvr EVR WMP

So deutlich finde ich das in deinem Beispiel nicht.

Ich habe madVR ja selbst verwendet aber es funktionierte bei mir nie richtig gut zusammen mit SVP (vermutlich weil madVR die GPU/CPU zu stark beansprucht).
 
reobase schrieb:
Das stimmt schon aber im obigen Beispiel ist der Kontrast beim VLC zu schwach. Bei den anderen beiden Beispielen ist der Kontrast viel höher aber ohne das dadurch Konturen und Details verschwinden.

Dann mach mal die Augen auf, ganz links im Bild wo der Schatten über dem Hügel steht sind so gut wie keine Grautöne mehr sichtbar, bei dem VLC-Screenshot schon.

Oder die Spitze des Berges, die im Schatten liegt.

reobase schrieb:
D.h. sie sind näher am Optimum.

Was bitte für ein Optimum ? Wo soll das sein und woher weißt du das? Wenn das Bild auf deinem Monitor so nah wie möglich am Original liegt, dann bist du nah am Optimum. Oder gehst du im Kino auch zum Projektorraum und sagst denen, dass die doch bitte den Kontrast noch etwas Hochregeln sollen, damit der Film am Optimum läuft ? :freak:


reobase schrieb:
Übersättigte Farben sehe ich da nicht.
Weil für dich sowas normal zu sein scheint.
Ernsthaft, da ist ausgetrocknetes Gras und verstaubte Erde zu sehen. Und das Zeug ist grau-Braun und nicht rot.

reobase schrieb:
Den Kompromiss zwischen zu starkem Kontrast und zu starken Farben meistert der VLC-Player meistens schlechter als andere Player.

Da gibt es nichts zu meistern. Entweder das Video wird so angezeigt wie es ist oder es wird "verfälscht" angezeigt mit geändertem Kontrast/Farben. Dass ist dann aber Einstellungssache und kann man mit jedem Player erreichen.

reobase schrieb:
So deutlich finde ich das in deinem Beispiel nicht.

Wenn das nicht deutlich ist, was stellst du dir dann unter deutlich vor?
Dass das eine Bild blau ist und das andere grün ?
Die Konturen bei madVR sind im Vergleich zu den anderen messerscharf und quasi Artefakt-frei (den unscharfen Hintergrund mal außer Acht gelassen).
 
Oh, die Madshi Shills sind nun auch auf CB angekommen? :D

Bin mir ziemlich sicher, dass der Threadersteller eine AMD Karte hat, wo Catalyst bei allen directshow Playern die Bildverschlimmbesserer auf Maximum hat. VLC wird von denen nicht beeinflusst und hat deshalb das beste Bild.

Farben sind eine Sache, aber diese Bildverschlimmbesserer zerstören einfach Detail, ist an den Bildern gut sichtbar. An allen Ecken und Enden verschwindet Detail, und ein bisschen Banding gibt’s sogar gratis obendrein. Den Mist im Treiber abdrehen und alles sieht gleich aus. Autisten können dann natürlich noch MadVR mit NNEDI3@256 Neuronen drüberlaufen lassen. :evillol:

Gallo2000 schrieb:
Da gibt es nichts zu meistern. Entweder das Video wird so angezeigt wie es ist oder es wird "verfälscht" angezeigt mit geändertem Kontrast/Farben.

Na ja, streng genommen: Jedes Video wird verfälscht, außer du nutzt einen kalibrierten Monitor. Und auch dann darf man sich erst einmal fragen, auf was die im Studio das überhaupt gemastert haben. (Stichwort Gammakurve)

reobase schrieb:

Würg. Na ja, wem’s gefällt …

… dem gefällt vermutlich auch was AMD hier den armen Videos antut. :freaky:
 
Zuletzt bearbeitet:
Jeder der etwas auf Videoqualität am PC gibt wird den VLC nicht für die normale Wiedergabe verwenden.
Und zu SVP: Flüssige Videowiedergabe ist bei dir also Würg. Wer 24p/25p ruckeln braucht soll damit glücklich werden. Das es technisch auf dem Stand von vor über 50 jahren ist muss einen ja nicht interessieren.

Für mich und für viele andere ist SVP übrigens das beste was es für Videos am PC bisher gegeben hat.

@ Gallo2000 Was bitte für ein Optimum ?

Das Optimum bei der Videowiedergabe ist für mich erreicht, wenn ich den Eindruck habe es sieht so aus wie in der Wirklichkeit.

Für mich sieht beim VLC Screenshot z.B. die Erde so aus als würde ich da mit einer beschlagenen Brille drauf sehen.
 
Zuletzt bearbeitet:
Das Optimum der Videowiedergabe ist dann erreicht, wenn du es so wiedergibst, wie es wiedergegeben werden soll, und nicht anders. Fehler richten, die irgendwo auf dem digitalen (oder vielleicht eben gerade nicht digitalen) Weg zwischen dir und Quelle aufgetreten sind, ist eine Sache, ich nutze durchaus auch ab und an etwas Debanding, aber Kontrast durch die Decke jagen richtet nichts und trainiert dein Auge nur, schlechtere Dinge als besser zu empfinden. Siehst du ja, das hat gut geklappt. :D

Und um mal die eigentliche Frage des Threads zu beantworten: Geh ins Catalyst Control Center und stell dort alles ab, was Videos beeinflusst, dann sehen alle Player gleich aus.

reobase schrieb:
Und zu SVP: Flüssige Videowiedergabe ist bei dir also Würg.

Jep, denn ich finde die Artefakte, die dabei entstehen, ziemlich eklig. Für Animes taugt es aber auch einfach generell nicht.
 
@ Zehkul, du hattest recht, danke für den tip! ich habe eine radeon 7950 grafikkarte von AMD und leider vollkommen vergessen die standardmäßig aktivierten pfuscheffekte im catalyst treiber zu deaktivieren!

hier noch mal dasselbe bild diesmal sämtliche pfuscheffekte im grafikkartentreiber deaktiviert:

VLC:

vlc_2.jpg

WMP@FFDSHOW:

wmp_ffdshow_2.jpg

PowerDVD13:

powerdvd_2.jpg

diesmal wird in allen 3 mediaplayern das bild korrekt dargestellt, und alle die der meinung waren der vlc pfuscht an der qualität rum: im gegenteil! der vlc player war der einzige der sich nicht von den pfuschanweisungen des grafikkartentreibers unterkriegen lässt.
 
Hadwareunterstützung durch durch Grafikarte ist sicher kein Pfuscheffekt. Normalerweise sollte die Grafikarte das Bild viel besser schärfen und upscalen können als jede Software. MadVr verwendet in den besten Einstellungen auch die GPU!

FFdshow ist hier übrigens gar nicht Schuld, dass die Grafikarte verwendet wird sondern der Renderer in WMP.

Die Grafikarte ist auch dafür verantwortlich, dass Tearing vermieden wird.


In diesem vergleich gefällt mir z.B. A besser als B. Bei B ist mir die Gesichtsfarbe z.B. zu blass.

Filmvergleich.jpg
 
A ist in deinem Fall verpfuscht und B originalgetreu. ob einem solche pfuscheffekte gefallen, muss jeder für sich selbst entscheiden. fakt ist, der amd catalyst grafiktreiber hat standardmäßig genau solche effekte aktiviert. wer also ein originalgetreues bild haben möchte, sollte diese effekte abstellen.

das empfinden hängt auch stark vom verwendeten monitor ab.

ich habe hier zb einen samsung syncmaster 2493hm 24" 1920x1200 mit TN panel und CCFL hintergrundbeleuchtung stehen, welcher meiner meinung nach satte kontraste und einen ordentlichen schwarzwert abliefert.

als vergleich steht daneben ein LG 24EA53VQ-P 24" 1920x1080 mit IPS panel und LED hintergrundbeleuchtung. dieser hat mmn eine eher moderaten kontrast mit extrem grauenhaftem schwarzwert.

auf meinem samsung monitor erscheint mir bei deinem vergleich das bild A viel zu sehr übersättigt und B ausgewogen und neutral, währen auf meinem lg monitor B ebenfalls blass wirkt und A einigermaßen ausgewogen.

mein lg monitor ist auch der letzte dreck. lustig ist, dass lg nun damit wirbt dass deren monitore eine "zertifizierte werkskalibrierung" besitzen sollen, wahrscheinlich arbeiten da auch nur so leute wie du.
 
Zuletzt bearbeitet:
reobase schrieb:
Das Optimum bei der Videowiedergabe ist für mich erreicht, wenn ich den Eindruck habe es sieht so aus wie in der Wirklichkeit.

Für mich sieht beim VLC Screenshot z.B. die Erde so aus als würde ich da mit einer beschlagenen Brille drauf sehen.

Die Wirklichkeit sieht genau so aus.
Ich habe bei Google einfach mal nach Berg-Aufnahmen gesucht, hier ein Beispiel:

http://www.linzwiki.at/w/images/2/22/Pöstlingberg.jpg

Da sieht man auch einen leichten Grauschleier, hat halt mit dem Wetter und der Entfernung zu tun.

Wenn man daneben dasselbe Bild mit erhöhter Sättigung und Kontrast stellt, dann wird der Grauschleier noch deutlicher. Man denkt dann, dass das doch nicht stimmen kann, dass das Originalbild so "blass" ist.
Das ändert aber nichts daran, dass die Wirklichkeit nicht so knall-bunt ist. :)

reobase schrieb:
Hadwareunterstützung durch durch Grafikarte ist sicher kein Pfuscheffekt.

Das hat hier auch noch keiner geschrieben, aber hier geht es nicht um das decoden per GPU, sondern um die davon unabhängigen "Bildverbesserer".

reobase schrieb:
Normalerweise sollte die Grafikarte das Bild viel besser schärfen und upscalen können als jede Software.
Das ist Quatsch. Wieso sollte das so sein?
Tatsächlich ist madVR qualitativ besser, weil es anscheinend komplexere und qualitativ bessere Scaling-Methoden verwendet als es die Grakas in Hardware (momentan) können. Welche Methoden das sind kann man eigentlich nur am Ergebnis sehen; es ist vielleicht ein Mix aus Bicubic Scaling, anti-Ringing und Schärfen.

reobase schrieb:
MadVr verwendet in den besten Einstellungen auch die GPU!

madVR verwendet immer die GPU zum Berechnen :freak:.
Das sieht man an der Unterteilung der Scaling-Methoden:
processing done by GPU texture units, GPU video logic, custom pixel shader code.

Mit "video logic" ist der Hardware Scaler der GPU gemeint, der je nach Graka ein wenig besser oder schlecher sein kann.

reobase schrieb:
In diesem vergleich gefällt mir z.B. A besser als B. Bei B ist mir die Gesichtsfarbe z.B. zu blass.

Auf meinem Monitor hat die Farbe des Gesichtes bei A Ähnlichkeit mit einer Mohrrübe.
Wie es auf deinem Monitor aussieht kann ich nicht sagen, womöglich ist der Monitor/TV so schlecht (eingestellt), dass du die Farben im Video so verändern musst, damit es gut aussieht.

Aber auf Monitoren, die mehr oder weniger vernünftig Eingestellt sind, sieht es einfach nur komisch aus.



edit:

@Zehkul:
ich habe vom Graka Hardware-Scaler geredet, nicht von madVR
 
Zuletzt bearbeitet:
reobase schrieb:
Hadwareunterstützung durch durch Grafikarte ist sicher kein Pfuscheffekt. Normalerweise sollte die Grafikarte das Bild viel besser schärfen und upscalen können als jede Software.

Geh mal durch diese Liste und sag mir, wie viel davon auf der GPU läuft. Antwort: Nix. Avisynth, das A und O heutiger Videofilterung, läuft komplett über die CPU.

Und mit „Hardwareunterstützung“ haben die Effekte, die Catalyst draufbappt, überhaupt nichts zu tun. Ja, mit der GPU kann man aufwändigere Sachen in Echtzeit laufen lassen, da hast du schon recht, aber das ist nicht, was hier passiert. Was passiert, ist dass AMD billige Blingeffekte in die directshow Kette klemmt, um danach sagen zu können, dass sie die beste Qualität beim Abspielen von Videos haben, und Leute wie du fressen den Unfug auch noch. Größter Leistungsfresser ist und bleibt immer noch das Dekodieren des Videos, und das macht die Grafikkarte (oder macht sie eben nicht, im Falle von zB. Hi10P) vollkommen unabhängig von den Effekten, die dazugeschaltet werden.

reobase schrieb:
MadVr verwendet in den besten Einstellungen auch die GPU!

MadVR lässt über OpenCL aufwändige Filter laufen, die mit den Pfuscheffekten von Catalyst nicht vergleichbar sind. MadVR hat zudem keinerlei farbverändernde und nachschärfende Effekte, lediglich einen simplen Debanding Filter, den man manuell dazuschalten kann. Es kommt nicht darauf an, womit das Bild verpfuscht wird, sondern wie. NNEDI3 ist ziemlich nett, egal ob es nun die CPU oder die GPU berechnet.

Ich habe das Gefühl, du hast einfach einen extrem schlechten Monitor, der dir keine Farben anzeigt. Kauf dir nen besseren oder investier die 2 Minuten, die Farben so einzustellen, wie du das gerne hättest.

Gallo2000 schrieb:
Welche Methoden das sind kann man eigentlich nur am Ergebnis sehen; es ist vielleicht ein Mix aus Bicubic Scaling, anti-Ringing und Schärfen.

Nö ist es nicht. Also ja, anti Ringing schon, bikubisch nicht und extra nachschärfen schon gar nicht.
Der Gedankengang dahinter ist im Wesentlichen: Implementiere ich mal eine Menge exotischer Upscale Algorithmen (Lanczos oder noch schlimmer Jinc), die sonst keiner verwendet. Ups, das hat nun aber Ringing wie Sau, hatte wohl doch einen Grund, dass das keiner verwendet, jetzt muss ein anti Ringing Filter her. :evillol:

Jinc + AR kann schon recht nett aussehen, auch wenn es mir persönlich nicht wirklich zusagt, eine echte Verbesserung ist nur nnedi3, das ist ziemlich toll. Für normalen, nicht autistischen Gebrauch reicht auch Spline36 und dafür braucht man kein MadVR. :p
 
Zuletzt bearbeitet:
Zehkul schrieb:
Geh mal durch diese Liste und sag mir, wie viel davon auf der GPU läuft. Antwort: Nix. Avisynth, das A und O heutiger Videofilterung, läuft komplett über die CPU.
Avisynth ist sicher für vieles sehr gut zu brauchen. Wird ja auch von SVP benutzt aber es ist oft sehr CPU intensiv.


Zehkul schrieb:
Und mit „Hardwareunterstützung“ haben die Effekte, die Catalyst draufbappt, überhaupt nichts zu tun. Ja, mit der GPU kann man aufwändigere Sachen in Echtzeit laufen lassen, da hast du schon recht, aber das ist nicht, was hier passiert. Was passiert, ist dass AMD billige Blingeffekte in die directshow Kette klemmt, um danach sagen zu können, dass sie die beste Qualität beim Abspielen von Videos haben, und Leute wie du fressen den Unfug auch noch.

Ich fresse den Unfug?
Ich habe ja nicht einmal Catalyst auf dem Rechner. Ich nutze zum Video abspielen den MPC-HC mit den LAV Filtern , ffdshow, SVP, EVR und Reclock. Als Grafikarte kommt nur Intels HD 4000 zum Einsatz. Diese übernimmt das decoden von H.264 (dank Quick Sync schneller als alle dedizierten GPUs ) und verhindert das Tearing.

Ich habe auf meheren verschiedenen Monitoren (TN udn IPS) immer ein sehr gutes Bild. Und zum einstellen der Farben habe ich wohl mehr Zeit investiert als du.
 
Zuletzt bearbeitet:
Tearing ist was Softwareseitiges. Und dann hast du halt keinen schlechten Monitor, sondern nur schlechte Augen, wenn dir das lieber ist, nicht meine Sache.

reobase schrieb:
MPC-HC mit den LAV Filtern , ffdshow, SVP, EVR und Reclock

Sehr sinnig, LAV und ffdshow zu verwenden … Und wenn du schon sonst jedes Autismus-Programm verwendest, kannst du dir MadVR durchaus auch gönnen.
 
Zurück
Oben