Upscaling - Interpolationsmethoden und Qualitätsverlust

gericool

Cadet 2nd Year
Registriert
Nov. 2014
Beiträge
16
Da ich neu hier bin, erstmal ein herzliches Hallo in die Runde :)

Mich beschäftigt folgende Frage und ich würde mich über eure Hilfe freuen:

Wie sieht das gleiche Video-Material auf einem 1080p und einem 2160p Monitor gleicher Größe aus. Und zwar im Vollbildmodus.

Auslöser für die Frage ist ein Freund der behauptet: "Kauf dir keinen 4K-Bildschirm, auf dem kann man 720p und 1080p nicht vernünftig schauen"


Meine Vermutungen dazu:

1) 1080p Video

Durch "nearest neighbor interpolation" werden beim upscaling auf 4K aus 1 Pixel 4 Pixel. Diese 4 Pixel am 4K-Monitor entsprechen dann exakt dem einen Pixel am 1080p-Monitor.

Das Bild sieht auf beiden Bildschirmen also identisch aus. Das ist dem Faktor 4 zu verdanken und der Interpolationsmethode, die ja eigentlich nur kopiert anstatt neue, schlechtere Daten zu berechnen.

1) 720p Video

Das upscaling auf 1080p bedarf des Faktors 2.
Das upscaling auf 2160p bedarf des Faktors 8.

Diese Faktoren sind beide ungeeignet für "verlustfreies" upscaling über nearest-neighbor-interpolation.

Es müssen also komplexere Interpolationsverfahren angewandt werden, eine pauschale Aussage auf welchem Monitor das Bild besser aussieht ist nicht möglich.


Kann mir hier jemand etwas bestätigen oder widerlegen?
Freue mich über jede Antwort :)

Danke schonmal!

Edit: Zusatzfrage, welche player können nearest-neighbor? madVR ist mir bislang bekannt?! Wie findet man heraus, welche Interpolation youtube, vimeo, etc. verwenden wenn man auf fullscreen schaltet?
 
Zuletzt bearbeitet:
Sieht dann genauso aus wie 560P auf 1080P Geräten.
Den Unterschied macht dann der Sichtabstand.

Bei 4K auf 27" sinds halt 20cm und bei schlechterem Material wird 50cm oder 100cm draus.
 
Also, dein Freund hat glaube ich sehr wenig Ahnung oder sehr schlechte Augen^^

Ich persönlich kann von Panasonic und Samsung (Fernseher) und Sony (Projektor) berichten welche alle (bei FHD Zuspielung) deutlich an Schärfe gewinnen und vor allem auch Details besser darstellen (im vergleich zu FHD gleicher Größe). Die namhaften Hersteller haben selbstverständlich Upscaler eingebaut die nicht einfach nur jeden Pixel auf 4 ziehen^^
Dennoch hab ich zum Beispiel bei Panasonic die Option genau das zu machen, so kann man schön sehen was der Upscaler leistet. Ist ein ganz nettes Feature solange man zB auf einem 2k Desktop rumwurschtelt.

Es gibt natürlich auch Negativbeispiele, mir ist da bisher nur ein Technisat untergekommen (das war damals sone Preisbombe um die 600€) der hat grauenvoll von FHD hochskaliert - obwohl das Bild bei UHD Zuspielung ganz passabel aussah natürlich ein No-Go.

Zu 720p kann ich wenig sagen da ich das nicht Grundlegend getestet hab, aber ARD und ZDF sehen auf jeden Fall nicht schlechter aus als auf einem FHD-Fernseher. Gewinnen tut man beim Fernsehguggen meiner Meinung nach mit 55" und mehr ohnehin nichts , egal ob FHD oder UHD Panel. (Außer man sitzt ewig weit weg oder hat HD+/PremiereHD^^)


Wenn ich am PC ein FHD Video hab spiele ich das den UHD Geräten in 1080p zu, das sieht um längen besser aus als sämtliche Varianten die ich bei madVR bisher ausprobieren konnte^^

LG KeyKon

EDIT: Mir fällt grad auf dass es dir vermutlich um reine Monitore geht xD
Da treffen meine Erfahrungen natürlich nicht unbedingt zu *g*
Wenn es dir nur ums Anschauen von Videos (<=1080p) geht macht 4k sicher keinen Sinn, aber zB das Arbeiten am PC macht mit mehr Auflösung natürlich immer Spaß^^
 
Zuletzt bearbeitet:
Schau dir mal dir mal digital aufgefrischtes Videomaterial z.b. aus den 60'ern an, das Zeug sieht subjektiv einfach besser aus (und der subjektive Eindruck ist das was wirklich zählt, Pixelpeeping ist masochistische Zeitverschwendung).

Da gibt es wohl einiges an Verfahren und Algorithmen die aufgrund von Annahmen, Psychologie und Wahrnehmungsphysiologie den subjektiven Bildeindruck verbessern.

Objektiv ist mit selbst mit modernen Kameras aufgenommenes Material sowieso totaler Matsch, weil die Sensoren mit ~40dB Rauschabstand entsetzlich schlecht sind, aber dem Auge und dem Gehirn reicht das :-)
 
Zuletzt bearbeitet:
Ich danke schonmal für eure interesanten Antworten und stelle nochmal etwas zu meiner "Problem" klar.

Ja mir geht es nur um PC-Betrieb und Monitore. Das TVs und Blueray player upscalen können, davon konnte ich meinem Kollegen schon überzeugen.

Dass es mit Software am PC aber komplizierter ist, bestätigt ja auch KeyKon mit der Erfahrung, dass er das TV Ergebnis mit madVR nicht hin bekommt.

Auch steht nicht zur Diskussion, ob ein 4K Display prinzipiell Sinn macht, sondern nur ob es für HD und Full HD schlechter ist als ein fullHD Display. (Dass 4K Material und 4K Display Sinn macht, ist für PC Anwendung wohl unumstritten)

Marius schrieb:
Sieht dann genauso aus wie 560P auf 1080P Geräten.
Den Unterschied macht dann der Sichtabstand.

Ich behaupte bei meinem Beispiel aber, dass der Sichtabstand keinen Unterschied macht sondern, dass Äquivalenz herrscht.

Um es auf dein Beispiel umzulegen:

Ich will nicht nur eine Aussage darüber treffen, wie 560p Material auf 1080p aussieht. Ich will den direkten Vergleich zu 560p Material auf einem 560p Schirm gleicher Größe.
 
Zuletzt bearbeitet:
gericool schrieb:
Dass es mit Software am PC aber komplizierter ist, bestätigt ja auch KeyKon mit der Erfahrung, dass er das TV Ergebnis mit madVR nicht hin bekommt.

Kantenscharfes Material ist aufgrund der hohen Anteile von hohen Frequenzen für gängige nicht pixel-basierende upscaler prinzipiell nicht geeignet, die dabei entstehenden Artefakte registriert unser Auge und Gehirn mit hoher Sensitivität. Mit Real-World Matsche fällt nicht mehr auf wie schlecht das in Wirklichkeit ist. :-)
 
Darf man die Frage stellen wozu ein 4K-Monitor benötigt wird wenn du "nur" FullHD bearbeiten möchtest
 
gericool schrieb:
Edit: Zusatzfrage, welche player können nearest-neighbor? madVR ist mir bislang bekannt?! Wie findet man heraus, welche Interpolation youtube, vimeo, etc. verwenden wenn man auf fullscreen schaltet?

Seit den 90'ern sind die Upscaler in der Grafikkarte, frag deinen Grafikkartenhersteller welches Verfahren der implementiert. Herkömmliche CPUs vom "von Neumann" Typ wären damit komplett überfordert.
 
Zuletzt bearbeitet:
Diese Faktoren sind beide ungeeignet für "verlustfreies" upscaling
Upscaling führt immer zu Qualitätsverlust! Wo nix ist kann man nix herzaubern.

hängt halt vom Verhältnis des Upscalings ab, ob man es stärker wahrnimmt oder nicht.
Naja solange es fast kein Filmmaterial in UHD gibt sind TV Geräte damit auch sinnlos, solche UHD Geräte machen als Monitore Sinn wo man die Auflösung auch heute schon sinnvoll nutzen kann.

Bei den TV Geräten hast du halt das Henne Ei Problem ;p

Darf man die Frage stellen wozu ein 4K-Monitor benötigt wird wenn du "nur" FullHD bearbeiten möchtest

Na man hat die Programmoberfläche plus Schnitttools und das komplette FullHD Bild offen! Das Ganze zentral auf dem Hauptbildschirm

Wenn du möchtest sogar die Quelle in FullHD und die bearbeítete Version in FullHD auf dem Hauptbildschirm...
macht eine Kontrolle sehr viel einfacher, da es zu keiner Abweichung in der Kalibration kommen kann, wie es evtl. der Fall wäre wenn du ne Multimonitorlösung hast.

Das sind Anwendungsfälle für UHD! Aber da nimmt man auch nicht den derzeitigen 500€ Billigschrott!
 
Zuletzt bearbeitet:
Luxuspur schrieb:
Na man hat die Programmoberfläche plus Schnitttools und das komplette FullHD Bild offen! Das Ganze zentral auf dem Hauptbildschirm

Aber dafür würde doch locker ein 1440-Monitor langen.
 
Aber dafür würde doch locker ein 1440-Monitor langen.

Nö würde es nicht, denk nochmal drüber nach. Vielleicht im Hobbyschnitt, bei absoluten Anfängern. die nicht wirklich viel mit machen. Schon bei ner zusätzlichen Tonspur hast du da nur noch Mikroansichten, wenn das Hauptvideo unbeschnitten dargestellt werden soll.
 
Zuletzt bearbeitet:
Ich wage mal zu behaupten, dass Profis zwei Monitore haben, und/oder ein Grafiktablett.
 
die haben mehr als 2 ;p, nur wie bereits erwähnt zur Kontrolle (ohne Kalibrationsfehler unterschiedlicher Monitore) ist nen UHD als Hauptschirm ideal! ( und war Mangels UHD Schirmen vorher eben unerlässlich )

Die Vorteile von UHD liegen derzeit eben eindeutig auf Anwendungsseite nicht im TV Bereich ...
 
Zuletzt bearbeitet:
@ BernardSheyan:

Ich filme in 4K und arbeite gerade an einem Naturfilm mit dem Ziel einer DVD Produktion. Ich hätte gerne einen 4K-Bildschirm und spare gerade darauf.

Die Aussage eines Freundes, der ihr diesen Thread hier zu verdanken habt, stammt aus einer Kaufberatung unter Freunden, aber nicht mich betreffend.

@Luxusspur

Luxuspur schrieb:
Upscaling führt immer zu Qualitätsverlust! Wo nix ist kann man nix herzaubern.

Genau dieses Argument bringt mein Diskussions-Gegenüber wieder und wieder. Diesen Sachverhalt habe ich aber auch nochnie angezweifelt. Es geht mir hier um den Direkten Qualitäts-Bezug zu einem anderen System.

@foofoobar

Der scaler sitzt also in der Grafikkarte, sowas gehört zu genau den Informationen die ich suche Ich habe von der ganzen PC-Technik nicht viel Ahnung. Bedeutet das, dass die Berechnung in der Grafikkarte passiert. Ich aber trotzdem über diverse Software wie zb. madVR regeln kann wie der scaler arbeitet. Oder sind hier die Software und was in der Grafikkarte passiert 2 verschiedene Dinge?

Du scheinst dich ja mit der Thematik auszukenne, leider kann ich deinem Beitrag wenig folgen. Begriffe wie "Kantenscharfes Material" oder "nicht pixel-basierte Scaler" sagen mir leider recht wenig. Wenn du also noch etwas schreibst, wäre ich dir dankbar wenn du das noch etwas genauer erklären könntest bzw. einen Link bereitstellen würdest wo ich mich über sowas einlesen kann.
 
Zuletzt bearbeitet:
die GraKa macht das was das Programm im vorgibt. hängt vom Programm ab inwieweit du da auf die Algorithmen Einfluss hast. Nutzt du da Quadros Tegras Teslas hast du weitaus mehr Möglichkeiten als mit den
"Spiele" GraKas. ( gleiches gilt natürlich für die AMD Pedants ;p )
 
Zuletzt bearbeitet:
Hier wird erklärt, dass das upscalen "blurry" macht. Dass der Unterschied aber von normalem Bildschirmabstand nichtmehr sichtbar ist.

http://www.rtings.com/info/4k-and-1080p-resolution-upscaling-explained

Das widerspricht ja aber meiner Theorie. Ich sage ja es wird "pixelig" und entspricht dadurch dem Bild auf dem nativen 1080p Display.

"From a distance, the orignal 1080p picture and the upscaled one will look the same. "
 
Das hier widerspricht eigentlich meiner Theorie:

EDIT: Ich kann den link hier leider nich einfügen :( Darum nur der Text:

"As you can see, upscaling blurs the picture and it is nowhere near the quality of a native high resolution picture. From a distance, the orignal 1080p picture and the upscaled one will look the same.

The blur occurs because the easiest way to determine the additional values of the pixels is to average the neighbors pixels. A 1080p video will look the same on a 1080p TV or a 4k TV. " - rtings

Die sagen, das Bild wird sogar im vergleich zum nativen 1080p Bild blurry. Beim TV-Abstand wirkt es sich aber nichtmehr aus. Dann könnte es das ja aber doch beim Monitor-Abstand.

Edit2: Oh, die reden dann wohl von einer anderen Interpolationsmethode.
 
Zuletzt bearbeitet:
gericool schrieb:
Der scaler sitzt also in der Grafikkarte,

Zu den Upscalern an sich:

Es gibt Hardware Upscaler in der Grafikkarte und im Monitor. Wenn du einem 4k-Monitor nur 1080p zuspielst rechnet der Monitor sich das dann auf 4k hoch.

Der Upscaler in der Grafikkarte ist optional und ersetzt wenn aktiviert das Software-Upscaling des Video Players.

Die Qualität des GPU-Upscalings hängt immer von der Hardware an sich ab und deswegen sieht es bei einigen Grafikkarten besser/schlechter aus als auf anderen.

Es kann auch sein, dass der Hardware-Upscaler nicht nur das Bild hochrechnet, sondern auch am Kontrast/der Schärfe oder an sonstigen Sachen rumspielt.

Generell ist madVR mit Jinc / NNEDI3 allen anderen Upscalern überlegen.
Ehrlicherweise sieht man bei FHD-Material und guten Hardware-Upscalern aber auch so gut wie keinen Unterschied, außer man hängt mit der Nase vorm Display.

Wenn das Upscaling wiebei KeyKon mit madVR schlechter aussieht als das des TV´s, liegt das wahrscheinlich daran, dass sein TV nicht nur upscalt, sondern auch noch Post-Processing macht und ihm das Bild dadurch besser vorkommt.
(Das reine Upscaling an sich ist bei madVR immer besser)
Post-Processing wie das einige TV´s oder extrem z.B. der Darbee macht ist aber auch mit Software-Playern möglich wenn man so etwas mag; ich persönlich mag es nicht weil es zwar wegen dem erhöhten Kontrast schärfer aussieht, aber in Wirklichkeit sehr viele Details und feine Konturen verliert.


Zu dem Thema Blur bei FHD auf UHD:

Als Beispiel ein Video von einem Sternenhimmel bei Nacht. Ein "kleiner" Stern ist jetzt zufällig genau 1 Pixel groß, weiß und die benachbarten Pixel sind Schwarz.

Wenn der Upscaler das Originalpixel einfach lässt wie es ist und nur die fehlenden Pixel hinzurechnet, dann wäre 1 Pixel weiß und die z.B. 16 Pixel rundherum wahrscheinlich ein Mix aus weiß/schwarz.
(die Berechnung umfasst auch Pixel, die nicht direkt neben dem Originalpixel liegen, also sind es am Ende eben nicht nur 4 weiße Pixel)

Software Upscaler lassen aber die Originalpixel nicht so wie sie sind, sondern rechnen die komplette Fläche neu. Also wären bei dem Sternen-Beispiel anstatt eines weißen Pixels am Ende nur noch dunkelweiße Pixel nebeneinander.
Im Vergleich zum Original also verwaschen, weil nicht mal mehr 1 einziges komplett weißes Pixel dabei ist.


Zum nearest neighbor-Upscaling:

Das wird soweit ich weiß heutzutage bei Software-Playern und TV´s usw. nicht mehr verwendet. „Wenigstens“ wird dann schon Bilinear/Bicubic genommen.
Also ist dein Beispiel mit dem „1080p passt perfekt in 4k aber 720p nicht“ sowieso nur theoretisch. (Es wird wie gesagt sowieso das ganze Bild neu berechnet, und dabei ist es egal ob 1080p genau in 4k passt oder nicht)
Wo ich NN-Upscaling manchmal sehe ist bei Flash-Videos im Internet.
Der Player Upscaled dann die Helligkeitsinformationen (Luma) mit Bilinear, aber die Farbinformationen (Chroma) nur mit NN.

Ich habe auch einige Zeit mal überlegt, ob ich mit NN-Upscaling nicht das bessere, weil „originalere“ Bild habe. Je nachdem wie das Bild im Video gerade aussieht mag das zwar stimmen, aber im allgemeinen hatte für mich NN einfach das unnatürlichere Bild.
 
gericool schrieb:
Edit: Zusatzfrage, welche player können nearest-neighbor? madVR ist mir bislang bekannt?!

Mpv kann noch eine kleine Auswahl verschiedener Filterkernel.

gericool schrieb:
Wie findet man heraus, welche Interpolation youtube, vimeo, etc. verwenden wenn man auf fullscreen schaltet?

Bilinear.

Luxuspur schrieb:
Upscaling führt immer zu Qualitätsverlust! Wo nix ist kann man nix herzaubern.

Nein, es führt zu höherer Qualität, denn man kann tatsächlich für die primitiven, menschlichen Augen aus dem Nichts etwas herzaubern, das gut aussieht.

Viel professionelles Video ist ziemlich schlecht skaliert, deshalb hast du dort sogar einen deutlichen Qualitätsgewinn, wenn du erst den (bilinearen) Upscale rückgängig machst, und danach besser wieder hochskalierst. Bei Anime Encodes ist das gängige Praxis, zum Beispiel 1080p Bluray, debilinear auf 720p, nnedi3 auf 1440p, wieder runterskalieren auf 1080p, und das Ergebnis sieht dann deutlich besser aus als das Original.

KeyKon schrieb:
Wenn ich am PC ein FHD Video hab spiele ich das den UHD Geräten in 1080p zu, das sieht um längen besser aus als sämtliche Varianten die ich bei madVR bisher ausprobieren konnte^^

Halte ich für unwahrscheinlich. Ich habe mal Vergleichsbilder mit Sonys proprietärem super hyper mega edge adaptive scaler gesehen, sah definitiv nicht besser aus als nnedi3 & co. Aber es kam immerhin relativ nah ran, das muss man ja auch schon loben.

foofoobar schrieb:
Seit den 90'ern sind die Upscaler in der Grafikkarte, frag deinen Grafikkartenhersteller welches Verfahren der implementiert. Herkömmliche CPUs vom "von Neumann" Typ wären damit komplett überfordert.

Unfug. Ich kann für SD Material problemlos NNEDI3 über die CPU laufen lassen, und der Filter ist kein Skalierer, sondern ein ungemein verschwenderischer (was die Rechenleistung angeht) deinterlacer, der zufälligerweise auch für Skalieren sehr gut funktioniert.

Und die meisten (so gut wie alle) Player nutzen einfach bilinear. Auch wenn der Treiber direkt über die Grafikkarte besseres Skalieren unterstützt (Beispiel: VDPAU hq Modus bei Nvidia), ist standardmäßig IMMER bilinear aktiviert.


Zu der Thematik hier: Ziemlich egal. Nearest Neighbor Skaling ist Unfug, und den meisten Skalieralgorithmen ist ziemlich egal, in welchem Verhältnis die Quellauflösung zur Zielauflösung steht. Gallo2000 hat das schon sehr gut ausgedrückt, ich würde lediglich hinzufügen wollen, dass Nearest Neighbor für Videos mit extrem niedriger Auflösung, die pixelig sein sollen (Aufnahmen alter Spiele!), extrem viel Sinn ergeben kann.
 
Zurück
Oben