Test RTX Video Super Resolution im Test: Hübschere Videos via KI wollen Leistung sehen

Das Ding ist schön und gut, aber was ich mir wirklich erhoffe ist folgendes:
wenn ich mal wieder auf ein urtaltvideo (z.B. 90 er Musikvideo) mit 320p Auflösung stossen sollte,
hoffe ich das es dann so gut wird, das man wenigstens etwas mehr als nur Matsch erkennen kann, bei dann hoffentlich in nicht zu grosser Auflösung mit nem halbwegs annehmbaren Stromverbrauch.

Ich denke das wird DER Anwendungsbereich sein, in dem ich mir das mal angucke. Wenn es da beim Test einigermassen hinhaut, kann es sein, das ich es hin und wieder genau in diesem Case SELEKTIV benutzte.

Auf nem 1440p Monitor erkennt man in so nem Video eigentlich garnix mehr - so geht es zumindest mir bisher.

Grüsse.
Ergänzung ()

HPTaff schrieb:
Wurde auf Ende Februar versprochen und - eingehalten! Sehr gut!
Naja nicht für mich, der hauptsächlich Win 10 nutzt, oder wurde das irgendwo im Vorfeld als unbedingte Vorraussetzung angegeben? Ich habe bisher keinen neuen Treiber gefunden, und warte aben.
 
Also ich habe das ganze jetzt auch mal ausprobiert auf meiner 4090. Der Strommehrverbrauch ist hier fast zu vernachlässigen auf Stufe 4 wohlgemerkt laut Afterburner, bei einem Video in 480p mit schlechter Qualität. Das Ergebnis ist deutlich besser als vorher was die Bildqualität angeht, muss ich sagen. Wo vorher fast nur Matsch zu sehen war sind deutlich sauberere Strukturen und ein schärferes Bild vorhanden. Es bringt anscheinen deutlich mehr bei qualitativ schlechten Videos als bei welchen, die nur von Artefakten behaftet sind. Also ich find es sehr gelungen.
Ergänzung ()

hamju63 schrieb:
Hübsch - aber
Mir erschließt sich der Sinn des Ganzen nicht, wenn damit GPUs aufs Maximum ausgelastet werden, was dann ja auch einen deutlich höheren Stromverbrauch ergibt.
Gilt zumindest für die 4090 überhaupt nicht.
 
  • Gefällt mir
Reaktionen: painomatic
Tja. Bin wohl vorerst zu doof dafür.
  • Passende Nvidia Karte? -> JA
  • Passender Treiber? -> 531.18 -> JA
  • Passender Browser -> 110.0.5481.178, Chrome -> JA
  • Im Treiber aktiviert? -> JA. Haken dran und 4x eingestellt.

Und nu? Youtube sehe ich keinen Unterschied. Twitch auf 480 Kreusel eingestellt -> kein Unterschied.
Graka zieht laut GPU-Z auch nur ihre 30 Watt? Egal ob ich den Haken in der Nvidia Systemsteuerung setze oder nicht....

Was mache ich falsch?
 
Ich habe es auch gerade getestet und auf meinem 5120x1440 Bildschirm ist es leider völlig nutzlos für mich. Chrome und Edge haben beide einen unterirdisch schlechten Picture in Picture Modus, bei dem sich das separate Video-Fenster nicht über die Videoauflösung vergrößern lässt, also kann ich z.b. bei einem 1080p Video nicht die gesamte Vertikale meines Bildschirms ausfüllen. Außerdem habe ich bemerkt, dass im pip-Modus das Feature gar nicht aktiv ist, das läuft nur unter Vollbild.
Vollbild nutze ich nicht, da das zu schwarzen Balken führt, die die Hälfte meines Bildschirms einnehmen.

Nutzbar wäre es für mich bei Unterstützung von Firefox und picture-in-picture-Wiedergabemodus.
 
  • Gefällt mir
Reaktionen: Mcr-King
360p Youtube ist gefühlt zu viel für das Programm. Sehe keine wenn überhaupt minimale Verbesserung. Bei 480p habe ich direkt einen Unterschied festgestellt. Sah fast wie 720p aus.
Edit: Würde mir ne Erinnerung/Hinweis wünschen, dass das Tool aktiv ist. Wenn man nach dem ausprobieren vergisst es wieder auszustellen läuft die GPU halt permanent auf Hochtouren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Tenferenzu schrieb:
Stellt euch das mal im Akkubetrieb auf einem Laptop vor. Das macht doch (hoffentlich noch) niemand.
Opera hat so eine Funktion auch eingebaut auf meinem Surface Tab sieht man eine deutliche Steigerung besonders bei 720p Streams und das Feature zieht ordentlich am Akku.
 
Sherman789 schrieb:
190 Watt für YouTube. Eine technische Meisterleistung. What a time to be alive.
Wenn ichs nutze brauch die GPU im 4x Modus und 480p/720p/1080p Upscale 60-90W.

Andere Upscaler brauchen WEIT mehr (MadVR etc).
 
Die Sache ist, wir haben Effiziente Hardware Decoder und ein riesen Bitraten Spektrum. So effektiv und effizient wie das läuft braucht man nicht warten bis die Spielerei hier Sinn ergibt. Der praktische nutzen für diesen Zweck ist null. Ist ja auch nicht wie bei Spielen dass es hier Bewegungsinformationen gibt. Man wird native Qualität hier nie erreichen.
 
Nicht zu gebrauchen hatte das hier schon ohne den Test zu lesen getestet marginale Qualitätsunterschiede
dafür röhrende Lüftergeräusche und immensen Stromverbrauch wozu entwickelt man sowas
 
Wo röhrt da was bei 80W auf meiner 4090 unter Wasser ? 😂

Was für Drogen nehmt ihr ?
 
AV1 wird mehr Einfluss auf die Qualität haben.
Ich sehe es meist sofort auf YouTube, ob ein Video mit AV1 ausgeliefert wird. Warum nicht jedes Video bei mir damit ankommt habe ich noch nicht verstanden.
 
Also ich habe es jetzt, nach dem mir die Warterrei in Win 10 zu doof wurde in meinem Win 11 Testbuild mal angeschaut. Google Chrom mit 110 Version, und den neuesten 531 er Treiber von Nvidia.
Monitor und Auflösung sind 1440p.

Ich habe extra ein Video mit 360p und Videoverbesserung Stufe 4 genommen. Auslastung der GPU steigt von einstelligen Werten auf bis zu 30%...... ABER ich sehe NULL Veränderung!
Übrigens auch bei 480p nicht. Die Gegenproben mit deaktivierter "Verbesserung" habe ich natürlich auch gleich gemacht.

Das war ja der eigentliche Anwendugsfall den ich angepeilt habe, ich wollte so alte Videos leicht schärfer bekommen, das man wenigstens rudimentär irgendwas erkennt. Weit gefehlt - keine Veränderung ausser in der GPU Auslastung festzustellen (wie ich die Watt messe ist mir nicht geläufig, und macht ja auch nix, das zwischen 7% und 30% ein Unterschied ist, ist auch so klar).

Ach ja, bei meiner 3080ti kann von "röchelnden" Lüftern keine Rede sein, in den paar Minuten der Videowiedergabe wurde sie kaum um 1-2 Grad wärmer. Da müsste ich wohl stundenlang am Stück gucken.
30% packt die locker ohne grose Veränderung, da ist ja Gaming anspruchsvoller.

Also ich kann die "Leistung" noch nicht mal mit ungenügend bewerten, es gibt bei mir schlicht keine.

Grüsse.
 
  • Gefällt mir
Reaktionen: Gsonz
Was zum Henker soll diese absolute Energieverschwendung für ein "etwas" besseres Bild zu Zeiten von 4k? Sorry das ist echt eine Umweltsünde ohne Gleichen. Reine Spielerei, die vollkommen unnötig ist. Kommt garantiert nie auf meine Stromrechnung.
 
Hallo,

habe es mal mit einigen YT 720p Videos getestet und muss sagen, dass es teilweise schon spürbar anders aussah, oft besser, manchmal aber auch irgendwie "verwaschen".

Gerade bei dunklen Stellen im Video wurden aber Kompressionsartefakte gut ausgebessert.

In der Spitze langte die GPU aber mit bis zu 300W (1440p60 Video) zu. Ich lasse es deaktiviert, den Mehrverbrauch ist es mir nicht wert. Der Anfang ist aber gut und bei 720P Videos durchaus lohnenswert nach meinem ersten Eindruck und dort auch nur wenige Watt Mehrverbrauch.

Ich hätte die Option gerne im Browser individuell für jedes Video zur Auswahl.
 
Also die Verbesserung der Bildqualität, gerade bei Twitch-Streams wo die Bitrate eh nicht reicht ist immens. Aber meine RTX 3090 zieht einfach 270W wenn ich Vollbild Twitch streame (auf 1440p) und zwar egal welche Qualität ich einstelle.
 
digitalfrost schrieb:
Also die Verbesserung der Bildqualität, gerade bei Twitch-Streams wo die Bitrate eh nicht reicht ist immens. Aber meine RTX 3090 zieht einfach 270W wenn ich Vollbild Twitch streame (auf 1440p) und zwar egal welche Qualität ich einstelle.
Liegt halt am Bildaufwand den du in dieser Last brauchst. Bei normalem Upscaling von Serien zB in 1080p24/25 zieht das bei mir knapp 80W.

1440p60 ist halt 2,5x Bildrate plus 78% höhere Auflösung - klar, dass das Leistung frisst. Für Filme und Serien oder Youtube Videos ists aber perfekt :D
 
Zurück
Oben