News Microsoft VSR in Edge: Browser hübscht Videos mit GeForce RTX und Radeon RX auf

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.201
  • Gefällt mir
Reaktionen: aid0nex, MisterX, PietVanOwl und 5 andere
Ob Firefox das irgendwann auch implementiert?
Interessantes Feature aufjedenfall auch wenn mir die GPU Auslastung doch zu hoch ist.
 
  • Gefällt mir
Reaktionen: flo.murr und Brody13
Das Fazit fällt nicht anders aus als bei chrome !! Man sieht nichts was es nennenswert rechtfertigt mehr Grafikkartenleistung rein zu buttern
 
  • Gefällt mir
Reaktionen: flo.murr, aid0nex, Tanzmusikus und 6 andere
@Chesterfield
Es gibt doch noch gar keine Tests zur Qualität oder Stromverbrauch?

Ob das dann gerechtfertigt ist muss jeder für sich selbst entscheiden.
 
  • Gefällt mir
Reaktionen: aid0nex, .Sentinel., Pelzi und 3 andere
Chesterfield schrieb:
Das Fazit fällt nicht anders aus als bei chrome !! Man sieht nichts was es nennenswert rechtfertigt mehr Grafikkartenleistung rein zu buttern
Man merkt es wenn man auf 360p einstellt :mussweg:
 
  • Gefällt mir
Reaktionen: emerald, Lübke82 und Jan
  • Gefällt mir
Reaktionen: emerald
Atnam schrieb:
Ob Firefox das irgendwann auch implementiert?
Sobald das Internet auf AV1 umgestellt hat, ist mir das ziemlich egal. :) Erste HW Encoder gibt es ja schon. Jetzt ist es nur noch eine Frage der Zeit bis das in der Breite ankommt. YT liefert schon aber leider erst ein paar Tage nach dem Hochladen AV1 und die Qualitätssteigerung kann sich echt sehen lassen.

BTT: Schön, dass es mittlerweile auch eine zweite Lösung dafür gibt. Leider wird es aber noch ein paar Generationen brauchen bis es sich wirklich lohnt. Bei Mobilgeräten dürfte es sich ja nicht gerade positiv auf die Akkulaufzeit auswirken. :D
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Wenn das genauso viel Strom verbraucht wie nvidias Lösung dann sollten am besten beide gemieden werden, so eine unfassbare Energieverschwendung.
 
  • Gefällt mir
Reaktionen: Coeckchen, emerald, Blende Up und 2 andere
iSteven schrieb:
Man merkt es wenn man auf 360p einstellt :mussweg:
Je schlechter das Ausgangsmaterial, desto mehr fällt der Unterschied auf und da macht es auch gute Arbeit.
Mir fehlen halt noch Einstellungsmöglichkeiten, wo ich zum Beispiel sagen kann, bei 1080p und 720p soll er das lassen und bei 320p und 480p soll er das machen und bei anderen Auflösungen zum Beispiel auf einer anderen Stufe.
Das pauschale Ein-/Aus ist mir aktuell noch zu blöd.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, emerald, .Sentinel. und 5 andere
pmkrefeld schrieb:
so eine unfassbare Energieverschwendung.
Wieder ein Tellerrand-Problem. Gäbe sicherlich genügend Haushalte, die davon profitieren, auch wenn es einen höheren Energiebedarf mit sich zieht, allen voran in den Gebieten, wo der Internetausbau noch in den frühen 2000ern hängen blieb - wenn überhaupt.
Strom zu erhalten ist für viele Haushalte weitaus einfacher, als schnelles Internet zu bekommen.
Da Microsoft sehr wahrscheinlich auf DirectML setzt, sollte es eigentlich auch auf iGPUs laufen, was vermutlich langfristig Microsofts plan sein dürfte. Alternativ könnten auch die NPUs verwendet werden, die ja momentan in fast alle CPUs integriert werden.

Ich bin immerhin froh, dass Microsoft mal bei Technologien wieder vorlegt und nicht nur reaktiv auf Trends eingeht, wie es in den letzten Jahren sehr oft der Fall war.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, ÖX45, Lübke82 und eine weitere Person
ähm, Nur mal so wie soll das Funktionieren bzw. wo ist der Unterschied zur Interpolierung wie es sie bisher gibt?
Ich meine wenn dem Ausgangsmaterial die Infos (Details) fehlen wo sollen die herkommen? Gibt ja genug Möglichkeiten der Interpolierung wo ist der Unterschied zu dieser?

Prinzipiell würde ich mir so etwas schon wünschen, gerade wenn es um Astronomische Aufnahmen geht, die sind mir immer zu "klein" :D. Wie die Fotos von Pluto und Charon oder Rosetta und 67P/Churyumov-Gerasimenko und Ryugu. Ich liebe solche Fotos aber das ist mir immer alles so winzig. Natürlich weiß ich das dass technische Hintergründe hat und ich keine Gigapixelaufnahmen erwarten kann, aber schön wäre es trotzdem.
 
Zuletzt bearbeitet:
sikarr schrieb:
...
Ich meine wenn dem Ausgangsmaterial die Infos (Details) fehlen wo sollen die herkommen? ...

ArTiFICiAL iNTelliGeNcE
 
  • Gefällt mir
Reaktionen: Pelzi und Lübke82
VSR macht aus Scheiße kein Gold. Auch nicht +200W Tensor Core Power. Leider.

Hast du Scheiße Schuh, hast du Scheiße am Schuh.
 
HansDetflefAndi schrieb:
VSR macht aus Scheiße kein Gold. Auch nicht +200W Tensor Core Power. Leider.
Deswegen sehe ich das auch kritisch, interessant sind so Geschichten wo alte Schwarzweißaufnahmen nachkoloriert wurden durch KI aber von schlechten Aufnahmen gute zu machen seh ich jetzt nicht so.
 
sikarr schrieb:
Sieht die mehr als ich?
Naja, über statistische Modelle kann eben schon erahnt werden, was in den anliegenden (Sub-)Pixel an Informationen dargestellt werden sollte. Trainiert wird es oftmals umgekehrt: Erst wird ein hochauflösendes Bild in Pixelmatsch komprimiert und dann versucht, wiederherzustellen. Anhand des Modells kann man es auf andere Szenarien anwenden.

Wirklich neu ist die Idee nicht. Nvidia hat das schon seit Jahren in der Shield drin und auf GitHub gibt es zig Repos, die das - primär auf Animes und Cartoons bezogen - auch können.
Ein neueres Paper dazu: https://arxiv.org/abs/2107.10833
 
  • Gefällt mir
Reaktionen: Xes
Atnam schrieb:
Interessantes Feature aufjedenfall auch wenn mir die GPU Auslastung doch zu hoch ist.
Die ist wirklich zu hoch, zumindest bei Nvidia mit ihrer Technik bisher.
Auf Twitch geht es ja noch, aber YouTube wird meine 3090 Ti FE nach einiger Zeit so warm, dass der Chip 60 Grad erreicht und die Lüfter kurzzeitig angehen.
 
sikarr schrieb:
Deswegen sehe ich das auch kritisch, interessant sind so Geschichten wo alte Schwarzweißaufnahmen nachkoloriert wurden durch KI aber von schlechten Aufnahmen gute zu machen seh ich jetzt nicht so.
Doch, kann schon gehen, jedenfalls wenn es um die objektive Bildqualität bzw. das Detailreichtum geht. Das unterscheidet das von simplem Hochskalieren oder Interpolieren, wo du völlig recht hättest.

Das Knackpunkt ist, dass die hinzugefügten Details, die in der Originalaufnahme halt nicht vorhanden/erkennbar waren, eben nicht der Realität entsprechen müssen.

Ist dann halt eine Definitionssache, was man unter "aus schlechten Aufnahmen gute machen" versteht. Versteht man unter einer guten Aufnahme eine, die möglichst gut die Realität abbildet, dann kann das die KI nicht. Geht es rein um die "technische" Bildqualität, also dass alles knackscharf ist, und die dargestellten Objekte von hohem Detailreichtum sind, dann kann die KI das leisten, ein Bild zu erzeugen, dass weitaus mehr Inhalt und Details hat als das Eingangsmaterial. Nur halt eben frei erfundene Details.

Wenn in einer schlechten Aufnahme mit niedriger Auflösung das Blattwerk eines Waldes nur als diffusiver grüner Matsch erkennbar ist, nur für die Information hinreichend, dass es sich um irgendeinen Wald handelt, dann kann ein KI-Algorithmus diesen Wald bis ins einzelne Blatt in 4K-Auflösung knackscharf durchzeichnen, sodass man dann sofort denkt "Wow, die Qualität ist auf einmal grandios!".
Kann halt dann nur sein, dass man im Ergebnis auf Kiefern guckt, während es in echt eigtl. Eichen waren. Insofern technisch aus einem schlechten Bild ein gutes gemacht, nur eben keine bessere sondern schlechtere Aufnahme im Hinblick auf die Wiedergabe der Realität.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, .Sentinel., Onkelpappe und 3 andere
Zurück
Oben