News Microsoft VSR in Edge: Browser hübscht Videos mit GeForce RTX und Radeon RX auf

Atnam schrieb:
Ob Firefox das irgendwann auch implementiert?
Interessantes Feature aufjedenfall auch wenn mir die GPU Auslastung doch zu hoch ist.
Wer nutzt denn noch Firefox bzw. wieso?
Edge ist der beste Browser und nativ auf jedem Windows.
 
  • Gefällt mir
Reaktionen: Schrotty74
WebBeat84 schrieb:
Wer nutzt denn noch Firefox bzw. wieso?
Es wäre für uns alle gut, wenn es nicht irgendwann heißt: Internet = Chromium
Abgesehen davon ist Firefox auch kein Datenkrake.
 
  • Gefällt mir
Reaktionen: Bogo36, BGnom, Tanzmusikus und 3 andere
Und wieso? Personalisierte Werbung usw gibt's überall. Da musst du schon Tor oder andere Nutzen.
 
WebBeat84 schrieb:
Wer nutzt denn noch Firefox bzw. wieso?
Edge ist der beste Browser und nativ auf jedem Windows.
Die Frage ist eher "wieso nicht?".
Mal davon abgesehen, dass ein Monopol einer einzigen Browser-Engine (Blink), genauso wie jedes andere Monopol, nicht gut für die User wäre: welche großen Vorteile hat denn Edge gegenüber Firefox, oder auch Chrome, Vivaldi, Brave,....?

Ich nutze seit Jahren wieder Firefox privat und auf der Arbeit und kann mich über keine Nachteile beschweren ggü. Chromium oder anderen Chromium-basierten Browsern, außer dass ein paar optionale Features in Google Meet darin nicht funktionieren.

Und von "das Beste" zu sprechen, halte ich generell für sehr gewagt.

Zur News: Gut, dass es Konkurrenz zu einem (mal wieder) Nvidia-only Feature gibt. Grundsätzlich halte ich dieses Video Upscaling aber eher für verschwendete Rechenleistung und damit Energie.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, HansDetflefAndi, jo0 und 2 andere
Mir fehlt beim RTX VSR noch die Granulare Steuerung...
Warum zb versucht der den Algorithmus auf ein 1440p Video anzuwenden wenn der Monitor selbst eine auflösung von 1440p hat?
Das leuchtet mir nicht so ganz ein.

Was die Browser angeht..
Ich mag Edge nicht.. (kann ich da überhaupt Werbung gescheit blocken?)

Ich mag zwar eigentlich Firefox.. Aber leider ist der Fuchs nicht HDR tauglich

Ergo Schlag ich mich mit Chrome rum
 
Blackfirehawk schrieb:
Was die Browser angeht..
Ich mag Edge nicht.. (kann ich da überhaupt Werbung gescheit blocken?)
Seit die auf Chromium umgestellt haben, kannst du jedes PlugIn installieren, was auch auf Chrome funktioniert.
Man schickt seine Daten halt nicht an Google, sondern an Microsoft.
Wobei ich lieber mit einem PiHole blocke, als über PlugIns.
 
SavageSkull schrieb:
Man schickt seine Daten halt nicht an Google, sondern an Microsoft.
Das macht glaub ich auch keinen Unterschied mehr... Würde mich nicht wundern wenn die Daten an beide gehen.


SavageSkull schrieb:
Wobei ich lieber mit einem PiHole blocke, als über PlugIns.
Joar.. nur kein Plan wie ich das aufsetzte..

Am Handy nutze ich Firefox wegen den Plugins.. da ist Chrome ja leider gelockt was Plugins angeht .
 
WebBeat84 schrieb:
Wer nutzt denn noch Firefox bzw. wieso?
Edge ist der beste Browser und nativ auf jedem Windows.
Hier, ich. Mag meinen Firefox 😉, bin vor einiger Zeit wieder von Chrome gewechselt und fühl mich im Firefox momentan am wohlsten, zumindest am Desktop.

Mobil ist’s allerdings weiterhin Chrome auf iPhone und iPad, da gefällt mir die Usability deutlich besser als die des mobilen Firefox-Ablegers.
 
tox1c90 schrieb:
Das Knackpunkt ist, dass die hinzugefügten Details, die in der Originalaufnahme halt nicht vorhanden/erkennbar waren, eben nicht der Realität entsprechen müssen.
Zweiteres ist korrekt, da auch das neuronale Netz falsch gewichten kann. Ersteres eher nicht.
Die Details werden dadurch generiert, indem mehrere Frames gepuffert und miteinander vergleichen werden.

Zwei Aufgaben sind hierbei getrennt voneinander zu behandeln.
1. Analyse des Bildes auf typische kompressionsartefakte und deren Korrektur bzw. Glättung:

Carmel_3.jpg

Quelle:
https://www.pcgameshardware.de/Grafikkarte-97980/News/Nvidia-CUDA-Software-zur-Video-Verbesserung-fuer-Geforce-Nutzer-im-Anmarsch-661331/galerie/904687/

Wir sehen- Das Prinzip ist schon uralt, wobei man eben damals nicht die Rechenpower hatte, so etwas in Realtime durchzuführen.

2. Wiederherstellung von Details über temporale Akkumulation
Durch die Kamerabewegung wird ein Pixel in einer gewissen Position noch einmal von einer anderen Position erfasst und dargestellt. Auch die Kompression stellt Frame für Frame die Pixel oftmals ein wenig anders dar.

Über die dauer von mehreren Frames erhält man also, sofern es keine ausufernden Kamera- Schwenks gibt oder gar einen Szenenwechsel von einem Bildpunkt mit jedem gesammelten Frame eine immer genauere Beschreibung, wie dieser Pixel im Original ausgesehen haben muss.

Das neuronale Netz hat hierbei die schwierige Aufgabe die Position des Pixels bei Kamerabewegung nachzuverfolgen und die über die Zeit dadurch gewonnenen Zusatzinformationen im Ursprungsframe zu verrechnen.

Es funktioniert (noch) nicht so, dass das neuronale Netz weiss, wie z.B. ein Blatt auszusehen hat, dann per Mustererkennung prüft, was auf dem Input- Bild ein Blatt gewesen sein könnte und dann aus dem eigenen Informationspool aus dem vorhandenen Matsch wieder ein Blatt rekonstruiert.

Der Referenzdatensatz, der dafür benötigt würde und auch die Verarbeitungslast wären enorm.

tox1c90 schrieb:
Geht es rein um die "technische" Bildqualität, also dass alles knackscharf ist, und die dargestellten Objekte von hohem Detailreichtum sind, dann kann die KI das leisten, ein Bild zu erzeugen, dass weitaus mehr Inhalt und Details hat als das Eingangsmaterial. Nur halt eben frei erfundene Details.
Siehe oben. Aktuell arbeitet die Superresolution- Lösung mit temporaler Akkumulation. Wie DLSS. Da wird also nichts dazuerfunden. Es kann maximal eine geglättete verfälschung des Pixelwertes entstehen, wenn die Gewichtung versagt hat, oder der Pixel aus welchem Grund auch immer nicht richtig nachverfolgt werden konnte.

tox1c90 schrieb:
Wenn in einer schlechten Aufnahme mit niedriger Auflösung das Blattwerk eines Waldes nur als diffusiver grüner Matsch erkennbar ist, nur für die Information hinreichend, dass es sich um irgendeinen Wald handelt, dann kann ein KI-Algorithmus diesen Wald bis ins einzelne Blatt in 4K-Auflösung knackscharf durchzeichnen, sodass man dann sofort denkt "Wow, die Qualität ist auf einmal grandios!".
Wieder- Siehe oben.
Wobei Du gut beschreibst, wie viele offline- AI Bildverbesserer arbeiten.Dafür gibts ein Like.

Da hat nVidia in den Consumer- Karten rechentechnisch den Hintern aber noch deutlich zu weit unten. Von anderen Karten oder gar einer CPU Software Fallback- Lösung garnicht zu sprechen.

Auch Microsoft kocht hier nur mit Wasser und arbeitet temporal beim Bildverbessern.
 
Zuletzt bearbeitet:
Firefox ist das Fortknox der Privatsphäre. PlugIns scharfgestellt, about:config umgeschrieben.
Twitch mag so viel Individualisierung nicht, es zickt rum und ist ständig unzufrieden. Dafür nutze ich exklusiv Edge... by the way ein schrecklicher Browser mit halbem Funktionsumfang des FF, mit riesigem statischen Navigationsbalken
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Blackfirehawk schrieb:
Das macht glaub ich auch keinen Unterschied mehr... Würde mich nicht wundern wenn die Daten an beide gehen.
Naja, ich sehe es nicht ein, warum gleich zwei pirvate Unternehmen von mir Daten abzapfen, daher nutze ich keine Google Dienste.
 
S.Kara schrieb:
Hier geht es um die Lösung von Microsoft, nicht Nvidia.
Haste recht, Mea culpa.
War gedanklich bei der Nvidia Methode.
 
Wird wie bei G-Sync und FreeSync sein, Nvidia kocht wieder ihr eigenes Süppchen.

Zukünftig sollten alle Videos die unter nativer Auflösung laufen mit VSR behandelt werden.

Finde gut, dass die Grafikkarte mehr in den Desktop Betrieb eingebunden wird.
Wäre auch dafür, intensive Rechenaufgaben auf die GPU auszulagern oder sie als Unterstützung mit hinzuzuziehen.
 
Zurück
Oben