News Open Image Denoise: Intels freier Raytracing-Entrauscher für SSE-4.2-CPUs

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.148
Mit Open Image Denoise Version 0.8 hat Intel eine freie Softwarebibliothek zum Entrauschen von per Raytracing gerenderten Filmen und Bildern als Beta vorgestellt. Sie richtet sich in erster Linie an professionelle Anwender und nutzt Deep-Learning-Algorithmen. Vorausgesetzt wird eine x86-CPU mit mindestens SSE4.2.

Zur News: Open Image Denoise: Intels freier Raytracing-Entrauscher für SSE-4.2-CPUs
 
  • Gefällt mir
Reaktionen: ShadowDragon, Mcr-King, Hexxxer76 und 4 andere
Guter Artikel, spannendes Thema, aber ein bisschen kurz. Könnte man das Ganze, Film und Gaming, komplexer angehen und einen mehrseitigen Artikel wieder bringen? Allgemein solche Themen sind sehr spannend.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MeisterOek, vstrom, error404 und 7 andere
Du meinst "wieder" bringen? Es gab ja in der Vergangenheit eine Kolumne über Raytracing bei Intel, welche in etwas größeren Abständen mehrteilig und federführend von Daniel Pohl geführt wurde.
 
  • Gefällt mir
Reaktionen: onkel-foehn, Mcr-King und Jan
Ich habe das am Ende noch einmal verlinkt. Hatte vorhin selber schon drüber nachgedacht! :)
 
  • Gefällt mir
Reaktionen: onkel-foehn, DJMadMax, vstrom und 3 andere
Wäre es theoretisch möglich das eine SSE 4.2 CPU das Raytracing einer Turing GPU beschleunigt?
 
  • Gefällt mir
Reaktionen: Mcr-King
Hmm, oben wird von Bildern gesprochen, das wohl aber kaum das Anwendungsgebiet sein wird, sollte die Zeit kein erheblicher Vorteil zum Rendering sein. Sprich im Alltag wird der Entrauscher eher Videosequenzen aufbereiten.
Häschen schrieb:
Wäre es theoretisch möglich das eine SSE 4.2 CPU das Raytracing einer Turing GPU beschleunigt?
Wieso Turing, das sollte für jede GPU gelten.
 
Hat zwar nicht wirklich hiermit was zu tun aber, Filme.... ein Interessantes Thema.
Mich nervt es schon sehr dieses andauernde Künstlich hinzugefügte rauschen in Spielfilmen, es sieht einfach viel besser aus wenn das Bild ganz Klar ist und nicht wie 20 Jahre alt.
Noch gibt es Serien und Animationsfilme ohne Rauschen aber es werden langsam weniger vorallemdem was die Serien angeht.
 
  • Gefällt mir
Reaktionen: TopAce888
0screamer0 schrieb:
Hat zwar nicht wirklich hiermit was zu tun aber, Filme.... ein Interessantes Thema.
Mich nervt es schon sehr dieses andauernde Künstlich hinzugefügte rauschen in Spielfilmen, es sieht einfach viel besser aus wenn das Bild ganz Klar ist und nicht wie 20 Jahre alt.
Noch gibt es Serien und Animationsfilme ohne Rauschen aber es werden langsam weniger vorallemdem was die Serien angeht.

Wobei ich sagen muss, dass mit unserem 55" 4k oled plötzlich die ein oder andere CGI in Filmen sehr mau wirken. Ich gehe davon aus, dass das nachträgliche Rauschen eher zum Kaschieren solcher Schwächen als als Kunstmittel genutzt wird.

Hier muss ich aber auch sagen, dass der Ansatz von Nvidia grobe Raytracingbilder mittels deepKI Algorithmen live anzupassen ziemlich genial fand. Aber mangels Unterstützung in Games ist raytracing bislang ja noch kein wirkliches Thema, und in der Videoproduktion ist es mir egal ob die 2 oder 5 Stunden für nen Bild rendern.
 
  • Gefällt mir
Reaktionen: paccoderpster, Mcr-King, GERmaximus und eine weitere Person
Wenn ich die beiden Bilder vergleicht, ist beim ersten alles "verrauscht", nicht nur das Wasser (wie ich gedacht hätte). Die Bäume, die Berge, ...? Wieso sind die auch verrauscht?
Oder hat man über ein gutes Bild nen Filter (Rauschen erzeugen) gelegt? Ich mein, wäre Blödsinn, aber die Bildqualität des ersten Bildes ist ziemlich mäßig.
 
@SIR_Thomas_TMC das liegt hier daran, dass das komplette Bild mit Path Tracing gerendert wurde und nicht nur die Spiegelungen auf der Wasseroberfläche wie bei Battlefield V

mich würde ja der zeitliche Faktor interessieren. Wie lange es in Sekunden dauert das Bild mit Path Tracing zu rendern und wie schnell das Denoising mit Intels Lib dann in Sekunden geht.
 
  • Gefällt mir
Reaktionen: Mcr-King, Mort626 und SIR_Thomas_TMC
Erm... sieht ziemlich unscharf aus nach dem "Entrauschen".
 
  • Gefällt mir
Reaktionen: Mcr-King, Pulsar77 und KarlKarolinger
Warum tritt hier Rauschen eigentlich auf, meint man damit das selbe wie beim Fotografieren?
Die Bilder entstehen doch rein digital, wo kommt dieses Dunkelrauschen/Ausleserauschen denn her?
 
  • Gefällt mir
Reaktionen: Mcr-King und Alphanerd
@Recharging Das Rauschen entsteht durch die begrenzte Verwendung von erdachten Strahlen, die für die Strahlenverfolgung (=Raytracing) bei der Generierung gerendeter Bilder verwendet werden. Je mehr Strahlen man entsendet desto rauschärmer wird das Bild. Aber die Dauer für das errechnete Frame wird auch immens erhöht, was Zeit (und Strom) kostet. Deshalb versucht man, mit weniger Strahlen auszukommen. Das bedeutet aber wiederum Bildrauschen, und das versucht man nun mit Tricks (siehe Artikel) zu kompensieren.
 
  • Gefällt mir
Reaktionen: Mcr-King, CMDCake, Hatch und 5 andere
Sorry, aber für mich sieht das so aus, als ob die einfach für die schwarzen Punkte einen Nearest-Neighbour Algorithmus benutzt haben - das entrauschte Bild sieht nämlich an den entrauschten Stellen total verwaschen aus.
Aber gut, ist jetzt nicht mein Fachgebiet, müsste man mal Brecht fragen (Blender 3d).
 
  • Gefällt mir
Reaktionen: Pulsar77
Marflowah schrieb:
Das Rauschen entsteht durch die begrenzte Verwendung von erdachten Strahlen, die für die Strahlenverfolgung (=Raytracing) bei der Generierung gerendeter Bilder verwendet werden. Je mehr Strahlen man entsendet desto rauschärmer wird das Bild.
Danke. Dh, das Rauschen ist die Konsequenz von fehlender Mittlung von möglichst vielen Samples pro Pixel? Dh, bei nur einem, ist der (Monte Carlo-)Algorithmus so, dass jedes Pixel zwar korrekt errechnet aber insgesamt das Bild sehr rauschig aussehen kann?

In diesem Beispiel
https://en.wikipedia.org/wiki/Path_tracing#/media/File:Path_tracing_sampling_values.png
(1 sample per pixel, and from there (left to right, top to bottom), each following square doubles that. So the bottom right square is at 32768 spp). Quelle: https://en.wikipedia.org/wiki/Path_tracing
wirkt es fasst so, als würde man von einem farbindizierten, geditherten 4bit zu einem 24 bit wechseln.
 
Redirion schrieb:
Wie lange es in Sekunden dauert das Bild mit Path Tracing zu rendern und wie schnell das Denoising mit Intels Lib dann in Sekunden geht.
Das Rendern mit ausreichend Samples für ein rauschfreies Bild dauert auf einem threadripper Stunden, der Algorithmus eher Minuten, wenn nicht noch weniger. Das sind exponentielle Größenordnungen.
 
  • Gefällt mir
Reaktionen: estros, Alphanerd und Jan
Das ist für den Alphanerd Raketentechnik und er hat trotz Bemühung des Autors kaum etwas verstanden.

Toll finde ich es, dass Intel diese (für mich Raketen)Technik unter Apache 2.0 Lizenz gestellt hat. So oft ich gegen den Laden schimpfe, sowas ist zu loben und bringt die Welt weiter.

Edit: aber Jan hat ja genug Links zur Verfügung gestellt. Muss ich hoffentlich nicht dumm sterben :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mort626 und Jan
Zurück
Oben