Open Image Denoise: Intels freier Raytracing-Entrauscher für SSE-4.2-CPUs

Jan-Frederik Timm 38 Kommentare
Open Image Denoise: Intels freier Raytracing-Entrauscher für SSE-4.2-CPUs
Bild: Intel

Mit Open Image Denoise Version 0.8 hat Intel eine freie Softwarebibliothek zum Entrauschen von per Raytracing gerenderten Filmen und Bildern als Beta vorgestellt. Sie richtet sich in erster Linie an professionelle Anwender und nutzt Deep-Learning-Algorithmen. Vorausgesetzt wird eine x86-CPU mit mindestens SSE4.2.

Intel stellt Interessenten unter der Lizenz Apache 2.0 nicht nur die Algorithmen bereit, sondern hat das Modell bereits trainiert. Grundlage für das neuronale Netz ist ein Autoencoder. Open Image Denoise basiert auf Intels Math Kernel Library for Deep Neural Networks (MKL-DNN) und wurde bereits in das Intel Rendering Framework integriert.

Ein Beispiel aus einem Disney-Film

Die Wirksamkeit stellt der Hersteller vorerst anhand einer Szene aus dem Film Vaiana (Original: Moana) von Disney unter Beweis – die Projektdatei ist entpackt 93 Gigabyte groß und frei verfügbar.

Ausgangszustand mit 16 spp
Ausgangszustand mit 16 spp (Bild: Intel)

Das Bild wurde, um den Rechenaufwand zu reduzieren, mit lediglich 16 Samples pro Pixel (16 spp) im Renderer Intel OSPRay berechnet und weist ein deutliches Monte-Carlo-Rauschen, wie es für Path Tracing mit wenigen Strahlen typisch ist, auf. Durch Anwendung des Open Image Denoise kann das Rauschen deutlich reduziert werden. In welchem Verhältnis Zeitersparnis beim Rendern und Zeitaufwand beim Entrauschen stehen, darüber macht Intel vorerst keine Angaben und auch weitere technische Details will das Unternehmen erst in naher Zukunft teilen, wie Attila Áfra auf Twitter verrät.

Endzustand
Endzustand (Bild: Intel)

Open Image Denoise setzt SSE4.2 voraus, das Intel seit Nehalem und AMD seit Bulldozer unterstützt. AVX2 oder AVX-512 sind hingegen keine Voraussetzung, können den Prozess aber beschleunigen.

Enormer Rechenaufwand durch Raytracing

Während Spiele beim Einsatz von Raytracing noch in den Kinderschuhen stecken, kommt die Technologie beim Rendern von Filmen und Bildern bereits seit Jahrzehnten zum Einsatz. Mit immer komplexeren Modellen und Lichtquellen ist der Rechenaufwand trotz enormer Leistungssteigerungen bei der Hardware aber noch heute ein Problem. Ein Ansatz, dem zu entgegnen, ist die Anzahl der berechneten Strahlen zu reduzieren und das dadurch entstehende Rauschen im Nachgang zu entfernen. Per KI trainierte Modelle versprechen in diesem Zusammenhang heute bessere Ergebnisse, weil sie „gelernt haben“, welche Bildinhalte sich wie am besten entrauschen lassen. Auch Nvidia nutzt diesen Ansatz bei DXR.

Exkurs: Was ist Raytracing?

Mehr Details gefällig? ComputerBase hatte sich bereits vor Jahren in der Serie „Raytracing in Spielen“ ausführlich mit dem Thema Raytracing befasst. Die darin präsentierten Informationen und Erkenntnisse zur alternativen Rendering-Methode sind auch heute noch gültig. Besonders empfehlenswert: Wie funktioniert Raytracing?