Radeon VII Direct ML als mögliche Alternative zu NV DLSS

Status
Für weitere Antworten geschlossen.

MK one

Banned
Registriert
März 2017
Beiträge
4.889
hab das grade bei PCGH gesehen
http://www.pcgameshardware.de/Radeo...ia-DLSS-Alternative-Machine-Learning-1273319/
Mit dem Oktober-2018-Update für Windows 10 hat Microsoft die DirectML-API für DirectX 12 veröffentlicht. ML steht für Machine Learning - die Software erlaubt es, trainierte neuronale Netzwerke auf jeglicher DX12-Grafikkarte auszuführen. Das ermöglicht zum Beispiel eine Alternative zu Nvidias DLSS. AMD evaluiert DirectML zurzeit auf der Radeon VII und spricht von guten Ergebnissen.

Durch die Verwendung der DX12 API ist man nicht auf spezielle Tensor Cores angewiesen , Roh Leistung hat die Karte ja eigentlich mehr als genug , möglicherweise hilft Direct ML diese auch besser auf den Boden zu bringen

AMD testet DirectML laut eigenen Aussagen zurzeit auf der Radeon VII und zeigt sich von den Ergebnissen positiv angetan. Entsprechender Code läuft auf den Shadern, also nicht auf dedizierter Hardware wie eben Tensor-Kerne, womit er schneller eine größere Verbreitung finden könnte. Spannend ist das für AMD, weil DirectML Compute-Berechnungen durchführt, die per Asynchronous Compute parallel zu 3D-Aufgaben abgearbeitet werden können.

= kaum FPS Verlust , wäre doch cool , oder ?

Auch wenn AMD keine Tensor-Kerne hat, könnte eine Nutzung die Auslastung der Radeon-GPUs verbessern und damit einen Leistungssprung bringen. Das Ganze funktioniert natürlich nicht nur auf der Radeon VII. Vor allem auf der Radeon RX Vega 64 und Radeon RX Vega 56 liegt häufig Leistung brach, die sich damit ausnutzen ließe.

cool , wie gesagt ...
 
  • Gefällt mir
Reaktionen: derSafran, Sun-Berg und neofelis
Hättest du ein paar Quellen zu dem dass AMD das nach eigenen Angaben nutzt bzw woe man es verwenden könnte?
 
  • Gefällt mir
Reaktionen: Sun-Berg und Faust2011
@etoo
wenn du dem Link oben folgst landest du bei PC Games Hardware , der Author des Artikels beruft sich auf AMD , mehr Quellen hab ich nicht , sollte auch nicht verwundern , die GraKa kommt ja erst am 07.02.19 und das Herbst Update von Microsoft ist auch noch nicht allzu lang raus , da sie es zurückziehen mußten und im November dann erst kam
 
Danke!

Sicher ein spannendes Thema, wie du sagst etwas früh aber immer gut wenn AMD für etwas Konkurrenz sorgt!
 
https://www.anandtech.com/show/12549/microsoft-windows-machine-learning-for-gaming
winmlstack2_678x452.png

Anandtech hat nen Artikel zu Direct ML - siehe oben

twocars.png


upscaleblog_575px.jpg

ML Super Sampling (links) und bilinear upsampling (rechts)
man sieht schon einen deutlichen Unterschied ( in der Vergrößerung )
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und Fragger911
...und wir sind circa 3-4 Jahre davon entfernt bis sich irgendeine Spieleschmiede ernsthaft damit für einen großen Titel mit beschäftigt.
 
Fragger911 schrieb:
...und wir sind circa 3-4 Jahre davon entfernt bis sich irgendeine Spieleschmiede ernsthaft damit für einen großen Titel mit beschäftigt.

Glaub ich gar nicht mal , das ist ein relativ offener Standard , alle DX12 Karten können ihn anwenden , NV wie AMD und falls vergleichbare Resultate wie mit DLSS erreicht werden können , könnten die Gameschmieden darauf umschwenken
 
pupsi11 schrieb:

Der Artikel ist klasse und zeigt, welches Potential darin steckt. ML (Machine Learning) wird vermutlich von allen verbreiteten Grafikchips insbesondere den Vegas entgegenkommen (ist halt ein echter Compute-Chip und kein reiner Gamer-Chip) als auch den Nvidia-Chips mit Tensor Cores. Nicht umsonst wurde im verlinkten Artikel ausgerechnet die Titan V genannt. Aber, wenn man sich folgendes mal genauer ansieht, dann sieht es auch für Vega 56 und Vega 64 super aus, da hier mit Rapid Packed Math genau die erwähnte FP16 Funktionalität nativ im Chip zur Verfügung steht:

In the preview release of WinML, the data is formatted as floating point 32 (FP32). Some networks do not depend on the level of precision that FP32 offers, so by doing math in FP16, we can process around twice the amount of data in the same amount of time. Since models benefit from this data format, the official release of WinML will support floating point 16 (FP16), which improves performance drastically. We see an 8x speed up using FP16 metacommands in a highly demanding DNN model on the GPU. This model went from static to real-time due to our collaboration with NVIDIA and the power of D3D12 metacommands used in DirectML.

Spekulation: Und die Sache mit ML ist erst der Anfang. In Zukunft wird auch das DX12-Raytracing eventuell auf den Monster-Shader-Chips wie Titan V, Vega 54/64 und Radeon VII ganz brauchbar laufen, ohne spezialisierte RT-Cores.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Das sind in der Tat gute Nachrichten.

Wir wissen ja alle um die hohe Rechenleistung der AMD Karten.
Da lassen sich sicher yuch mit den aktuell verfügbaren Karten verwertbare Kapazitäten für kleinere aber wirkungsvolle Techniken wie DLSS bzw. ML Super Sampling abzwacken.

Zudem hätten wir dann wieder eine gemeingültige Schnittstelle, an die sich jeder Hersteller andocken kann.
Das macht die Adaption und Einbindung für die Hersteller einfacher und attraktiver.

Endlich geht es wieder vorwärts und das nicht durch den Jahrelang vorherrschenden Hardware- Bruteforce Ansatz.

Grüße
Zero
 
Faust2011 schrieb:
Spekulation: Und die Sache mit ML ist erst der Anfang. In Zukunft wird auch das DX12-Raytracing eventuell auf den Monster-Shader-Chips wie Titan V, Vega 54/64 und Radeon VII ganz brauchbar laufen, ohne spezialisierte RT-Cores.

Glaube ich nicht , eine bessere Kantenglättung ist eine Sache , zumal bei der Karte das normale Supersampling dann wegfällt , sie quasi gleichzeitig etwas entlastet wird , RT ist da jedoch ein anderes Kaliber .
Bei RT müssen die Lichtstrahlen berechnet , bei spiegelnden Oberflächen Reflexionen eingefügt werden , das ist ein erheblicher Rechenaufwand . Shader sind innerhalb gewisser Grenzen frei Programmierbar , das hat jedoch auch einen Nachteil , sie sind im Vergleich zu fest verdrahteten Funktionen recht langsam .
Ein ASIC ist im Vergleich zum Shader ein Fachidiot er beherrscht nur die Funktion für die er geschaffen wurde , diese aber 10 - 100 mal schneller als jede Software basierte Lösung
Deswegen NV Tensor und RTX Cores , die können eigentlich nichts anderes als genau das wofür sie geschaffen wurden .

Per Softwarelösung könnte ich mir allenfalls eine Art RTX light vorstellen , eingeschränkte Objektanzahl , eingeschränkte Anzahl an Reflexionen .
 
MK one schrieb:
Bei RT müssen die Lichtstrahlen berechnet , bei spiegelnden Oberflächen Reflexionen eingefügt werden , das ist ein erheblicher Rechenaufwand . Shader sind innerhalb gewisser Grenzen frei Programmierbar , das hat jedoch auch einen Nachteil , sie sind im Vergleich zu fest verdrahteten Funktionen recht langsam .

Grundsätzlich gebe ich Dir völlig Recht mit Deinen Aussagen und insbesondere hier zum RT-Teil. So hatte ich mir das anfangs auch gedacht, aber ich war überrascht, als ich sah, wie gut eine Titan V (die eben nur Tensor-Cores hat und keine RT-Cores) in Battlefield V im Vergleich zu den RTX-Karten abschnitt.
 
Dann lass uns dort weiterdiskutieren - ich mach hier zu.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben