M
M1ximili1n
Gast
Hallo,
eine Frage die ich mir seit geraumer Zeit stelle: Ist es möglich die RTX-Hardware / Tensoreinheiten per Treiber als reguläre CUDA-Einheiten nutzen zu können? Ich meine damit eine Programmierung seitens Nvidia, welche die verbaute Hardware auf die Verschiedenen Gruppen (Spieler, Forschung, Wirtschaft) mittels maßgeschneiderter Software optimiert. Ich könnte mir ebenso vorstellen, dass es theoretisch möglich Grafik-Engines so zu entwickeln, dass einige Anwendungen darin mit 16-Bit laufen, während andere weiterhin in 32-Bit laufen.
Im Grunde ist ein Tensor-Kern doch einem CUDA-Kern recht ähnlich, bzw. er könnte doch seine Rechenleistung nutzen, wenn die Anwendungen so programmiert werden, dass 16-Bit Genauigkeit ausreichend sind?
Beide Recheneinheiten führen doch im Grunde MAC-Operationen aus, was deren Ähnlichkeit doch im Grunde bestätigt (immer handelt es sich um Matrizenmultiplikationseinheiten)
eine Frage die ich mir seit geraumer Zeit stelle: Ist es möglich die RTX-Hardware / Tensoreinheiten per Treiber als reguläre CUDA-Einheiten nutzen zu können? Ich meine damit eine Programmierung seitens Nvidia, welche die verbaute Hardware auf die Verschiedenen Gruppen (Spieler, Forschung, Wirtschaft) mittels maßgeschneiderter Software optimiert. Ich könnte mir ebenso vorstellen, dass es theoretisch möglich Grafik-Engines so zu entwickeln, dass einige Anwendungen darin mit 16-Bit laufen, während andere weiterhin in 32-Bit laufen.
Im Grunde ist ein Tensor-Kern doch einem CUDA-Kern recht ähnlich, bzw. er könnte doch seine Rechenleistung nutzen, wenn die Anwendungen so programmiert werden, dass 16-Bit Genauigkeit ausreichend sind?
Beide Recheneinheiten führen doch im Grunde MAC-Operationen aus, was deren Ähnlichkeit doch im Grunde bestätigt (immer handelt es sich um Matrizenmultiplikationseinheiten)