News AMD: Mögliche Antwort auf Nvidias DLSS via DirectML

Ich verstehe nach wie vor nicht, weshalb in diesem Forum sehr oft davon gesprochen wird, dass 'AMD keine Konkurrenz für nVidia' ist ...
Bis vor kurzem war es wie folgt:

- 1030 vs 560
- 1050 vs 570
- 1060 vs 580
- 1070 vs Vega 56
- 1080 vs Vega 64
- 1080ti

Das ganze ist jetzt eine Stufe weiter hoch gerutscht. AMD kann nichts vergleichbares zu einer xx80ti bieten, richtig! Aber wer verbaut schon immer die absoluten High End Karten ? Gerade im mittleren Bereich ist AMD mehr als gleichwertig, und das meist zum besseren Preis.

Die Technik hat beide Seiten ab und an im Stich gelassen. Jüngstes Beispiel bei AMD Primitive Shader, welche eine wirklich gute Idee und feine Technik sind, die aber von Niemandem unterstützt wird. Und auch wenn hier die Argumente angeführt werden, dass PhysX ja genutzt wird, war das dennoch ein Fehlschlag für nVidia, da diese reine PhysX Karten verkaufen wollten! NEBEN den GPUs! Es ging denen nicht um die Software sondern darum Hardware zu verkaufen.
 
  • Gefällt mir
Reaktionen: katamaran3060, Herr Melone, Revan1710 und 6 andere
Laggy.NET schrieb:
Ausser man behauptet jetzt, das wäre Fake und Microsoft würde lügen...
Na ja, auszuschließen ist das generell nicht. Jedoch sollte man wirklich mal ein bisschen abwarten und sich nicht sofort anhand eines Screenshots locken lassen. Es wäre ja nur fair, wenn man tatsächlich mal alles in Bewegung sieht. Denn da ist doch das Hauptaugenmerk, oder nicht?
 
Der große Vorteil von Direct ML auf Vega / Radeon VII , vermutlich auch noch Polaris ( DX12 ) ist , das es als Asyn Shader funktioniert dh , während die GPU mit 3D Berechnungen beschäftigt ist , können die Shader bzw ein Teil davon ML Supersampling berechnen . Man verliert keine FPS ...
 
DayMoe schrieb:
Und auch wenn hier die Argumente angeführt werden, dass PhysX ja genutzt wird, war das dennoch ein Fehlschlag für nVidia, da diese reine PhysX Karten verkaufen wollten! NEBEN den GPUs! Es ging denen nicht um die Software sondern darum Hardware zu verkaufen.

Die PhysX-Hardware hat Ageia verkauft. Nvidia hat Ageia aufgekauft und nur die Softwareschnittstelle verwertet. Die Hardware ist damals ziemlich schnell vom Markt verschwunden.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
JMP $FCE2 schrieb:
Die PhysX-Hardware hat Ageia verkauft. Nvidia hat Ageia aufgekauft und nur die Softwareschnittstelle verwertet. Die Hardware ist damals ziemlich schnell vom Markt verschwunden.

Danke für die unaufgeregte Erläuterung für Freesync vs. G-Sync. Hab wieder was gelernt.

Zu PhysiX: Ich hab PhysiX genannt weil ich noch den Aufschrei im Ohr habe als die Hardware eingestellt wurde und die Käufer sich etwas veräppelt vor kamen. Man hat in eine Technologie investiert und nun stellt sich heraus das diese nicht notwendig ist und in Software berechnet werden kann.

Ähnlich sehe ich das hier. Die Tensor Cores sind wieder "Spezialhardware" die der User teuer bezahlt und sieht dann das ähnliches auch mit anderen Mitteln berechnet werden kann.
 
  • Gefällt mir
Reaktionen: katamaran3060
Postman schrieb:
Auch in diesem Interview mit der AMD Chefin liest man leider zwischen den Zeilen, dass man bei den Grafikkarten weiterhin Mühe hat mitzuhalten. Man hat zwar mit Freesync recht behalten, aber letztendlich brachte dass AMD keinerlei Gewinn oder Vorteil, sondern nur einen Prestigesieg, welcher aber keinen Aktionär beendruckt und schon gar kein Geld in die Kasse spült.

Was mir bei dem Interview meine Laune etwas versalzen hat ist der letzte Absatz mit NAVI. Ich will 2019 nicht mehr davon hören, sondern möchte, dass diese Generation diesjährig gelauncht wird!
Ergänzung ()

DayMoe schrieb:
Jüngstes Beispiel bei AMD Primitive Shader, welche eine wirklich gute Idee und feine Technik sind, die aber von Niemandem unterstützt wird.
Da scheiden sich ja immernoch die Geister. AMD hat die Technik fallenlassen, bevor eine verwertbare Treiberunterstützung für die Entwickler verfügbar war.
Über die Ursachen streitet man sich. Gerüchtehalber liegt sogar bei einem Teil der Pipeline ein Hardwaredefekt vor. Ich kann garnicht genug betonen wie schade ich das fand/finde...

Grüße
Zero

zu TheBeastMaster unter mir.
Stimme zu 100% zu. Lisa Su ist stark. Technisch und in der Erscheinung.
Die weiss sehr genau um die Stärken und Schwächen der Produktreihen und steht stolz aber dabei relativ unaufgeregt zu deren soliden Produkten.

Ich mag sie.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: katamaran3060 und Revan1710
Allerdings muss ich zugeben, die Lisa Su scheint für AMD genau DER CEO zu sein den AMD brauchte. Meiner Meinung nach leistet die da einen Hervorragenden Job und ist dabei noch sympatisch ohne in Lederjacke Versprechungen zu machen ohne über die Konkurrenz her zuziehen.

Mag ja lieber Fakten statt Dampfplauderer und mit Ryzen hat Sie ja genau das gehalten was sie im Vorfeld angekündigt hat. Der Hardwaremarkt ist wieder ziemlich spannend und ich bin neugierig wie sich AMD auch im Server Segment entwickeln wird.
Aber ok, genug Offtopic von mir ^^
 
  • Gefällt mir
Reaktionen: Miguel14.05, katamaran3060, Herr Melone und 6 andere
AMD kann DLSS sehr gut auf den VEGA Karten abbilden, da diese a) über RPM (Rapid Packed Math) und bereits im Microcode über optimierte Instruktionen für Machine Learning Operationen verfügen. Zudem ist festzuhalten, dass das Machine Learning nicht auf den GPUs erfolgt sondern vorher auf entsprechenden Servern. Auf der GPU läuft dann nur noch der "gelernte Algorithmus" ab, dazu sollten die GPU Compute-Fähigkeiten einer VEGA GPU mit RPM ausreichen.

Wie das allerdings bei NAVI aussehen könnte ist eine andere Frage, da entsprechend der Gerüchteküche exakt die Features wegfallen würden, welche DLSS und RT auf der VEGA erst einigermaßen performant ermöglichen würden.
 
Zuletzt bearbeitet:
TheBeastMaster schrieb:
Zu PhysiX: Ich hab PhysiX genannt weil ich noch den Aufschrei im Ohr habe als die Hardware eingestellt wurde und die Käufer sich etwas veräppelt vor kamen. Man hat in eine Technologie investiert und nun stellt sich heraus das diese nicht notwendig ist und in Software berechnet werden kann.

Ich meine, die CPU-Emulation wäre von Anfang an dabei gewesen, nur eben deutlich langsamer als die PhysX-Karten. Erst die auf dem Grafikchip laufende CUDA-Version hat die Hardware dann überflüssig gemacht.

Für mich waren die PhysX-Karten von Anfang an uninteressant. Zu teuer und zu wenig Vorteile. Gameplayrelevante Physikspäße wie bei Half-Life 2, die die Karten voraussetzen, waren mangels Verbreitung nicht zu erwarten.
 
So einfach wie manche darstellen ist es nicht. Aufgrund AI hat Nvidia Tensor Kerne in Hardware verbaut. Diese haben für die KI Berechnung absolute Daseinsberechtigung.

Dass man bei Features die Neuronale Netzwerke nutzen genau diese einsetzt ist logisch. DLSS ist eher das Feature das durch die eh verfügbare Hardware Sinn ergab, nicht andersrum. Und auch für das Denoise bei RT braucht man diese bzw kann sie sinnvoll einsetzen.

Es ist doch auch wenig Neues dass AMD wenige Monate später die quasi identischen Features ankündigt, dann logischerweise open source oder hardware unabhängig.
Ich finde Freesync ging da für AMD zb super bisher auf. Wie das bei RT oder sowas wie AI Super Sampling / AA aussehen wird wird sich zeigen. Ich denke Nvidia hat hier wegen der Hardware Faktoren mehr theoretische Performance verfügbar, aber bei diesen Feature kommt es auch massiv auf die Kreativität der Entwickler an. Gut umgesetzt kann das Hardware Defizit mehr als weg machen. Man wird sehen.
 
  • Gefällt mir
Reaktionen: Revan1710
Hmm, wieso schreibt ihr (CB) Überschriften die wenig kein Sinn machen?
Direct ML ist keine Konkurrenz zu DLSS. Direct ML ist eine API, so wie Cuda. DLSS dagegen ist ein Upscalingverfahren.

Über Direct ML kann man nun ein solches Verfahren Vendor-agnostisch programmieren. Allerdings hat Nvidia hier immernoch Vorteile, denn Direct ML hat direkten Support für Nvidias Tensor Cores, da Nvidia Direct ML von Anfang an pusht. Deswegen halte ich den Nutzen der Tensor Cores bei den RTX auch für viel wichtiger, als die RT Cores. Klar kann ein Entwickler da immernoch explizit den Support für Nvidias Tensor Cores blockieren und wenn AMD eine Lösung präsentiert, werden sie den Teufel tun und Nvidias Tensor Cores unterstützen. Aber Entwickler, die sich um Geschwindigkeit Gedanken machen, werden diese öfters nutzen.
 
  • Gefällt mir
Reaktionen: Hoebelix und noxon
JMP $FCE2 schrieb:
Gameplayrelevante Physikspäße wie bei Half-Life 2, die die Karten voraussetzen, waren mangels Verbreitung nicht zu erwarten.
Sie wären aber ab dem Zeitpunkt möglich geworden wo PhysX durch die GPU berechnet wurde. Zumindest wenn nVidia das nicht exklusiv nur auf ihren Karten erlaubt hätte.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und Unnu
Ml wird mit Sicherheit auch auf der Xbox kommen DX12 ist ja jetzt auch endlich dort angekommen. 😉 Also denke ich mal dass ML seinen Weg machen wird.
 
Was fürn unnützes Vergleichsbild ... ML vs bilinear. Ja ach ne sieht bilinear scheiße aus. Würden sie das mit das mit einem gescheitem Upscaler wie Jinc oder NNEDI3 vergleichen wäre der Vorsprung auch nur noch minimal.
 
  • Gefällt mir
Reaktionen: paccoderpster
Marco01_809 schrieb:
Würden sie das mit das mit einem gescheitem Upscaler wie Jinc oder NNEDI3 vergleichen wäre der Vorsprung auch nur noch minimal.
Der Vergleich wäre sicher interessant, aber vor allem auch von der benötigten Rechenleistung her. Die muss man auf jeden Fall mit vergleichen, denn darum geht es bei den ML Varianten, dass diese angeblich schneller sind.
 
Krautmaster schrieb:
So einfach wie manche darstellen ist es nicht. Aufgrund AI hat Nvidia Tensor Kerne in Hardware verbaut. Diese haben für die KI Berechnung absolute Daseinsberechtigung.

Dass man bei Features die Neuronale Netzwerke nutzen genau diese einsetzt ist logisch. DLSS ist eher das Feature das durch die eh verfügbare Hardware Sinn ergab, nicht andersrum. Und auch für das Denoise bei RT braucht man diese bzw kann sie sinnvoll einsetzen.

Es ist doch auch wenig Neues dass AMD wenige Monate später die quasi identischen Features ankündigt, dann logischerweise open source oder hardware unabhängig.
Ich finde Freesync ging da für AMD zb super bisher auf. Wie das bei RT oder sowas wie AI Super Sampling / AA aussehen wird wird sich zeigen. Ich denke Nvidia hat hier wegen der Hardware Faktoren mehr theoretische Performance verfügbar, aber bei diesen Feature kommt es auch massiv auf die Kreativität der Entwickler an. Gut umgesetzt kann das Hardware Defizit mehr als weg machen. Man wird sehen.

Mag sein, dafür brauchen die RT und Tensor Cores aber sehr viel Platz auf dem DIE. 50% der Chipfläche liegen ohne das benutzen von Raytracing oder DLSS einfach brach.
 
Jesterfox schrieb:
Der Vergleich wäre sicher interessant, aber vor allem auch von der benötigten Rechenleistung her. Die muss man auf jeden Fall mit vergleichen, denn darum geht es bei den ML Varianten, dass diese angeblich schneller sind.

Die Effizienz von DLSS kann man schon in Frage stellen. Der Bedarf an Hardwareressourcen ist ja beträchtlich.
 
Jesterfox schrieb:
Sie wären aber ab dem Zeitpunkt möglich geworden wo PhysX durch die GPU berechnet wurde. Zumindest wenn nVidia das nicht exklusiv nur auf ihren Karten erlaubt hätte.

Sie wären frühestens 2014 möglich gewesen, weil die uralten PS3 und Xbox360 keine dazu fähige GPU hatten.
 
TheUngrateful schrieb:
Mag sein, dafür brauchen die RT und Tensor Cores aber sehr viel Platz auf dem DIE. 50% der Chipfläche liegen ohne das benutzen von Raytracing oder DLSS einfach brach.

Joa, ich denke dessen war sich Nvidia absolut bewusst. Das kostet sie selbst ja am meisten Asche. Ich sehe die Serie eher als Testballon um Erfahrungen für eine neue Architektur zu sammeln die Features für RT + Denoise + Rasterizing zb in neuen Shader vereinen, die neue Pipeline.

Der Weg Rasterizing durch neue, physikalisch korrekter arbeitende Features aufzuwerten halte ich für den richtigen. Also RT. Wir sehen hier eher die Grundsteinlegung die Nvidia auch zum richtigen Zeitpunkt macht. Die Konkurrenz lässt gerade Nvidia hier recht freie Hand. Man kann es sich also heute besser als in letzten Generationen erlauben teure Features am Endkunde zu testen.
Denke der ganze Prozess dürfte viele Jahre anhalten, 100% RT wird es wohl nie geben und das is auch nicht das Ziel. Der RT Anteil wird aber steigen, gerade lernt man eher noch wie man diese neue Render Pipeline in Hardware pressen kann :)

Edit. Denke es ist auch richtig von AMD hier erstmal im Hintergrund abzuwarten. Man kann auch passiv von Innovationen beim Rasterizing + RT Hybrid Modus lernen und eigene Hardware später ggf direkt intelligenter aufsetzen. Bis dahin kann man sich die teure RT / AI Fläche auf der Die sparen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: latexdoll
JMP $FCE2 schrieb:
Sie wären frühestens 2014 möglich gewesen, weil die uralten PS3 und Xbox360 keine dazu fähige GPU hatten.
Und die PC exklusiven Spiele sind ja auch nur ein Gerücht… (ja: ich weiß das es nicht viele sind, aber trotzdem wäre es möglich gewesen)
 
Zurück
Oben