Notiz Radeon RX 6000: AMD heizt die Stimmung in Richtung Nvidia an

@Linmoum

Witziger weise nicht denn da finde ich lediglich eine Radeon Pro 5700 XT finden die auch noch andere Werte mit mehr Boost Takt und eine geringere TDP besitzen soll und der Boost Takt soll ja auch bei der Navi 21 drin stehen.
https://www.techpowerup.com/gpu-specs/radeon-pro-5700-xt.c3662

Wie gesagt, ich finde kein Produkt zu diesen Daten.
Ergänzung ()

Doch noch was auf dieser Seite gefunden aber da passen die Daten ebenfalls nicht.
https://www.techpowerup.com/gpu-specs/radeon-pro-5700.c3663
Ergänzung ()

Bei einer Radeon RX 5700M würde zwar die TDP passen aber nicht der Takt.
https://www.techpowerup.com/gpu-specs/radeon-rx-5700m.c3476
 
Zuletzt bearbeitet von einem Moderator:
Wadenbeisser schrieb:
Möglich ist vieles, deshalb hoffe ich einfach mal darauf. :D

Ich habe es gefunden...

Zitat:
"Gleichzeitig gab es wohl durchaus Hinweise in AMDs GPU-Treibern, die auf HBM2-Speicher für AMDs Big-Navi-GPUs hindeuten. Von FreeDesktop (über Videocardz) entdeckt, wird erwähnt, dass eine 2048-Bit-Busschnittstelle existieren könnte, was jedoch zwei Varianten des Big-Navi-Chips nahelegen würde, da HBM2-Speicher ein 2,5D-Design erfordert, welches aufgrund der unterschiedlichen Speichercontroller zu einem sehr unterschiedlichen Chipdesign führt.

Es ist eher wahrscheinlich, dass AMD den GDDR6-Speicher für seine RDNA2 Consumer-Grafikkarten der nächsten Generation beibehält, aber es könnte parallel durchaus eine auf Workstations oder Prosumer abgestimmte Variante mit HBM2-Speicher geben, die dann von den MI-Karten abgeleitet werden könnte. Aber das gehört bereits in die kulinarische Welt von Spekulatius & Co."

Quelle: https://www.igorslab.de/spekulation...-der-naechsten-generation-mit-chiplet-design/
 
xXcanwriterXx schrieb:
was jedoch zwei Varianten des Big-Navi-Chips nahelegen würde, da HBM2-Speicher ein 2,5D-Design erfordert
Genau hier sehe ich aber keinen tieferen Sinn auf das Chip Design zu schließen denn das 2,5D Design betrifft letztendlich "nur" das Package da es hier um den Interposer Aufbau geht. Ich sehe wiederum keinen Grund warum in der GPU nicht beide Speichercontroller vorhanden sein sollten. Beim GDDR6 Einsatz wird das Die dann eben in ein klassisches Package verfrachtet und die Micro Bumps für den HBM2 Speicher bleiben ungenutzt und beim HBM Einsatz auf dem Interposer werden die Bumps für den GDDR6 Speicher tot gelegt. Welcher Speicher dann zum Einsatz kommt könnte entweder in den Chip gebrannt oder per Firmware entschieden werden.
Das für HBM2 nicht zwangsläufig ein kompletter Interposer erforderlich ist hatte übrigens Intel bereits mit dem Kaby Lake-G gezeigt. Dort wurde lediglich für die Micro Bumps ein entsprechendes Substrat im Package eingelassen.
 
  • Gefällt mir
Reaktionen: xXcanwriterXx und Holindarn
@Wadenbeisser: Ich wollte nur demonstrieren, dass das, was ich gelesen/aufgeschnappt habe, auf einer reinen Spekulation ("Spekulatius") beruht. Igor lässt eben nichts anbrennen!! ;)

Übrigens chapeau (Hut ab) für Dein tiefgründiges Wissen der Materie!! :)
Ergänzung ()

Holindarn schrieb:
Soweit mir bekannt gab es bereits vor 1 Woche einen Hinweis in einem Linux Treiber commit auf die 2 N21 Varianten mit HBM2 und GDDR6

Stichwort (#)... darüber hatte ich zusätzlich gelesen!!
 
  • Gefällt mir
Reaktionen: bikkje und Holindarn
@xXcanwriterXx

Kein Ding, ich beschäftige mich ja schon seit Fiji mit der HBM Geschichte und mich deshalb auch mit den entsprechenden Vega Modellen beschäftigt. :D
Darum war mir auch Intels kostengünstigerer Kompromiss zum Interposer nicht entgangen, auch wenn mir entfallen ist wie das hieß. Vielleicht finde ich es ja noch. Auf jeden Fall wäre es lustig wenn Intel das Package für eine HBM Variante machen würde um so von Intels Erfahrungen mit Kaby Lage-G zu profitieren. :volllol:

Edit:
Gefunden! es war Embedded Multi-Die Interconnect Bridge (EMIB)
https://www.computerbase.de/2017-03/intel-10nm-22ffl-emib-mcp/
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Holindarn
Ich stelle mir die Frage wo AMD Big-Navi einsortiert. Wenn sie mindestens eine Karte auf 3080 Niveau bauen können, dann ist 4 K eigentlich abgedeckt und ausgelutscht. 8 K Gaming ist aktuell Quatsch. Da sind sich wohl alle einig - außer Nvidia vielleicht. Sollte also AMD eine Leistung darüber bereitstellen, wäre dies analog zur 3090 eine interessante Prosumer Alternative zu den - Quadro analog - teuren Firepro Karten. Ich habe schon die Hoffnung, dass AMD dann zumindest in diesem Bereich mit HBM2 klotzt, statt mit GDDR6 zu kleckern.
 
noxon schrieb:
DLSS an sich ist grundsätzlich keine Nvidia spezifische Technologie, die speziell an ihre Hardware gebunden ist.
Das kannst du vergleichen mit einem Antialias-Verfahren. Es ist nur ein Algorithmus, den Spieleentwickler zum Beispiel auch selbst entwickeln könnten. Das ist nichts, was wirklich standardisiert werden muss/sollte. Genau so wenig, wie die ganzen verschiedenen Antialias-Verfahren standardisiert sind.

Jain wuerde ich sagen. Ein gutes neuronales Netz zu designen ist durchaus spezifische Technologie, und natuerlich wird es fuer die eigene Hardware optimiert. Aber im Endeffekt ist es "nur" ein Algorithmus, der allerdings sehr spefizische Informationen benoetigt und integriert werden muss.

noxon schrieb:
Nvidia bietet hier lediglich eine Bibliothek an, die Entwickler nutzen können um einen DLSS-Algorithmus mit Unterstützung der Tensor Cores durchführen zu können. Was fehlt ist eigentlich eine API für den standardisierten Zugriff auf diese KI-Cores.
Dies wird irgendwann mal DirectML sein, aber ich denke momentan ist das noch nicht wirklich ausgereift genug.

Prinzipiell ja, aber was fehlt ist die Abstrahierung und gerade eben nicht der Zugriff auf die KI-Cores. Das muss unabhaengig vom Hersteller funktionieren, damit es gescheit nutzbar ist.

noxon schrieb:
DirectML versucht also selbst zu bestimmen, wo die Sachen zu berechnen sind und ich kann mir gut Vorstellen, dass man damit nicht die optimale Performance hinbekommt, als wenn man es manuell über CUDA macht.
Deswegen wird Nvidia auch kein DirectML nutzen, sondern geht über ihre eigenen Schnittstellen. Ist einfach performanter und man hat mehr Kontrolle.

Naja, ich denke eher Nvidia wird gezwungen sein zu DirectML kompatibel zu sein. Ja, es manuell zu machen ist performanter, aber eben auch umstaendlicher und aufwendiger. Wenn Nvidia dann immer noch Studios bezahlen will es manuell zu implementieren, ok, sollen sie halt. Aber Microsoft wird ihre eigene Schnittstelle pushen und wahrscheinlich sehr viel einfacher zu implementieren machen.

noxon schrieb:
Ein besser ausgereiftes DirectML könnte aber in Zukunft die Schnittstelle sein über die auch AMD ihren DLSS Algorithmus berechnen wird. So ist dann jeder in der Lage eine hardwarebeschleunigte DLSS-Implementation zu schreiben. Davon gäbe es dann wahrscheinlich genau so viele Variationen wie Antialias-Verfahren heute und sie würden alle auf jeder Hardware laufen.

Naja, eher DirectML ruft die Implementierung vom Hersteller auf. Das jeder Hans sein DLSS implementiert bezweifle ich, dafuer ist es einfach extrem aufwendig. Das wird in Zukunft im Treiber sitzen und durch DirectML angesprochen.

noxon schrieb:
Soweit ist AMD aber noch nicht und da stellt sich die Frage, was sie momentan ohne dedizierte KI-Hardware tun können. Sie können zwar eine Bibliothek anbieten die den DLSS-Algorithmus auf den Shader-Cores berechnet, aber da stellt sich natürlich die Frage, ob das überhaupt Leistungsvorteile mit sich bringt. Schließlich nutzt es kostbare Shaderleistung, die man auch gleich zum Rendern der höheren Auflösung hätte verwenden können. Außerdem sind Shader bis zu 90% langsamer als potenzielle KI-Cores beim maschinellen lernen. Eine DLSS Lösung ohne dedizierte Hardware wird also wenig Sinn machen.

Das kommt extrem auf die Shaderimplementierung an. Tensor Cores sind so "gut" weil sie extrem primitive Einheiten sind die nur Matrixmultiplikation koennen und dann auch noch auf einem Subset an Datentypen (In der Regel FP16 und nicht FP32). Mach deinen Shader dynamischer und supporte so etwas auch, und du bist um einiges weniger langsam. Zumal es auch extrem auf die Auslastung ankommt wie gross der Effekt ist. Und dann ist eben noch die Frage wie sich das ganze mit dem Cache schlaegt. Da sind viel zu viele Fragezeichen als das man jetzt schon sagen koennte, dass das nichts wird. Nur weil Nvidia es auf deren Weise loest, heisst es nicht, dass es nicht auch anders geht.

FwSteiner666 schrieb:
Ja richtig schönes Clickbait, ist mir leider auch direkt aufgefallen. Sensationelle Überschrift, leerer Artikel.

Ist extrem schwach, aber gut, manchmal muss man da bei CB wirklich nur auf den Autor schauen.

DocWindows schrieb:
Geh mal ruhig davon aus dass nVidia 100% DirectML kompatibel sein wird. Denn das alleine nützt gar nichts in Bezug auf DLSS. Irgendjemand muss einen Algorithmus entwickeln das genauso gut oder besser wie der von nVidia ist.

Klar werden sie kompatibel, da wird es genug Drucke geben, das bezweifle ich nicht.

DocWindows schrieb:
Und sollte es irgendjemandem aus irgendwelchen Beweggründen gelingen sowas zu entwickeln, dann kann nVidia das auch einfach nutzen/unterstützen. Ist ja DirectML kompatibel. DLSS bleibt hingegen nVidia-exklusiv. Genau wie es derzeit bei G-Sync vs. Adaptive Sync ist.

Ja, das wird es am ehesten werden. Ausser natuerlich AMD/Intel sorgen dafuer, dass deren Implementierung zwar besser als Nvidias ist, aber nicht gut auf deren Hardware laeuft. Das kann auch passieren.
 
Für den Massenmarkt muss AMDs neue GPU eigentlich "nur" 2080ti + Performance und 16 GB RAM bei grob 250 Watt mit leisem Luefter schaffen. Wenn sie die für 599 EUR bringen, wird sie ein Erfolg.
RTX, DLSS, Voice, Stream Blabla ist für die Masse uninteressant. Oder jedenfalls nicht interessant genug für 100 Eur Zuschlag.
 
LencoX2 schrieb:
Für den Massenmarkt muss AMDs neue GPU eigentlich "nur" 2080ti + Performance und 16 GB RAM bei grob 250 Watt mit leisem Luefter schaffen. Wenn sie die für 599 EUR bringen, wird sie ein Erfolg.

Hoffentlich hat das AMD gelesen. Sie wissen doch, was die Gamer wollen... also schaffe, schaffe AMD!!
 
@Laphonso
Naja du würfelst die da echt viel zusammen.
Es gab eine Menge Titan welcher SM fehlten oder gar das Speicherinterface kastriert wurde.
Eine Titan V wurde auch zB NV-Link deaktiviert.
Manche haben eine extrem grottige FP64 Performance.
Die Karte hat den doppelten Speicher wie sie normalen Modelle. Es wurde nicht immer verdoppelt. Titan M, beide P und V haben 12 GB Speicher.
Titan hieß nie, das alles all-in ist. Dann verkauft man ja keine Quadro oder Tesla mehr.
 
Kacha schrieb:
Jain wuerde ich sagen. Ein gutes neuronales Netz zu designen ist durchaus spezifische Technologie, und natuerlich wird es fuer die eigene Hardware optimiert. Aber im Endeffekt ist es "nur" ein Algorithmus, der allerdings sehr spefizische Informationen benoetigt und integriert werden muss.
Ich würde es mit TXAA oder HBAO+ vergleichen. Das waren auch von Nvidia entwickelte AA und AO Algorithmen. Grundsätzlich war es aber nichts außergewöhnlich, wozu nicht jede Menge Alternativen entwickelt werden konnten.
Dass DLSS jetzt auf speziell dafür nötige Hardware zugreift ist glaube ich nciht

Prinzipiell ja, aber was fehlt ist die Abstrahierung und gerade eben nicht der Zugriff auf die KI-Cores. Das muss unabhaengig vom Hersteller funktionieren, damit es gescheit nutzbar ist.
Solche KI-Cores wird jeder Hersteller benötigen. Intel Xe wird das definitiv bieten. KI Cores werden demnächst ja auch mit in die Intel CPUs mit einfließen. Auch AMD wird sich also darum kümmern müssen.
Neuronale Netze wird man nicht effektv genug über die üblichen Shader-Cores berechnen können.
Dann muss man natürlich zusammen mit MS darüber diskutieren, wie man abstrakt auf die Funktionalitäten dieser KI-Cores zugreift. So wie man das halt sonst bei neuen GPU-Funktionalitäten auch immer macht.

Naja, ich denke eher Nvidia wird gezwungen sein zu DirectML kompatibel zu sein.
Kompatibel zu DirectML sind sie. Wie gesagt. Es steht jedem Entwickler frei ein eigenes DLSS zu schreiben, dass DirectML oder aber auch Vulkan nutzt.
Hinter all dem steckt kein Geheimnis. Das ist nur Software, die auf den KI-Kernen läuft und die auch gar nicht mal so kompliziert. Spieleentwickler kriegen das locker hin ihre eigenen Implementationen davon zu schreiben.

Ja, es manuell zu machen ist performanter, aber eben auch umstaendlicher und aufwendiger. Wenn Nvidia dann immer noch Studios bezahlen will es manuell zu implementieren, ok, sollen sie halt. Aber Microsoft wird ihre eigene Schnittstelle pushen und wahrscheinlich sehr viel einfacher zu implementieren machen.
Für die Studios die Implementation von DLSS nicht aufwendiger, bloß weil die Biblothek CUDA verwendet anstatt DirectML.
Die binden nur die fertige DLL von Nvidia ein und rufen die Methoden auf, die Nvidia geschrieben hat.
Als Inputs verlangen die die niedrig auflösenden Bilder, Bewegungsvektoren, Jitteroffsets und Beleuchtungswerte und heraus kommen die hochauflösenden Bilder.

Naja, eher DirectML ruft die Implementierung vom Hersteller auf. Das jeder Hans sein DLSS implementiert bezweifle ich, dafuer ist es einfach extrem aufwendig. Das wird in Zukunft im Treiber sitzen und durch DirectML angesprochen.
TAA halte ich eigentlich für deutlich aufwendiger und da musste sich jeder Entwickler in jedem Spiel immer selbst drum kümmern, wie dort die temporalen Artefakte zu verhindern sind. Hat auch Jahre gedauert, bis Entwickler das vernünftig in den Griff bekommen hatten.
DLSS müsste da in dieser Hinsicht eigentlich einfacher sein, da hier das Neuronale Netz selbstständig ermittelt, wo die temporalen Artefakte entstehen und diese herausfiltert. Statt mühsamer manueller Arbeit ist DLSS also ein datengetriebener automatisierter Ansatz, der die Arbeit eigentlich erleichtern sollte.

DLSS kann übrigens genau so wenig wie TAA im Treiber sitzen, da es in der Mitte der Renderpipeline angewendet werden muss.
Es muss nach dem Rendern der Geometrie und des G-Buffers, aber noch vor dem Anwenden der Postprocessing-Effekte und der UI-Overlays, durchgeführt werden. PP-Effekte und UI können bzw. sollten nicht hochskaliert werden, sondern müssen immer erst nach DLSS angewand werden. Daher kann es nicht im Treiber sitzen. Zumindest nicht in der Form, wie DLSS jetzt implementiert ist.

Das kommt extrem auf die Shaderimplementierung an. Tensor Cores sind so "gut" weil sie extrem primitive Einheiten sind die nur Matrixmultiplikation koennen und dann auch noch auf einem Subset an Datentypen (In der Regel FP16 und nicht FP32).
Die können auch FP32 und FP64. Vor allen Dingen können die aber auch TF32 (Tensor Float 32), welche im Vorkommastellenbereich die Genauigkeit einer 32 Bit Floatingpoint Zahl aufweist, im Nachkommabereich aber nur die Genauigkeit einer 16 Bit Zahl. Die Verwendung solcher speziellen Datentypen kann das Training von Neuronalen Netzen zum Beispiel um das 3 - 6 fache steigern.
Wenn es um verschiedene Datentypen und deren effiziente Opperationen geht, sind die Tensor Cores echt um nichts zu schlagen. Das ist ja deren große Vorteil. Ansonsten bräuchte man ja wirklich nur die Shader-Cores.

Mach deinen Shader dynamischer und supporte so etwas auch, und du bist um einiges weniger langsam. Zumal es auch extrem auf die Auslastung ankommt wie gross der Effekt ist. Und dann ist eben noch die Frage wie sich das ganze mit dem Cache schlaegt. Da sind viel zu viele Fragezeichen als das man jetzt schon sagen koennte, dass das nichts wird. Nur weil Nvidia es auf deren Weise loest, heisst es nicht, dass es nicht auch anders geht.
Klar. Es wäre am besten, wenn die Shader so gebaut werden könnten, dass sie alle Datentypen und Operationen beherrschen würden.
Das wird sicherlich auch irgendwann wieder so kommen. Kennen wir ja aus der Vergangenheit, wo aus Pixel und Verteshader die gemeinsamen Unified Shader wurden. Das bedeutet aber auch, dass sie deutlich an Komplexität zunehmen würden und das ist momentan einfach noch nicht machbar, bzw. sinnvoll.
Was nutzt es die Shader universeller zu machen, wenn man dafür ihe Anzahl halbieren muss, weil sie auf einmal doppelt so viele Transistoren benötigen?
 
Zuletzt bearbeitet:
noxon schrieb:
Dass DLSS jetzt auf speziell dafür nötige Hardware zugreift ist glaube ich nciht

Fuer optimale Ausfuehrung, ganz klar ja. Das faengt schon mit der Groesse an. Und natuerlich die Beschraenkung auf FP16 fuer die Tensor Cores. Da schmeisst du Leistung weg, wenn du es auf anderen Einheiten berechnest.

noxon schrieb:
Solche KI-Cores wird jeder Hersteller benötigen. Intel Xe wird das definitiv bieten.

Da gehe ich nicht komplett mit. Es wird mehr Optimierung fuer KI dabei sein, ja, aber ob es unbedingt extra Cores dafuer braucht ist eine andere Sache. Eine Integrierung ist genauso moeglich.

noxon schrieb:
Spieleentwickler kriegen das locker hin ihre eigenen Implementationen davon zu schreiben.

Das ist Verschwendung von Zeit, Geld, und Ressourcen. Ein Netz zu optimieren benoetigt neben jeder Menge an Daten auch eine Menge Trainingszeit und die dazugehoerige Hardware. Hyperparametertuning faellt nicht einfach vom Himmel. Ich halte es fuer unwahrscheinlich, dass Spieleentwickler sich darum kuemmern werden. Die werden einen DirectML Aufruf nutzen und dann die Implementierung von Nvidia/AMD/Intel nutzen.

noxon schrieb:
Für die Studios die Implementation von DLSS nicht aufwendiger, bloß weil die Biblothek CUDA verwendet anstatt DirectML.
Die binden nur die fertige DLL von Nvidia ein und rufen die Methoden auf, die Nvidia geschrieben hat.
Als Inputs verlangen die die niedrig auflösenden Bilder, Bewegungsvektoren, Jitteroffsets und Beleuchtungswerte und heraus kommen die hochauflösenden Bilder.

Ausser, dass sie das gleiche fuer AMD und Intel auch machen muessen. Ein DirectML Aufruf und das Netz, welches im Treiber ist wird genutzt ist um einiges effizienter.

noxon schrieb:
Statt mühsamer manueller Arbeit ist DLSS also ein datengetriebener automatisierter Ansatz, der die Arbeit eigentlich erleichtern sollte.

Prinzipiell ja, aber nicht wenn es von den Entwicklern trainiert wird. Ausserdem zaehlt immer noch das Prinzip "crap in, crap out".

noxon schrieb:
DLSS kann übrigens genau so wenig wie TAA im Treiber sitzen, da es in der Mitte der Renderpipeline angewendet werden muss.

Da wird es auch in Zukunft sitzen (muessen). So wie es jetzt ist, ist es bei weitem zu umstaendlich.

noxon schrieb:
Die können auch FP32 und FP64. Vor allen Dingen können die aber auch TF32 (Tensor Float 32), welche im Vorkommastellenbereich die Genauigkeit einer 32 Bit Floatingpoint Zahl aufweist, im Nachkommabereich aber nur die Genauigkeit einer 16 Bit Zahl.

Hm, stimmt FP32 war schon bei Volta vorhanden, FP64 scheint aber bei Ampere hinzugekommen zu sein. TF32 kenne ich (wobei der Name wohl absichtlich verwechselbar mit TensorFlows TF32 gewaehlt wurde). Da will ich aber erst unabhaengige Bestaetigungen sehen, weil die Behauptung ist, dass sich an der Genauigkeit und am Fehler nichts aendert. Das die letzten paar Stellen oft wenig ausmachen, ok, aber wie gesagt, das will ich unabhaengig bestaetigt sehen.

noxon schrieb:
Klar. Es wäre am besten, wenn die Shader so gebaut werden könnten, dass sie alle Datentypen und Operationen beherrschen würden.
Das wird sicherlich auch irgendwann wieder so kommen. Kennen wir ja aus der Vergangenheit, wo aus Pixel und Verteshader die gemeinsamen Unified Shader wurden. Das bedeutet aber auch, dass sie deutlich an Komplexität zunehmen würden und das ist momentan einfach noch nicht machbar, bzw. sinnvoll.
Was nutzt es die Shader universeller zu machen, wenn man dafür ihe Anzahl halbieren muss, weil sie auf einmal doppelt so viele Transistoren benötigen?

Naja, man kann genauso fragen, warum extra Einheiten und damit Chipflaeche belegen? ;) Nvidia faehrt halt derzeit noch den Ansatz der spezialisierten Einheiten. Wahrscheinlich auch dadurch getrieben, dass sie aeltere Nodes nutzen und es damit guenstiger ist. Dass sich ein Shader verdoppelt von der Transistorzahl bezweifle ich aber, vor allem kann es sein, dass man dafuer andere Sachen rausschmeissen kann. Wenn man "alte" Funktionen nur noch approximiert kann das klappen. Aehnlich wie im Reinforcement Learning bei allem mit Deep, Q Table raus, Funktion durch neuronales Netz approximieren, funktioniert.
 
Kacha schrieb:
Da gehe ich nicht komplett mit. Es wird mehr Optimierung fuer KI dabei sein, ja, aber ob es unbedingt extra Cores dafuer braucht ist eine andere Sache. Eine Integrierung ist genauso moeglich.
Intel hat ja schon ihre Alder-Lake CPU angekündigt, die komplett modular aufgebaut sein wird und auch KI-Cores enthalten wird.

axzd9gimhdSw9bDBDy2mdf-2038-80.jpg


Auch die Xe HP und HPC wird KI-Hardware enthalten.
https://www.tomshardware.com/news/intel-xe-hp-hpc-graphics schrieb:
Not surprisingly, Xe HP doesn't focus solely on standard GPU-type processing clusters. Like Nvidia's V100 and A100 (and Google's TPUs, Tensor Processing Units), Xe HP also includes tensor-style capabilities that should further improve computational performance. Like the A100 and TPU3, Xe HP also supports the bfloat16 format, which offers similar accuracy for AI purposes to FP32 but at twice the performance. (Technically, it has a wide range of values thanks to the 8-bit exponent, but limited precision of only 7-bits.)

Ich denke nicht, dass das bei der HPG Version anders ausfallen wird. Ich würde es jedenfalls für einen großen Fehler halten, wenn sie die Funktionalität bei der Consumerversion entfernen würden.

Das ist Verschwendung von Zeit, Geld, und Ressourcen. Ein Netz zu optimieren benoetigt neben jeder Menge an Daten auch eine Menge Trainingszeit und die dazugehoerige Hardware. Hyperparametertuning faellt nicht einfach vom Himmel. Ich halte es fuer unwahrscheinlich, dass Spieleentwickler sich darum kuemmern werden. Die werden einen DirectML Aufruf nutzen und dann die Implementierung von Nvidia/AMD/Intel nutzen.
Entwickler machen vieles selbst nur um mehr Kontrolle über die Dinge zu bekommen.
Ubisoft hat zum Beispiel früher sehr oft Nvidias Algorithmen eingesetzt, hat mittlerweile aber überall bessere eigene Alternativen entwickelt, die besser zu ihrer Engine passen und setzt diese heute nur noch ein.

Unter anderem verlassen sie sich immer mehr auf KI. Sie lassen zum Beispiel ihren Quellcode von einer KI analysieren und natürlich wird auch in deren Spielen immer mehr auf KI gesetzt. https://montreal.ubisoft.com/en/our-engagements/research-and-development/

Eine eigene DLSS Entwicklung ist also alles andere als abwegig.

Ausser, dass sie das gleiche fuer AMD und Intel auch machen muessen. Ein DirectML Aufruf und das Netz, welches im Treiber ist wird genutzt ist um einiges effizienter.
Definitiv. Deswegen müssen die anderen Hersteller aber erstmal mit der entsprechenden Hardware her, damit MS auch weiß, wie DirectML vernünftig zu gestalten ist, damit man darüber alle Hersteller gleiechermaßen und ordnungsgemäß ansprechen kann.
Es nutzt ja nichts DirectML jetzt auf Nvidias Hardware zuzuschneiden und später passt die API dann nicht mit Intels oder AMDs Abläufen und Hardwarezugriffen zusammen.

Prinzipiell ja, aber nicht wenn es von den Entwicklern trainiert wird. Ausserdem zaehlt immer noch das Prinzip "crap in, crap out".
Wieso glaubst du, dass die Trainingsdaten von Nvidia so toll sind? Es ist immerhin ein allgemeingültiges Modell.

Wenn Ubisoft ihr eigenes DLSS anhand ihrer eigenen Spiele trainieren ließe, dann käme da auch was vernünftiges bei heraus. So wäre der Algorithmus genau auf die kleinen feinen Rendereigenschaften ihrer Engine angepasst.
Wenn die Engine zum Beispiel in bestimmten Situationen flackert, dann erkennen und unterdrücken die Ubisoft-Trainingsdaten das viel besser als die von Nvidia.

Da wird es auch in Zukunft sitzen (muessen). So wie es jetzt ist, ist es bei weitem zu umstaendlich.
Definitiv nicht, denn dann wird die Qualität wieder zu schlecht. Allein schon das pixelgenaue 2D UserInterface in den Spielen wirst du nicht einfach so verlustfrei vergrößern können. Dann wären wir wieder bei DLSS 1.0 Qualität.

Ambent Occlusion aktivierst du ja auch nicht im Treiber. Das ist nichts, was man nach den Postprocessing Filtern durchführen kann.

Da will ich aber erst unabhaengige Bestaetigungen sehen, weil die Behauptung ist, dass sich an der Genauigkeit und am Fehler nichts aendert. Das die letzten paar Stellen oft wenig ausmachen, ok, aber wie gesagt, das will ich unabhaengig bestaetigt sehen.
Kann ich persönlich nichts zu sagen, aber allein von meinem Verständnis her klingt das schon sehr einleuchtend.
Die Aussage gilt ja nur für Neuronale Netze und da gibt es ja hunderte und tausende von Faktoren und wenn die sich alle gegenseitig beeinflussen, dann spielt die Genauigkeit irgendwan keine so große Rolle mehr.
Da geht es dann nur noch groß darum welche Faktoren hin eine Rolle spielen und welche nicht. Ob das nun 5 Stellen nach dem Komma eine 1 oder eine 2 steht, ist dann auch egal. Neuronale Netze sind ja keine exakte Wissenschaft, sondern Bewertungsnetze.

Dass sich ein Shader verdoppelt von der Transistorzahl bezweifle ich aber, vor allem kann es sein, dass man dafuer andere Sachen rausschmeissen kann. Wenn man "alte" Funktionen nur noch approximiert kann das klappen. Aehnlich wie im Reinforcement Learning bei allem mit Deep, Q Table raus, Funktion durch neuronales Netz approximieren, funktioniert.
Naja, man weiß es nicht, aber ich denke Nvidia, Intel und auch die Smartphone GPU Hersteller machen das nicht ohne Grund die KI-Funktionalität in dedizierter Hardware zu implementieren.
 
Ja, das ist es wohl, das Niveau von AMD ist auf einem sehr niedrigen Level.
Meine AMD Ära endete mit dem Kauf eines Core I5 3570 und sehe seither keine Grund weshalb sich das ändern
könnte.
Bisher nur viel heiße Luft.
Daran ändert auch der erfolgreiche Ryzen nichts der fürs Zocken keinen wirklichen Vorteil mitbringt.
Naja mal sehen was AMD mit der neuen Radeon abliefert.
 
joel schrieb:
Ja, das ist es wohl, das Niveau von AMD ist auf einem sehr niedrigen Level.
Meine AMD Ära endete mit dem Kauf eines Core I5 3570 und sehe seither keine Grund weshalb sich das ändern
könnte.
Bisher nur viel heiße Luft.
Daran ändert auch der erfolgreiche Ryzen nichts der fürs Zocken keinen wirklichen Vorteil mitbringt.
Naja mal sehen was AMD mit der neuen Radeon abliefert.
Lieber heiße Luft als Schweizerkäse
 
Zuletzt bearbeitet:
Xtrasmart schrieb:
Ich stelle mir die Frage wo AMD Big-Navi einsortiert. Wenn sie mindestens eine Karte auf 3080 Niveau bauen können, dann ist 4 K eigentlich abgedeckt und ausgelutscht. 8 K Gaming ist aktuell Quatsch. Da sind sich wohl alle einig - außer Nvidia vielleicht.

Nope, Leistung kann man nie genug haben.

8k ist natürlich Quatsch.
Aber es gibt noch 4k @ High Details und 4K @120Hz @ High Details.

Da würde man auch locker die doppelte Leistung einer 3090 ausgelastet bekommen.

Schade das NV SLI abgewürgt hat, dafür wäre es geil gewesen.
Aber wer würde dann anstatt 2x 3080, einmal 3090 kaufen?

Mal sehen ob sich bei AMD mit Crossfire was tut.
Ich glaube aber nicht daran.
 
Zurück
Oben