nazgul77
Lieutenant
- Registriert
- Feb. 2006
- Beiträge
- 735
Stunrise schrieb:...der Release wird unter gar keinen Umständen noch 2020 stattfinden. Und wenn dann irgendwann im März die Karten veröffentlicht werden..
Ich wette €100 dagegen
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Stunrise schrieb:...der Release wird unter gar keinen Umständen noch 2020 stattfinden. Und wenn dann irgendwann im März die Karten veröffentlicht werden..
Wadenbeisser schrieb:Möglich ist vieles, deshalb hoffe ich einfach mal darauf.
Genau hier sehe ich aber keinen tieferen Sinn auf das Chip Design zu schließen denn das 2,5D Design betrifft letztendlich "nur" das Package da es hier um den Interposer Aufbau geht. Ich sehe wiederum keinen Grund warum in der GPU nicht beide Speichercontroller vorhanden sein sollten. Beim GDDR6 Einsatz wird das Die dann eben in ein klassisches Package verfrachtet und die Micro Bumps für den HBM2 Speicher bleiben ungenutzt und beim HBM Einsatz auf dem Interposer werden die Bumps für den GDDR6 Speicher tot gelegt. Welcher Speicher dann zum Einsatz kommt könnte entweder in den Chip gebrannt oder per Firmware entschieden werden.xXcanwriterXx schrieb:was jedoch zwei Varianten des Big-Navi-Chips nahelegen würde, da HBM2-Speicher ein 2,5D-Design erfordert
Holindarn schrieb:Soweit mir bekannt gab es bereits vor 1 Woche einen Hinweis in einem Linux Treiber commit auf die 2 N21 Varianten mit HBM2 und GDDR6
Wadenbeisser schrieb:Darum war mir auch Intels kostengünstigerer Kompromiss zum Interposer nicht entgangen, auch wenn mir entfallen ist wie das hieß.
Edit:
Gefunden! es war Embedded Multi-Die Interconnect Bridge (EMIB)
noxon schrieb:DLSS an sich ist grundsätzlich keine Nvidia spezifische Technologie, die speziell an ihre Hardware gebunden ist.
Das kannst du vergleichen mit einem Antialias-Verfahren. Es ist nur ein Algorithmus, den Spieleentwickler zum Beispiel auch selbst entwickeln könnten. Das ist nichts, was wirklich standardisiert werden muss/sollte. Genau so wenig, wie die ganzen verschiedenen Antialias-Verfahren standardisiert sind.
noxon schrieb:Nvidia bietet hier lediglich eine Bibliothek an, die Entwickler nutzen können um einen DLSS-Algorithmus mit Unterstützung der Tensor Cores durchführen zu können. Was fehlt ist eigentlich eine API für den standardisierten Zugriff auf diese KI-Cores.
Dies wird irgendwann mal DirectML sein, aber ich denke momentan ist das noch nicht wirklich ausgereift genug.
noxon schrieb:DirectML versucht also selbst zu bestimmen, wo die Sachen zu berechnen sind und ich kann mir gut Vorstellen, dass man damit nicht die optimale Performance hinbekommt, als wenn man es manuell über CUDA macht.
Deswegen wird Nvidia auch kein DirectML nutzen, sondern geht über ihre eigenen Schnittstellen. Ist einfach performanter und man hat mehr Kontrolle.
noxon schrieb:Ein besser ausgereiftes DirectML könnte aber in Zukunft die Schnittstelle sein über die auch AMD ihren DLSS Algorithmus berechnen wird. So ist dann jeder in der Lage eine hardwarebeschleunigte DLSS-Implementation zu schreiben. Davon gäbe es dann wahrscheinlich genau so viele Variationen wie Antialias-Verfahren heute und sie würden alle auf jeder Hardware laufen.
noxon schrieb:Soweit ist AMD aber noch nicht und da stellt sich die Frage, was sie momentan ohne dedizierte KI-Hardware tun können. Sie können zwar eine Bibliothek anbieten die den DLSS-Algorithmus auf den Shader-Cores berechnet, aber da stellt sich natürlich die Frage, ob das überhaupt Leistungsvorteile mit sich bringt. Schließlich nutzt es kostbare Shaderleistung, die man auch gleich zum Rendern der höheren Auflösung hätte verwenden können. Außerdem sind Shader bis zu 90% langsamer als potenzielle KI-Cores beim maschinellen lernen. Eine DLSS Lösung ohne dedizierte Hardware wird also wenig Sinn machen.
FwSteiner666 schrieb:Ja richtig schönes Clickbait, ist mir leider auch direkt aufgefallen. Sensationelle Überschrift, leerer Artikel.
DocWindows schrieb:Geh mal ruhig davon aus dass nVidia 100% DirectML kompatibel sein wird. Denn das alleine nützt gar nichts in Bezug auf DLSS. Irgendjemand muss einen Algorithmus entwickeln das genauso gut oder besser wie der von nVidia ist.
DocWindows schrieb:Und sollte es irgendjemandem aus irgendwelchen Beweggründen gelingen sowas zu entwickeln, dann kann nVidia das auch einfach nutzen/unterstützen. Ist ja DirectML kompatibel. DLSS bleibt hingegen nVidia-exklusiv. Genau wie es derzeit bei G-Sync vs. Adaptive Sync ist.
LencoX2 schrieb:Für den Massenmarkt muss AMDs neue GPU eigentlich "nur" 2080ti + Performance und 16 GB RAM bei grob 250 Watt mit leisem Luefter schaffen. Wenn sie die für 599 EUR bringen, wird sie ein Erfolg.
Ich würde es mit TXAA oder HBAO+ vergleichen. Das waren auch von Nvidia entwickelte AA und AO Algorithmen. Grundsätzlich war es aber nichts außergewöhnlich, wozu nicht jede Menge Alternativen entwickelt werden konnten.Kacha schrieb:Jain wuerde ich sagen. Ein gutes neuronales Netz zu designen ist durchaus spezifische Technologie, und natuerlich wird es fuer die eigene Hardware optimiert. Aber im Endeffekt ist es "nur" ein Algorithmus, der allerdings sehr spefizische Informationen benoetigt und integriert werden muss.
Solche KI-Cores wird jeder Hersteller benötigen. Intel Xe wird das definitiv bieten. KI Cores werden demnächst ja auch mit in die Intel CPUs mit einfließen. Auch AMD wird sich also darum kümmern müssen.Prinzipiell ja, aber was fehlt ist die Abstrahierung und gerade eben nicht der Zugriff auf die KI-Cores. Das muss unabhaengig vom Hersteller funktionieren, damit es gescheit nutzbar ist.
Kompatibel zu DirectML sind sie. Wie gesagt. Es steht jedem Entwickler frei ein eigenes DLSS zu schreiben, dass DirectML oder aber auch Vulkan nutzt.Naja, ich denke eher Nvidia wird gezwungen sein zu DirectML kompatibel zu sein.
Für die Studios die Implementation von DLSS nicht aufwendiger, bloß weil die Biblothek CUDA verwendet anstatt DirectML.Ja, es manuell zu machen ist performanter, aber eben auch umstaendlicher und aufwendiger. Wenn Nvidia dann immer noch Studios bezahlen will es manuell zu implementieren, ok, sollen sie halt. Aber Microsoft wird ihre eigene Schnittstelle pushen und wahrscheinlich sehr viel einfacher zu implementieren machen.
TAA halte ich eigentlich für deutlich aufwendiger und da musste sich jeder Entwickler in jedem Spiel immer selbst drum kümmern, wie dort die temporalen Artefakte zu verhindern sind. Hat auch Jahre gedauert, bis Entwickler das vernünftig in den Griff bekommen hatten.Naja, eher DirectML ruft die Implementierung vom Hersteller auf. Das jeder Hans sein DLSS implementiert bezweifle ich, dafuer ist es einfach extrem aufwendig. Das wird in Zukunft im Treiber sitzen und durch DirectML angesprochen.
Die können auch FP32 und FP64. Vor allen Dingen können die aber auch TF32 (Tensor Float 32), welche im Vorkommastellenbereich die Genauigkeit einer 32 Bit Floatingpoint Zahl aufweist, im Nachkommabereich aber nur die Genauigkeit einer 16 Bit Zahl. Die Verwendung solcher speziellen Datentypen kann das Training von Neuronalen Netzen zum Beispiel um das 3 - 6 fache steigern.Das kommt extrem auf die Shaderimplementierung an. Tensor Cores sind so "gut" weil sie extrem primitive Einheiten sind die nur Matrixmultiplikation koennen und dann auch noch auf einem Subset an Datentypen (In der Regel FP16 und nicht FP32).
Klar. Es wäre am besten, wenn die Shader so gebaut werden könnten, dass sie alle Datentypen und Operationen beherrschen würden.Mach deinen Shader dynamischer und supporte so etwas auch, und du bist um einiges weniger langsam. Zumal es auch extrem auf die Auslastung ankommt wie gross der Effekt ist. Und dann ist eben noch die Frage wie sich das ganze mit dem Cache schlaegt. Da sind viel zu viele Fragezeichen als das man jetzt schon sagen koennte, dass das nichts wird. Nur weil Nvidia es auf deren Weise loest, heisst es nicht, dass es nicht auch anders geht.
noxon schrieb:Dass DLSS jetzt auf speziell dafür nötige Hardware zugreift ist glaube ich nciht
noxon schrieb:Solche KI-Cores wird jeder Hersteller benötigen. Intel Xe wird das definitiv bieten.
noxon schrieb:Spieleentwickler kriegen das locker hin ihre eigenen Implementationen davon zu schreiben.
noxon schrieb:Für die Studios die Implementation von DLSS nicht aufwendiger, bloß weil die Biblothek CUDA verwendet anstatt DirectML.
Die binden nur die fertige DLL von Nvidia ein und rufen die Methoden auf, die Nvidia geschrieben hat.
Als Inputs verlangen die die niedrig auflösenden Bilder, Bewegungsvektoren, Jitteroffsets und Beleuchtungswerte und heraus kommen die hochauflösenden Bilder.
noxon schrieb:Statt mühsamer manueller Arbeit ist DLSS also ein datengetriebener automatisierter Ansatz, der die Arbeit eigentlich erleichtern sollte.
noxon schrieb:DLSS kann übrigens genau so wenig wie TAA im Treiber sitzen, da es in der Mitte der Renderpipeline angewendet werden muss.
noxon schrieb:Die können auch FP32 und FP64. Vor allen Dingen können die aber auch TF32 (Tensor Float 32), welche im Vorkommastellenbereich die Genauigkeit einer 32 Bit Floatingpoint Zahl aufweist, im Nachkommabereich aber nur die Genauigkeit einer 16 Bit Zahl.
noxon schrieb:Klar. Es wäre am besten, wenn die Shader so gebaut werden könnten, dass sie alle Datentypen und Operationen beherrschen würden.
Das wird sicherlich auch irgendwann wieder so kommen. Kennen wir ja aus der Vergangenheit, wo aus Pixel und Verteshader die gemeinsamen Unified Shader wurden. Das bedeutet aber auch, dass sie deutlich an Komplexität zunehmen würden und das ist momentan einfach noch nicht machbar, bzw. sinnvoll.
Was nutzt es die Shader universeller zu machen, wenn man dafür ihe Anzahl halbieren muss, weil sie auf einmal doppelt so viele Transistoren benötigen?
Intel hat ja schon ihre Alder-Lake CPU angekündigt, die komplett modular aufgebaut sein wird und auch KI-Cores enthalten wird.Kacha schrieb:Da gehe ich nicht komplett mit. Es wird mehr Optimierung fuer KI dabei sein, ja, aber ob es unbedingt extra Cores dafuer braucht ist eine andere Sache. Eine Integrierung ist genauso moeglich.
https://www.tomshardware.com/news/intel-xe-hp-hpc-graphics schrieb:Not surprisingly, Xe HP doesn't focus solely on standard GPU-type processing clusters. Like Nvidia's V100 and A100 (and Google's TPUs, Tensor Processing Units), Xe HP also includes tensor-style capabilities that should further improve computational performance. Like the A100 and TPU3, Xe HP also supports the bfloat16 format, which offers similar accuracy for AI purposes to FP32 but at twice the performance. (Technically, it has a wide range of values thanks to the 8-bit exponent, but limited precision of only 7-bits.)
Entwickler machen vieles selbst nur um mehr Kontrolle über die Dinge zu bekommen.Das ist Verschwendung von Zeit, Geld, und Ressourcen. Ein Netz zu optimieren benoetigt neben jeder Menge an Daten auch eine Menge Trainingszeit und die dazugehoerige Hardware. Hyperparametertuning faellt nicht einfach vom Himmel. Ich halte es fuer unwahrscheinlich, dass Spieleentwickler sich darum kuemmern werden. Die werden einen DirectML Aufruf nutzen und dann die Implementierung von Nvidia/AMD/Intel nutzen.
Definitiv. Deswegen müssen die anderen Hersteller aber erstmal mit der entsprechenden Hardware her, damit MS auch weiß, wie DirectML vernünftig zu gestalten ist, damit man darüber alle Hersteller gleiechermaßen und ordnungsgemäß ansprechen kann.Ausser, dass sie das gleiche fuer AMD und Intel auch machen muessen. Ein DirectML Aufruf und das Netz, welches im Treiber ist wird genutzt ist um einiges effizienter.
Wieso glaubst du, dass die Trainingsdaten von Nvidia so toll sind? Es ist immerhin ein allgemeingültiges Modell.Prinzipiell ja, aber nicht wenn es von den Entwicklern trainiert wird. Ausserdem zaehlt immer noch das Prinzip "crap in, crap out".
Definitiv nicht, denn dann wird die Qualität wieder zu schlecht. Allein schon das pixelgenaue 2D UserInterface in den Spielen wirst du nicht einfach so verlustfrei vergrößern können. Dann wären wir wieder bei DLSS 1.0 Qualität.Da wird es auch in Zukunft sitzen (muessen). So wie es jetzt ist, ist es bei weitem zu umstaendlich.
Kann ich persönlich nichts zu sagen, aber allein von meinem Verständnis her klingt das schon sehr einleuchtend.Da will ich aber erst unabhaengige Bestaetigungen sehen, weil die Behauptung ist, dass sich an der Genauigkeit und am Fehler nichts aendert. Das die letzten paar Stellen oft wenig ausmachen, ok, aber wie gesagt, das will ich unabhaengig bestaetigt sehen.
Naja, man weiß es nicht, aber ich denke Nvidia, Intel und auch die Smartphone GPU Hersteller machen das nicht ohne Grund die KI-Funktionalität in dedizierter Hardware zu implementieren.Dass sich ein Shader verdoppelt von der Transistorzahl bezweifle ich aber, vor allem kann es sein, dass man dafuer andere Sachen rausschmeissen kann. Wenn man "alte" Funktionen nur noch approximiert kann das klappen. Aehnlich wie im Reinforcement Learning bei allem mit Deep, Q Table raus, Funktion durch neuronales Netz approximieren, funktioniert.
Lieber heiße Luft als Schweizerkäsejoel schrieb:Ja, das ist es wohl, das Niveau von AMD ist auf einem sehr niedrigen Level.
Meine AMD Ära endete mit dem Kauf eines Core I5 3570 und sehe seither keine Grund weshalb sich das ändern
könnte.
Bisher nur viel heiße Luft.
Daran ändert auch der erfolgreiche Ryzen nichts der fürs Zocken keinen wirklichen Vorteil mitbringt.
Naja mal sehen was AMD mit der neuen Radeon abliefert.
Xtrasmart schrieb:Ich stelle mir die Frage wo AMD Big-Navi einsortiert. Wenn sie mindestens eine Karte auf 3080 Niveau bauen können, dann ist 4 K eigentlich abgedeckt und ausgelutscht. 8 K Gaming ist aktuell Quatsch. Da sind sich wohl alle einig - außer Nvidia vielleicht.