News AMD: Mögliche Antwort auf Nvidias DLSS via DirectML

AMD hat hier wirklich gute Chancen, nur müssen diese auch genutzt werden.

Bin zwar jemand mit Intel/nVidia, aber die Ryzen Prozessoren haben mich schon beeindruckt und auch die integrierte Vega Grafikeinheit. Könnte mir vorstellen im nächsten Jahr komplett auf AMD umzusteigen.
Da hoffe ich, dass sich einiges tut. Bin mir nur noch nicht sicher bezüglich Raytracing
 
TheBeastMaster schrieb:
- Cuda vs OpenCL
- PhysiX
- Stereoskopisches 3D mit Shutterbrille
- G-Sync (wird schon seinen Grund haben wieso Nvidia nun auch Freesync supporten will)

Cuda ist klar mächtiger und weiter verbreitet.
PhysX ist heute die meist verwendete physik bibliotek, auch auf konsolen.
G-Sync ist technisch überlegen, zudem AMD an Freesync nichts erfunden hat, die technik war vorhanden.

Der einziger grund wie so AMD immer nur kopiert und nichts "erfindet" liegt wohl daran das sie nicht die mittel dazu haben was eigenes auf die beine zustellen. Die nehmen das was sie am biligsten kriegen.

Bei AMD bekommt man halt nur FPS, derzeit nicht mal viele. NV investiert richtig viel geld, das muss auch wieder reinkommen.

So viel zu deiner theorie.
 
  • Gefällt mir
Reaktionen: Mumusud, Xidus, Zero_Point und 4 andere
usb2_2 schrieb:
DLSS ist ganz praktisch für langsamere GPUs, wenn es aber gut aussehen soll, dann kann man sowas nicht nutzen. So gesehen könnte die Grafik gleich schlechter aussehen und gut ist.

Gerade wenns gut aussehen muss, macht das Sinn.

Nvidia wird z.B. für DLSS zwei Modi anbieten. (gehe davon aus, dass AMD das auch tun wird)

Modus 1: Das Spiel wird mit einer geringeren Auflösung, als der Monitorauflösung berechnet und dann per DeepLearning Algo hochskaliert. Dadurch soll Leistung gespart werden. Die Bildqualität wird dabei ein wenig schlechter sein, als die native Auflösung, aber definitiv besser, als wenn man nur die niedrige Auflösung auf klassische Weise hochskalieren würde.

Modus 2 (DLSS 2X): Das Spiel rechnet in nativer Monitorauflösung und der Deep Learning Algo skaliert das Bild auf eine höhere Auflösung. z.B. von der nativen Monitorauflösung 1440p auf 4K. Wie im ersten Modus erhält man gegenüber der kleineren Auflösung einen Qualitätsgewinn, schärferes Bild, bessere Kantenglättung usw.
Nach dem Hochskalieren wird das verbesserte Bild dann wieder auf die native Monitorauflösung herunterskaliert.
Dadurch erhält man den klassischen Supersampling bzw. Downsampling effekt, der ja mittlerweile jedem Bildqualitätsfetischisten bekannt sein dürfte...

Man hat also quasi Supersampling "for free". Wenn man das vor 5 Jahren jemandem erzählt hätte, wär er vom glauben abgefallen... Upscaling mit Qualitätsgewinn? Eigentlich unmöglich.

Kann irgendwie selbst noch nicht glauben, dass durch DeepLearning Upscaling so ein extremer Qualitätsgewinn wie im Beispielbild im Artikel möglich ist. Klar, der eigentliche Detailgrad bzw. die Menge an erkennbaren Details steigt streng genommen nicht an, aber unscharfe bzw. "vergrößerte" Ränder oder vergrößerte Pixelmuster und Artefakte sind nicht vorhanden. Das Bild sieht halt nicht aus, als wärs hochskaliert worden, sonst würds aussehen, wie rechts im Beispiel... Und das ist schon ziemlich genial.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Hoebelix und neofelis
Hab gerade mal den Originalartikel gelesen auf dem diese Meldung ancheinend beruht.
Ist schon ein 3/4 Jahr alt.

Dabei scheint DirectML eine Teamleistung von Microsoft und nVidia zu sein. DirectML ermöglicht dem Entwickler DNNs zu nutzen ohne sich um die Hardware darunter kümmern zu müssen (Surprise Surprise)
Hardwarehersteller haben die Wahl wie sie die Verarbeitung der DNNs auf ihrer Hardware erledigen möchten. Entweder über Spezialeinheiten oder über klassische Shader. Man muss nicht mal gemeinsame HLSL Shader dafür nehmen. Jeder kann eigene, optimierte Commands über den Treiber zur Verfügung stellen. Es kann also alles hoch optimiert laufen.

Dürfte weder für nVidia noch für AMD ein grösseres Problem sein dies zu unterstützen. AMD kann dafür die brachliegenden Computeeinheiten nutzen und nVidia die Tensorcores.

Laggy.NET schrieb:
Kann irgendwie selbst noch nicht glauben, dass durch DeepLearning Upscaling so ein extremer Qualitätsgewinn wie im Beispielbild im Artikel möglich ist. Klar, der eigentliche Detailgrad bzw. die Menge an erkennbaren Details steigt streng genommen nicht an, aber unscharfe bzw. "vergrößerte" Ränder oder vergrößerte Pixelmuster und Artefakte sind nicht vorhanden. Das Bild sieht halt nicht aus, als wärs hochskaliert worden, sonst würds aussehen, wie rechts im Beispiel... Und das ist schon ziemlich genial.

Es ist ja auch kein Upscaling. DLSS ermittelt anhand von Erfahrungen von Vergleichsbildern wie Detais in einem detailarmen Bild aussehen müssen damit es glaubhaft und real aussieht. Es ergänzt Bilder mit neuen Daten und rechnet nicht einfach nur stumpf hoch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zero_Point, noxon, derSafran und 3 andere
Es ist ja nicht "for free". NV sieht hier spezielle Hardware vor und bei AMD müsste Rechenleistung für das Feature reserviert werden. Zudem muss der Algorithmus unfassbar aufwendig per Deep Learning für jedes Spiel erzeugt werden.
 
  • Gefällt mir
Reaktionen: noxon
Die DirectML könnte AMDs Grafikchips sehr, sehr gut entgegenkommen. Hatten die GPUs nicht immer das Problem, dass sie viel zu viele Shader hatten (Fiji mit 4.096 Stück davon) und diese nicht ausgelastet bekamen? Ja, so war das.

Mit dem Aufkommen von DirectX 12 und Vulkan und den AsyncShader gab es den ersten Hoffnungsschimmer für AMD, aber so richtig durchgesetzt hatte es sich nicht.

Dann probierte AMD mit der Sound-/Soundeffekterzeugung über (brachliegende) Shader die Auslastung weiter zu erhöhen - aber proprietäre Lösungen haben es schwer, sich durchzusetzen.

Und nun könnte mit DirectML tatsächlich DIE Technik kommen, um AMDs Universalchips (ich sag das mal so in direkter Abgrenzung zu Nvidias Gaming-Chips - wenig Shader, dafür exzellente Rasterizer-Leistung und ähnliches, was man eben so für (optimale) 3D-Grafikberechnung braucht) mit ihrer Rohleistung endlich (!) entsprechend zu würdigen!
 
  • Gefällt mir
Reaktionen: Casillas, dister1, Marflowah und 4 andere
acc schrieb:
dieser "vorteil" (stimmt ja auch nicht so ganz, siehe switch) gibt es jetzt seit wieviel jahren und wielange ist seitdem nichts vom "vorteil" zu spüren?

Merkt man doch. Alle Spiele sind auch noch sehr gut ohne Nvidia Grafikkarte spielbar, es fehlt meist gar nichts und schlecht aussehen tun die Spiele auch nicht. Seltenst, wenn überhaupt, hat das Grüne Team riesige Leistungsvorsprünge (auf dem selben Level, zb RX 580 vs 1060). Dazu setzen einige Studios auf DX12 und Vulkan, obwohl die Technik bei Nvidia meist nicht viel bringt.

Switch ist meiner Meinung nach eher nen Handheld. Kann ja auch nicht mit der aktuellen Gen mithalten was Leistung angeht (wie auch).
 
  • Gefällt mir
Reaktionen: katamaran3060 und Wonder Boy
Sieht gar nicht so übel aus für AMD.

16 GB sind ein satter Pluspunkt, und DLSS kommt nicht aus den Puschen. Die Liste der unterstützten Spiele ist sowieso ziemlich mager, geliefert wurde bisher fast gar nichts, vor allem das eigentlich interessante DLSS2X glänzt durch Abwesenheit.
 
  • Gefällt mir
Reaktionen: GERmaximus
SlaterTh90 schrieb:
Merkt man doch. Alle Spiele sind auch noch sehr gut ohne Nvidia Grafikkarte spielbar, es fehlt meist gar nichts und schlecht aussehen tun die Spiele auch nicht. Seltenst, wenn überhaupt, hat das Grüne Team riesige Leistungsvorsprünge (auf dem selben Level, zb RX 580 vs 1060). Dazu setzen einige Studios auf DX12 und Vulkan, obwohl die Technik bei Nvidia meist nicht viel bringt.

also wie schon über die jahre zuvor auch. also wo genau ist der vorteil? gleichauf ist alles mögliche, nur eben kein vorteil ;).
 
Dural schrieb:
Der einziger grund wie so AMD immer nur kopiert und nichts "erfindet"...

Deine ganze Auflistung besteht in erster Linie aus kompletten Alleingängen von NVidia um die "Kunden" an NVidia-Hardware zu binden, AMD hingegen setzt zumindest fast ausschließlich auf interoperable Lösungen.

NVidia ist ein rein oppertunistischer Laden, welcher Dir versucht wo es nur geht mit aller gewalt einen Vendor-Lock-In reinzudrücken. Und dort wo die Konkurrenz mal vorraus ist (Async-Shader, Direct3D 12, Vulkan [=ehem. Mantle, freundlicherweise von AMD für alle als Basis für Vulkan veröffentlicht]) wird blockiert so gut es nur geht.
 
Zuletzt bearbeitet: (Wording gefixt, danke @Unnu)
  • Gefällt mir
Reaktionen: CMDCake, katamaran3060, northly und 7 andere
Dural schrieb:
Der einziger grund wie so AMD immer nur kopiert und nichts "erfindet" liegt wohl daran das sie nicht die mittel dazu haben was eigenes auf die beine zustellen. Die nehmen das was sie am biligsten kriegen.

Bei AMD bekommt man halt nur FPS, derzeit nicht mal viele. NV investiert richtig viel geld, das muss auch wieder reinkommen..

Dann sollten wir alle mehr AMD Karten kaufen, damit die mal Geld reinbekommen.
 
  • Gefällt mir
Reaktionen: katamaran3060, Frommi32, Mort626 und eine weitere Person
Auch in diesem Interview mit der AMD Chefin liest man leider zwischen den Zeilen, dass man bei den Grafikkarten weiterhin Mühe hat mitzuhalten. Man hat zwar mit Freesync recht behalten, aber letztendlich brachte dass AMD keinerlei Gewinn oder Vorteil, sondern nur einen Prestigesieg, welcher aber keinen Aktionär beendruckt und schon gar kein Geld in die Kasse spült.

Glücklicherweise stellt sich AMD zumindest mit ihren brauchbaren CPUs breit auf, so dass man dort gut mithalten kann. Ich prophezeie aber auch die nächsten 18 Monate nichts Bahnbrechendes bei den Grafikkarten womit man NVIDIA überflügeln könnte, so dass man nur erneut am Preis schrauben kann, womit man seit Jahren nur ein Low Budget Clientel binden kann.

Ich bin aber weiterhin AMD sehr dankbar, dass man INTEL mit den lange zurückgehaltenen Kernen in den Hintern getreten hat und Freesync etablieren konnte. Nun wird es aber Zeit bei den Grafikkarten mal wieder etwas Bahnbrechendes zu bringen.

Die letzte Karte die wirklich besser als von NVIDIA gewesen ist, war die 1900 XTX aus dem Jahr 2006, die bei mir damals aber sehr schnell kurz nach Garantieablauf aufgrund der hohen Taktung und der stetigen Hitze (ein häufiges AMD Problem auch der aktuellen Generation) kaputt ging.
 
  • Gefällt mir
Reaktionen: cbmik
TheBeastMaster schrieb:
Wird in vielen Anwendungen genutzt. Gerade im Machine Learning Bereich.
TheBeastMaster schrieb:
Ist in so gut wie jedem aktuellen Spiel. In UE4 nutzt die Physikengine standardmäßig PhysX.
TheBeastMaster schrieb:
- G-Sync (wird schon seinen Grund haben wieso Nvidia nun auch Freesync supporten will)
Weil es mit irgendeinem neuen Monitorstandard von den Karten mit der Zeit unterstützt werden muss.
 
@acc
Wenn es nur den PC-Markt gäbe, würde die Content-Spiele-Industrie AMD nicht mehr wirklich jucken.
Und das ist auch wo Dural Unrecht hat, klar ist der Forschungsetat von AMD kleiner, aber das hindert sie nicht
Sachen zu entwickeln. Aber sowohl bei CPUs als auch bei GPUs bringt es ihnen wenig Vorreiter zu sein, denn der Markt wird vorrangig auf den Platzhirsch schauen.
Die Konsolen helfen AMD, aber sie sind sicher nicht zu vergleichen mit NVidias Programmen zur Zusammenarbeit mit Spieleentwicklern.
 
Dural schrieb:
Cuda ist klar mächtiger und weiter verbreitet.
PhysX ist heute die meist verwendete physik bibliotek, auch auf konsolen.
G-Sync ist technisch überlegen, zudem AMD an Freesync nichts erfunden hat, die technik war vorhanden.

Der einziger grund wie so AMD immer nur kopiert und nichts "erfindet" liegt wohl daran das sie nicht die mittel dazu haben was eigenes auf die beine zustellen. Die nehmen das was sie am biligsten kriegen.

Bei AMD bekommt man halt nur FPS, derzeit nicht mal viele. NV investiert richtig viel geld, das muss auch wieder reinkommen.

So viel zu deiner theorie.


Vielleicht nicht die besten Beispiele, mag sein. Bei PhysiX meine ich wird doch alles nur noch in Software berechnet.

Was kann denn G-Sync besser als Freesync? Der Hauptvorteil bei G-Sync resultiert doch daraus das Nvidia aktuell einfach die schnelleren GPUs hat oder nicht? Nebenbei hab ich nciht gesagt das AMD Freesync erfunden hat. Sie setzen einen VESA Standard um.

Ich hab lieber offene Standards die mich nicht zwingen bei einem Hersteller zu bleiben.
 
  • Gefällt mir
Reaktionen: katamaran3060, valnar77, Forum-Fraggle und eine weitere Person
Finde die Umsetzung Von RTX und DLSS mal wieder richtig Nvidia-typisch im negativen Sinn.
Erstmal einen Alleingang veranstalten, anstatt dem Kunden gleich industrieweite Lösungen anzubieten.

Dazu Preistreiberei und der knappe Vram und ich bleibe wohl wirklich noch solange bei meiner 750 TI bis die mal den Geist aufgibt, ich einen moderneren Moni anschließen will oder AMD mal wieder etwas überzeugendes im TDP Bereich <~ 100W bringt.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Botcruscher schrieb:
Das nehm ich dir erst ab wenn dazu ordentliche Tests vorliegen. Bis dahin bleibt es eine Interpolation.

Schau doch nochmal in den Artikel/News. Da hast du den direkten Vergleich zwischen Deep Learning Upscaling und klassischem Upscaling. Das Ergebnis spricht ja wohl eindeutig für DeepLearning.

Ausser man behauptet jetzt, das wäre Fake und Microsoft würde lügen...
 
TheBeastMaster schrieb:
Was kann denn G-Sync besser als Freesync?

Variablen Overdrive. Anscheinend waren bisher alle Scaler- und Monitorentwickler zu geizig, so etwas zu implementieren.

In den ersten Tests hieß es auch, dass man den Übergang auf LFC bei Freesync sehen kann (vielleicht wegen des fixen Overdrive ?). Ob sich daran inzwischen etwas geändert hat, ist mangels ausführlicher Tests leider nicht in Erfahrung zu bringen.
 
  • Gefällt mir
Reaktionen: noxon, TheBeastMaster, cruse und eine weitere Person
0xffffffff schrieb:
NVidia ist ein rein opportuner Laden
Das Wort das Du suchst, heißt Opportunistisch! Opportun hat in diesem Kontext die gegenteilige Bedeutung. ;)
 
Zurück
Oben