• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Starfield: Technik-Partnerschaft mit AMD könnte DLSS blockieren

CadillacFan77 schrieb:
Klar schwankt die Qualittät - aber wohl kaum wegen AMDs Technik (Technik verhält sich immer gleich), sondern eher wegen der Implementierung - ist ja auch bei DLSS so.
Das stimmt so nicht.

Nvidia ist ja auch von dem Irrweg abgekommen wie bei DLSS 1 enorme Anpassungen für jedes Spiel vorzunehmen. Hin zu einem neuronale Netzwerk für alle Spiele.

Wenn FSR in einigen Spielen nicht gut funktioniert bzw. Spieleentwickler zu viel an Parametern tweaken müssen, dass es gescheit funktioniert, dann sehe ich AMD in der Verantwortung diesen Process zu vereinfachen.

CadillacFan77 schrieb:
Ähm, OpenCL IST diese genannte Schnittstelle (funktioniert auch auf CUDA - nur nicht ganz so schnell). Aber eben WEIL CUDA der Defacto Standard ist, wird nix mehr gemacht -> Genau das was ich bei DLSS befürchte.
Die Nachteile listest du bzw. Chatgpt selber.

Der Punkt ist jedoch, es gibt keine wirklich gute Möglichkeit gleichzeitig CUDA und OpenCL zu unterstützen.
Wenn du ein Projekt beginnst, musst du dich entscheiden: Setzt du auf CUDA oder auf OpenCL. Oder du hast doppelte Arbeit.

Das ist ein riesiger Unterschied zu DLSS, wo es absolut kein Problem ist zu sagen: Ich unterstütze FSR und Freesync und XeSS und wegen mir noch anderes Zeug.
 
Tuxgamer12 schrieb:
Das stimmt so nicht.

Nvidia ist ja auch von dem Irrweg abgekommen wie bei DLSS 1 enorme Anpassungen für jedes Spiel vorzunehmen. Hin zu einem neuronale Netzwerk für alle Spiele.

Wenn FSR in einigen Spielen nicht gut funktioniert bzw. Spieleentwickler zu viel an Parametern tweaken müssen, dass es gescheit funktioniert, dann sehe ich AMD in der Verantwortung diesen Process zu vereinfachen.
Auch DLSS funktioniert nicht überall gleich gut. Muss nVidia also auch diesen Process vereinfachen?

Oder vielleicht ist das schon soweit wie möglich vereinfacht, sowohl bei AMD und bei nVidia. Und daher sind die Spieleentwickler in der Pflicht, ihre Engine(s) und Spiele für gute Ergebnisse anzupassen. Das müssen sie sowieso, unabhängig von FSR oder DLSS. Aber eben, wo steckt man am meisten Aufwand rein? Dort wo man die meisten Leute erreicht - zumindest in der Regel. Und wenn DLSS Standard ist, legt man dahin das Augenmerk und alle FSR Nutzer gucken in die Röhre. Ausser der Entwickler ist "lieb" und optimiert beide Technologien gleichermassen. Das kommt aber selten vor - aber (noch) kommt es diverse Tests von Games zeigen das (z.Bsp Diablo 4).

Aber ist halt trotzdem nix mit "kostet nur paar Stunden Aufwand".

Tuxgamer12 schrieb:
Die Nachteile listest du bzw. Chatgpt selber.
Klar, unbestritten gibt es auch Nachteile. Optimal wären eben zwei offene Standards (Open DLSS und FSR). Aber "Kundenwahl" ist definitv KEIN ARgument für DLSS.


Tuxgamer12 schrieb:
Der Punkt ist jedoch, es gibt keine wirklich gute Möglichkeit gleichzeitig CUDA und OpenCL zu unterstützen.
Wenn du ein Projekt beginnst, musst du dich entscheiden: Setzt du auf CUDA oder auf OpenCL. Oder du hast doppelte Arbeit.
Richtig, und genau das gilt es zu vermeiden. Darum ist es wichtig, dass beide Technologien etwa gleich verbreitet sind UND auch von jedem genutzt werden können. Denn dann muss man sich als Entwickler zwar noch immer entscheiden, aber die KUNDEN können nutzen was sie wollen.
Und nur weil es im Moment noch "relativ einfach" ist, FSR und DLSS gleichzeitig zu implementieren, heisst das noch lange nicht, dass es das auch in Zukunft ist. Erste Einschränkungen sieht man ja schon bei DLSS3 resp. FG, was nicht auf "alten" RTX Karten läuft. Oder laufen soll - gemäss nVidia.

Übrigens, auch die KI (die vermutlich sogar auf CUDA läuft :D) antwortet etwa das, was man 1:1 auf ein Open-DLSS übertagen könnte.

If CUDA were not proprietary to NVIDIA hardware and became a more open and cross-platform programming model, it could have several potential impacts:
  1. Increased hardware compatibility: Opening up CUDA to non-NVIDIA hardware would greatly enhance compatibility across different GPU architectures. Developers would have the freedom to choose GPUs from various vendors based on their specific requirements, without being locked into a single hardware provider. This would foster competition and innovation in the GPU market, leading to a wider range of GPU options for users.
  2. Expanded ecosystem and community: Opening CUDA to non-NVIDIA hardware would likely result in a larger and more diverse developer community. With more developers able to contribute to the CUDA ecosystem, the availability of libraries, tools, and resources would increase, fostering a more vibrant and collaborative environment. This would facilitate the sharing of knowledge, best practices, and performance optimizations across a broader range of hardware platforms.
  3. Improved portability and flexibility: The portability of CUDA applications would be greatly enhanced if they could run on GPUs from different vendors. Developers would have the flexibility to target multiple GPU architectures without having to rewrite or adapt their code for different programming models. This would simplify the development process and enable easier migration of existing CUDA applications to different platforms.
  4. Enhanced competition and innovation: Opening up CUDA to non-NVIDIA hardware would create a more level playing field in the GPU market. It would encourage other GPU vendors to invest in their hardware and software ecosystems, driving competition and innovation. The availability of a common programming model across different GPU architectures would enable developers to choose the best hardware for their specific needs, fostering advancements in GPU technology and performance.
  5. Broader adoption in research and industry: The broader compatibility and increased accessibility of CUDA would likely lead to its wider adoption in research and industry. CUDA has already established itself as a popular choice for GPU-accelerated computing, and opening it up to non-NVIDIA hardware would make it even more appealing for a broader range of applications. This could lead to accelerated advancements in fields such as scientific computing, machine learning, data analytics, and more.
It's important to note that while these potential impacts are positive, they also depend on factors such as the level of industry support, the availability of development tools and resources, and the commitment of GPU vendors to embrace an open CUDA ecosystem. Nevertheless, a more open and cross-platform CUDA would likely bring about significant changes in the GPU programming landscape, benefiting developers, researchers, and users alike.
 
CadillacFan77 schrieb:
Auch DLSS funktioniert nicht überall gleich gut. Muss nVidia also auch diesen Process vereinfachen?
Beispiele?

Wenn ich z.B. Tests hier auf Computerbase lese, haben die eigentlich nie wirklich was an DLSS auszusetzen. Ist letzendlich ja auch ein neuronales Netzwerk - da gibts nicht so viele Parameter zu tweaken. Der Entwickler kann irgendwo aus 5 Profilen auswählen, das wars aber schon.

Große Unterschiede gibt - oder gab? - es eher zwischen DLSS-Releases. Weshalb es mal eine Möglichkeit war, (oder noch ist?) für das DLSS die dll mit einer neuerer auszutauschen.

Das größte Problem ist logischerweise höchstens, wenn deine Movement Vektoren nicht passen. Aber das wird dir bei FSR genau die gleichen Probleme bereiten.

CadillacFan77 schrieb:
Aber ist halt trotzdem nix mit "kostet nur paar Stunden Aufwand".
So schnell wie Modder da herum basteln, kann der Aufwand nicht groß sein.

CadillacFan77 schrieb:
Und nur weil es im Moment noch "relativ einfach" ist, FSR und DLSS gleichzeitig zu implementieren, heisst das noch lange nicht, dass es das auch in Zukunft ist. Erste Einschränkungen sieht man ja schon bei DLSS3 resp. FG, was nicht auf "alten" RTX Karten läuft. Oder laufen soll - gemäss nVidia.
Du hast noch kein Argument oder wenigstens in irgendeiner Form pausibel gemacht, wieso das so sein soll.

Inwiefern macht DLSS3 die gleichzeitige Implementierung von FSR und DLSS schwieriger? Das einzige was das doch macht ist, dass das FG-Feature halt nur auf neuen Grafikkarten funktioniert.

Desweiteren bräuchten Entwickler in Zukunft nur noch Streamline zu implementieren - und schon würde DLSS, FSR, XeSS, ... laufen. Es ist also eher davon auszugehen, dass es einfacher wird.

Schwieriger könnte es doch nur werden, sollte AMD die Implementierung von FSR schwieriger machen? Oder was?
Ergänzung ()

CadillacFan77 schrieb:
Klar, unbestritten gibt es auch Nachteile. Optimal wären eben zwei offene Standards (Open DLSS und FSR). Aber "Kundenwahl" ist definitv KEIN ARgument für DLSS.
Ich kann verstehen, wieso du gerne DLSS auf deiner AMD-GPU hättest.
Ich habe bereits gesagt, natürlich wäre mir DLSS als Open Source lieber.
Ändert halt nichts daran, dass Nvidia keine gemeinnützige Organisation ist. Nvidia hat das ganze Upscaler-Thema nur deshalb letzendlich erschaffen um Grafikkarten zu verkaufen.

Also von daher ist anzunehmen dass die Alternative zu Closed DLSS gewesen wäre: Kein DLSS und damit auch kein FSR (weil FSR gibts wohl nur als Antwort auf DLSS).

Und ist ja nicht so, dass das Upscaler abgeschlossen ist. Wir haben an dieser Stelle immer noch viel Innovation. AMD würde auch an keiner Frame-Generation arbeiten, wenn nicht als Antwort auf Nvidia.

Weil wie bereits gesagt, so funktioniert der Kapitalismus.

Und letzer Nachtrag:

Ich wäre voll bei dir, wenn in irgendeiner Form anzunehmen wäre, dass Upscaler eine Nvidia-only Technologie werden könnte. Aber alle Fakten sprechen klar dagegen und ich sehe kein Problem, wenn AMD-Chips sich mit einer Lösung von AMD begnügen müssen.
 
Zuletzt bearbeitet von einem Moderator:
N0FX schrieb:
Das ist ja eben genau falsch, 83 % nutzen nVidia aber vielleicht die Hälfte davon könnte DLSS nutzen. Bleiben also wahrscheinlich 60 % oder mehr die nichts von "DLSS only" haben. ;)
Und selbst dieser Anteil ist wahrscheinlich größer als der komplette Marktanteil von AMD. Mal abgesehen davon, ist FSR Scheiße gewesen. Wieso sollte das jemand einbauen?
 
Tuxgamer12 schrieb:
Wenn du ein Projekt beginnst, musst du dich entscheiden: Setzt du auf CUDA oder auf OpenCL. Oder du hast doppelte Arbeit.
Da haben wir dass Hauptproblem der Heutigen Entwickler keine Zeit und Kein Interesse an wirklich guten umstetzungen, aber NVIDIA ist mit Schuld an der ganzen Sache.

Deswegen finde ich es lustig dass NV eine RTX4060/ti mit 16GB gebracht hat wo der Speicher dank der Faulheit der Entwickler nicht mehr reicht. 😉

Cuda ist halt auch NVIDIA only und nix Frei für alle wie der Rest von NVIDIA. 😉
 
Tuxgamer12 schrieb:
Beispiele?

Wenn ich z.B. Tests hier auf Computerbase lese, haben die eigentlich nie wirklich was an DLSS auszusetzen. Ist letzendlich ja auch ein neuronales Netzwerk - da gibts nicht so viele Parameter zu tweaken. Der Entwickler kann irgendwo aus 5 Profilen auswählen, das wars aber schon.
Dann überliest Du einige Probleme:

TLoU:
Wo sowohl DLSS als auch FSR Probleme haben, ist bei den Reflexionen im Wasser. Hier gibt es mit dem spieleigenen TAA schon leichte Grafikfehler, mit AMDs und Nvidias Technologie werden diese dann jedoch noch intensiviert. Das sieht störend aus, doch da größere Wasserflächen in TLoU Part I eher selten sind, fällt das große Ärgernis aus. Dasselbe gilt für sonstige Grafikfehler: DLSS schmiert bei einigen Elementen sichtbar, FSR kommt dagegen bei feinsten Objekten nicht zurecht und flimmert dann deutlich.
Hogwarts:
Bei DLSS setzen die Entwickler auf die erstaunlich alte Version 2.3.11, die in dem Spiel aber dennoch ein ziemlich gutes Ergebnis erzielt. Von Zeit zu Zeit hat DLSS 2 in dem Spiel zwar mit massivem Ghosting zu kämpfen, das ist aber nur ganz selten der Fall. Das zusätzlich angebotene Nachschärfen sollte allerdings abgeschaltet bleiben (ist es werksseitig), da es keine guten Ergebnisse erzielt.
Da gibts auch noch einen Abschnitt der DLSS3 beleuchtet und Probleme damit.

Atomic Heart:
Obwohl DLSS Super Resolution in dem Spiel absolut konkurrenzlos ist – und jeder, der auf der Suche nach mehr Leistung ist, DLSS allen anderen Optionen klar vorziehen sollte –, hinterlässt der KI-Algorithmus in Atomic Heart einen weniger überzeugenden Eindruck als in den meisten anderen neueren Games. Das Ganze erinnert ein wenig an eine frühere Implementierung. Daher ist es nicht ratsam, DLSS in Atomic Heart generell zu aktivieren. Hier sollte vorher ausprobiert werden, was dem eigenen Empfinden besser gefällt.

EDIT: Oder guck gerade beim Jagged Alliance Test, da scheint XeSS sogar besser implementiert zu sein als DLSS. Es gibt also wie ich gesagt habe durchaus Aufwand, es (damit ist DLSS, FSR und XeSS gemeint) vernünfitg zu implementieren. Und das wird auch Zeit kosten.

Tuxgamer12 schrieb:
Du hast noch kein Argument oder wenigstens in irgendeiner Form pausibel gemacht, wieso das so sein soll.
Ich habe das CUDA Beispiel genannt und da nVidia kein Samariter ist (im Gegenteil) reicht eigentlich gesunder Menschenverstand das zu verstehen.
Ausser man WILL es nicht sehen....
Tip: Lies mal den Post von SubNatural

Tuxgamer12 schrieb:
Ich kann verstehen, wieso du gerne DLSS auf deiner AMD-GPU hättest.
Brauche ich nicht (auch FSR nicht), da ich nur FHD zocke.

Tuxgamer12 schrieb:
Ich habe bereits gesagt, natürlich wäre mir DLSS als Open Source lieber.
Ändert halt nichts daran, dass Nvidia keine gemeinnützige Organisation ist. Nvidia hat das ganze Upscaler-Thema nur deshalb letzendlich erschaffen um Grafikkarten zu verkaufen.
Richtig. Und zwar möglichst teuer und möglichst oft. Was grundsätzlich doch schlecht für uns Kunden ist, oder etwa nicht? Wir wissen doch beide, was passiert wenn es keine Konkurrenz gibt, oder?

Und klar, es ist legitim Technologien zu entwickeln und diese als Selling Point zu nutzen. Sage ich auch gar nichts gegen. Ich finde die Entwicklung von DLSS super! Aber als Marktführer die Situation auszunutzen und mit der Marktmacht noch mehr Kundenbindung zu forcieren finde ich schlecht. Da ist es "gut" für uns Kunden, wenn die Kokurrenz mit harten, ggf. sogar etwas schady Aktionen dagegen ankämpft.
Wäre andersrum übrigens genauso.

Tuxgamer12 schrieb:
Also von daher ist anzunehmen dass die Alternative zu Closed DLSS gewesen wäre: Kein DLSS und damit auch kein FSR (weil FSR gibts wohl nur als Antwort auf DLSS).
Upscaling ist grundsätzlich nicht neu und es ist klar, dass sich die Technik in diese Richtung entwickelt und entwickeln muss. Daher würde ich das so nicht sagen.

Tuxgamer12 schrieb:
Ich wäre voll bei dir, wenn in irgendeiner Form anzunehmen wäre, dass Upscaler eine Nvidia-only Technologie werden könnte.
Ich eben schon. Wie gesagt, wenn "jeder" (>80% der Spieler) DLSS nutzen kann, warum sollten Entwickler dann noch auf FSR zurückgreifen? Das sind auch gewinnorientierte Unternehmen, die kein Geld verschenken. Alternativ kann AMD dann sponsoren, damit FSR für AMD Karten implementiert wird. Dann fehlt dieses Geld aber wiederum in AMDs Entwicklung der Hardware. Dann wird der Gap zwischen AMD und nVidia noch grösser und nVidia noch gewichtiger am Markt. Das kann einfach nicht im Interesse der Kunden sein.

Tuxgamer12 schrieb:
Aber alle Fakten sprechen klar dagegen und ich sehe kein Problem, wenn AMD-Chips sich mit einer Lösung von AMD begnügen müssen.
Ich auch nicht, sofern AMDs Lösung implementiert wird. Was ich langfristig bezweifle, wenn es sich weiter so entwickelt mit DLSS und nVidias push dafür.
Schau doch mal im Forum, DLSS ist für viele ein Grund nVidia Karten zu kaufen (verständlich). Wohin das führt, resp. das Ungleichgewicht am Markt sehen wir aktuell ja an den "super" Karten, die nVidia zu "super Preisen" anbietet. Und alle sind am whinen. Merken aber nicht mal, dass sie selbst der Grund für diese Situation sind.

Damit meine ich nicht, dass AMD Karten besser sind. Im Gegenteil. nVidia hat definitv die bessere Technik und auch das bessere Softwareset. Unbestritten. Warum ich trotzdem ne AMD Karte habe? Weil ich auch in Zukunft Konkurrenz am Markt will.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
CadillacFan77 schrieb:
Dann überliest Du einige Probleme:
Ich schrieb von Schwierigkeiten / Unterschieden in der Implementierung.

Nicht von allgemeinen Probleme, die Upscaler machen (TLoU) und Unterschiede zwischen den Versionen (Hogwarts, Atomic Heart) habe ich selber in meinen Beitrag geschrieben.

Selbst z.B. die DLSS-Mods in Jedi Survivor laufen sehr gut.

CadillacFan77 schrieb:
Ich habe das CUDA Beispiel genannt und da nVidia kein Samariter ist (im Gegenteil) reicht eigentlich gesunder Menschenverstand das zu verstehen.
Ausser man WILL es nicht sehen....
Tip: Lies mal den Post von SubNatural
Ich habe mehrfach (!) geschrieben, Nvidia ist keine gemeinnützige Organisation. Also tu bitte nicht so, als würde irgendetwas anderes überhaupt zur Diskussion stehen.

Darüber hinaus antworte bitte, auf das was ich geschrieben habe - und nicht auf etwas völlig anderes. Es ging um diesen Satz hier von dir:

"Und nur weil es im Moment noch "relativ einfach" ist, FSR und DLSS gleichzeitig zu implementieren, heisst das noch lange nicht, dass es das auch in Zukunft ist."

Weil ich wüsste nicht, inwiefern hier CUDA ein Beispiel ist. Oder war in den Anfangstagen es nahezu trivial OpenCL und CUDA zu implementieren und das hat sich dann (wieso auch immer) geändert?

CadillacFan77 schrieb:
Upscaling ist grundsätzlich nicht neu und es ist klar, dass sich die Technik in diese Richtung entwickelt und entwickeln muss. Daher würde ich das so nicht sagen.
Upscaling war die ganze letzte Konsolengeneration bereits quasi Standard ohne dass sich etwas auf dem PC getan hat.
Selbstverständlich gäbe es trotzdem irgendwo Upscaling. Aber dann wohl weiter als Inhouse-Lösungen wie von Remedy oder in der RE-Engine. Unwahrscheinlich, dass sich ohne die Iniative offene Alternativen etabliert hätten in dem Sinne: Jedes Entwicklerstudio kann diese einfach implementieren.

CadillacFan77 schrieb:
Ich eben schon. Wie gesagt, wenn "jeder" (>80% der Spieler) DLSS nutzen kann, warum sollten Entwickler dann noch auf FSR zurückgreifen?
Weil 10-20% der Spieler immer noch viel ist im vergleich zu dem Aufwand?
Der sich durchaus auch auf nahe 0 belaufen kann, wenn du Unreal / Unity nutzt oder das dann künftig über Streamline laufen lässt.

CadillacFan77 schrieb:
Damit meine ich nicht, dass AMD Karten besser sind. Im Gegenteil. nVidia hat definitv die bessere Technik und auch das bessere Softwareset. Unbestritten. Warum ich trotzdem ne AMD Karte habe? Weil ich auch in Zukunft Konkurrenz am Markt will.
Schon. Meine vorletzte Grafikkarte war deshalb auch AMD. Die jetzige Nvidia, weil AMD zu dem Kaufzeitpunkt nichts RT-fähiges anbieten konnte.
Jetzt würde ich wahrscheinlich wieder zu AMD greifen, weil ich auch sagen würde: VRAM > DLSS. Aber gut, kaufe gerade keine Grafikkarte, weil das kann ich beim jetztigen Spielemarkt nicht gerechtfertigen.

Der Punkt ist aber, konkurierende Technologie wegkaufen kann in jeden Fall nicht die Antwort sein.
 
Tuxgamer12 schrieb:
Vlt. Wahrheiten wie du sie lesen willst. Der winfuture Artikel ist einfach in keinster Hinsicht gut. Und weil winfuture irgendwo irgendetwas zusammenschreibt wird es noch keine Wahrheit.
Du machst dich ja lächerlich, wenn du Fakten klein redest, nur weil sie in einem Artikel stehen, von Leuten die du nicht magst?

Nach dem Motto, was über nVidia gesagt wird stimme nicht. Was über AMD gesagt wird stimmt, da negativ.
 
AYAlf schrieb:
Du machst dich ja lächerlich, wenn du Fakten klein redest, nur weil sie in einem Artikel stehen, von Leuten die du nicht magst?
Geb ich zurück. Der Artikel hat für seine Aussage keinerlei Beleg oder Quelle. Ich dagegen habe die Sachlage in meinem Beitrag genaustens analysiert - Fakten die dir anscheinend egal sind.
 
So zurück zum Thema, also erstens halten wir fest Entwickler sind recht faul zum Teil und haben zu viel Zeitdruck dass nutzen Nvidia und AMD auch Intel gerne aus so der Punkt.

Für uns Kunden ist es egal wer es ausnutzt wir sind immer die Verlierer außer Intel bekommt die hufe Hoch im GPU Bereich würde Nvidia mal nicht schaden.
Wie gesagt man sieht es ja bei den Konsolen Ports, die auch zunehmen werden dank ihrer Markt dort spielt VRam keine rolle im PC-Bereich dank NV dominatzt schon.

Da sind wir wieder bei Monopolen siehe Intel Damals mit meinen i5-6600 der hat 350€ gekostet.
 
SubNatural schrieb:
Und selbst dieser Anteil ist wahrscheinlich größer als der komplette Marktanteil von AMD. Mal abgesehen davon, ist FSR Scheiße gewesen. Wieso sollte das jemand einbauen?
Und ein GTX1080-Besitzer denkt auch bestimmt: "FSR war mal scheiße und ist jetzt ganz OK aber es ist von AMD, deshalb nutze ich es aus Prinzip nicht!" :rolleyes:


Selten so einen Schmarn gelesen...
 
  • Gefällt mir
Reaktionen: AYAlf, TigerherzLXXXVI, Scheinriese und eine weitere Person
Das Problem ist, dass es einfach zu viele Geforce-Besitzer im PC-Bereich gibt. Und gefühlt haben viele von ihnen leider eine deutliche Abneigung gegenüber AMD-Grafikkarten. Daher kommt dieser völlig überzogene Aufschrei zustande. Als befänden sie sich fast schon im Krieg gegen Team Rot. Wenn man jetzt noch bedenkt, dass ein großer Anteil von ihnen mit Sicherheit eine Ryzen-CPU in ihrem Rechner hat, wird das Ganze noch fragwürdiger.

Starfield erscheint zudem für die Xbox Series X/S. Und da ist es eigentlich ganz gut, wenn Starfield (hoffentlich) eine sehr gute FSR-2-Implementierung erhält. Es gibt schließlich genügend Spiele, die nur eine halbherzige Umsetzung haben. AMD hat also Starfield, Nvidia hat CP2077... Ich finde das nur fair.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben