Wird die Raytracing-Performance in Spielen auf Grund fehlender Settings im Grafikmenü künstlich von Nvidia ausgebremst?

TigerherzLXXXVI

Lt. Commander
Registriert
Dez. 2021
Beiträge
1.138
Es ist ein Thema, dass mich als Besitzer einer AMD-Grafikkarte schon länger beschäftigt. Der computerbase-Artikel zur Metro Exodus Enhanced Edition hat für mich den Stein ins Rollen gebracht:

Die Raytracing-Performance in Spielen wird maßgeblich durch die RT-Qualität bestimmt, das heißt wieviele Strahlen (Rays) für eine physikalisch exakte Beleuchtung pro Frame von der GPU "verschossen" bzw. berechnet werden müssen. Dem Artikel zufolge ist die Qualität der Beleuchtung beim Setting "Normal" kaum schlechter als in den beiden höheren Stufen "Hoch" und "Ultra". Das Problem: RDNA2 und RDNA3 haben erst bei höherer "Strahlenbelastung" Leistungsprobleme. Leider wird in den meisten Raytracing-Spielen eine vernünftige Auswahlmöglichkeit der RT-Qualität nicht angeboten - zum Leidwesen aller Radeon-Besitzer. Jetzt kann man sich zurecht die Frage stellen, was denn so schwierig daran sein soll? Warum müssen erst Hobby-Programmierer eigene Mods erstellen, nur damit sich eine simple Grafikoption im Spiel aktivieren lässt. Was ist also der wahre Grund für diesen ärgerlichen Umstand.

Meine Behauptung: Nvidia möchte beim Thema "RTX ON" mit aller Macht die rote Konkurrenz durch gezielte Einflussnahme auf die Spieleentwicklung klein halten - auf Kosten der allgemeinen Verwendbarkeit von RT-Effekten in heutigen Spielen für die breite Masse. Für mich zeigt der aktuelle Fall "The Witcher 3" wieder einmal das größte Problem von Raytracing überhaupt auf...

Wichtig: Meine Annahme beruht auf die von mir dargelegte Faktenlage. Das heißt mir geht es um die Wahrheit. Das Ziel dieses Threads ist es, das Thema "Raytracing in Spielen" näher unter die Lupe zu nehmen und auf aktuell verschenktes Potenzial bei der technischen Umsetzung einzugehen. Die Frage könnte auch lauten, wieviel Hardwarepower ist wirklich von Nöten, um ein gutes RT-Erlebnis in Spielen zu erhalten? Möglicherweise ist es weniger als allgemein angenommen.

Vielleicht wäre dieses spannende Thema der computerbase-Redaktion eines Tages auch mal einen eigenen Artikel Wert.

Edit:

1) Ich habe meine ursprüngliche, zum Teil unangebrachte Ausdrucksweise etwas entschärft.

2) Dieses Problem ist nicht allein auf AMD-Grafikkarten beschränkt, sondern betrifft jede GPU mit geringerer RT-Performance, d.h. auch die RTX Einsteiger- und Mittelklasse-Grafikkarten von Nvidia selbst.

3) Zum besseren Verständnis gebe ich noch meine eigenen Ergebisse im Ingame-Benchmark von Metro Exodus EE mit meinen System an:
A) FHD (1920×1080), Grafik-Preset Ultra mit Ray Trace auf "Normal" und Reflections auf "Raytraced": 93(66) FPS
B) WQHD (2560×1440), Grafik-Preset Ultra mit Ray Trace auf "Normal" und Reflections auf "Raytraced": 78(53) FPS
C) UWQHD (3440×1440), Grafik-Preset Ultra mit Ray Trace auf "Normal" und Reflections auf "Raytraced": 65(45) FPS
D) UHD (3840×2160), Grafik-Preset Ultra mit Ray Trace auf "Normal" und Reflections auf "Raytraced": 43(31) FPS
[Durchschnitts-FPS (1%-Perzentil)]
 
Zuletzt bearbeitet:
Überraschen würde es mich jedenfalls nicht. Stichtwort "Tessellation", wer sich noch erinnert.
 
  • Gefällt mir
Reaktionen: Wanderwisser, danyundsahne, FLCL und 3 andere
Halte ich für Blödsinn.
Es ist halt so, dass AMD das Ganze technisch deutlich anders löst als nVidia.
Und das scheint nicht soo gut zu funktionieren bisher.
 
  • Gefällt mir
Reaktionen: ferris19
Bezweifel ich auch. AMD hinkt einfach eine Generation hinterher und die neuen RDNA3 GPUs sind halt einfach irgendwie nicht ganz fertige Produkte. Was man auch am Treiber sieht.
 
Stelle doch RT einfach ab. Wenn das Spiel Müll ist, dann bringt Dir RT auch nichts. Ist wie bei Schrott-Movies und 3D. Da wird der Film auch nicht besser
 
Naja. Nvidia investiert halt auch mehr Geld und/oder winkt mit Geldscheinen, dass in manchen Spielen RT überhaupt reinkommt. AMD wiederum, ist ziemlich sparsam, was solche Investitionen angeht.
 
Raytracing ist keine neue Erfindung. Nvidia hat es als erstes hardwareseitig mit Tensocores und mit der Unterstützung von Spielentwicklern ins Rollen gebracht. Warum sollte Nvidia hier Rücksicht auf AMD nehmen? Es gibt für Nvidia absolut keinen Grund es AMD leichter zu machen. AMD hatte das Nachsehen, da es eben Hardwareseitig nichts geboten hat. Mit der 7XXX Generation hätte man hier etwas vergleichbares bringen können, hat man aber nicht wirklich. Ergo, hat AMD wieder das Nachsehen, auch wenn man zumindest auf dem Niveau der 3XXX Generation ist.
Und es gibt doch in allen Spielen die RT anbieten Regler um es einzustellen. Zumindest kenne ich kein Spiel in dem man es nicht kann. Man muss ja nicht immer alles auf Max stellen wenn es zu viel Performance frisst.
Ich finde es immer erstaunlich, dass man oft der Meinung ist, dass Nvidia AMD außen vorhalten würde. Aus Wirtschaftlicher Sicht macht es doch auch für Nvidia keinen Sinn auf AMD in irgendeiner Art und Weise Rücksicht zu nehmen. Und wenn AMD Spielentwickler nicht derart unterstützt wie Nvidia es tut.... und die machen hier verdammt viel.... ist es doch auch nicht das Problem von Nvidia.
Es ist doch genauso im professionellem Bereich. KI und Rendering... da spielt AMD kaum bis gar keine Rolle, weil sie eben nicht das Bieten können/wollen was AMD bietet. Hier fehlt teilweise die komplette Unterstützung für AMD. Ist das jetzt auch die Schuld von Nvidia? Oder hat AMD hier einfach versagt bzw. den Sektor bewusst aus anderen Gründen keine hohe Priorität gegeben?
 
ferris19 schrieb:
AMD hinkt einfach eine Generation hinterher
Ich würde einen Schritt weitergehen: Durch die Jahren an Investitionen in Forschung in 3D Simulationen durch Nvidia ist auch schlicht und einfach viel mehr Knowhow verfügbar, wie man Raytracing effizient implementieren kann.
Amd konnte lange nicht und möchte jetzt nicht viel Geld in allgemeine Forschung investieren, und das wirkt sich eben auf soetwas aus. Reines Holzhammern wird AMD auch nicht immer was bringen (und aufm GPU-Markt bekommen sie das gefühlt auch nur hin und wieder hin), was spätestens dann, wenn Intel wieder aufholen kann und dann den Vorsprung durch bessere Technologien ausbauen kann, AMD wieder in allen Branchen in den Hintergrund verdrängen wird.
 
  • Gefällt mir
Reaktionen: ferris19
TigerherzLXXXVI schrieb:
Meine Behauptung: Nvidia möchte beim Thema "Raytracing" mit aller Macht und einer nicht unerheblichen Portion Schuftigkeit die rote Konkurrenz durch eigene Kooperationen innerhalb der Spielebranche sabotieren - auf Kosten der allgemeinen Verwendbarkeit von RT-Effekten in heutigen und zukünftigen Spielen. Der neuste Fall "The Witcher 3" zeigt wieder einmal das größte Problem von Raytracing überhaupt auf...
und jetzt kommst du mal mit den dazugehoerigen Belegen und Beweisen, ansonsten geht das ganze von dir hier wohl eher in eine rechtlich bedenkliche Ecke ... wir koennen aber auch gerne einfach random Behauptungen ueber dich aufstellen, muss man ja nicht belegen

Dass zudem sowohl die Technologien von Nvidia als auch AMD nicht "for free" per Knopfdruck verfuegbar sind, ist zudem bekannt. So ist es von beiden Herstellern halt auch die Aufgabe, Support vor Ort bei den Entwicklern anzubieten. Aber klar, du hast bestimmt Belege dafuer dass AMD es versucht hat, aber auf Draengen von Nvidia der Entwickler "leider" absagen musste.
Gibt zudem auch Spiele, die laufen auf AMD GPUs deutlich besser. Sabotage von AMD?
 
  • Gefällt mir
Reaktionen: Aduasen
abcddcba schrieb:
Gibt zudem auch Spiele, die laufen auf AMD GPUs deutlich besser. Sabotage von AMD?
Natürlich Sabotage von AMD. Hier hat man mit voller Absicht dafür gesorgt, das die Spiele auf AMD optimiert werden ohne Nvidia zu berücksichtigen. So eine Schande..... bäh AMD..... pfui.... ihr hättet bei eurer Zusammenarbeit mit der Spieleschmiede und das Geld was ihr da rein gesteckt habt natürlich auch dafür verwenden müssen, das Nvidia mindestens genauso gut und schnell läuft wie bei den AMD Karten. (Ich hoffe man versteht meine Aussage als Sarkasmus)
 
@TigerherzLXXXVI als AMD Besitzer könnte man das meinen ja.
Das ist auch ein Grund warum ich jetzt demnächst von der RX 7900XTX auf die RTX 4080 wechseln werde.
Ich spiele nur noch Singleplayer Games meistens AAA Titel.
Und da möchte ich einfach RT mitnehmen.
Sehe das mittlerweile wie @Taxxor ich hatte Vega 56 ,RX 6900XT und RX 7900XTX und jetzt halt eben wieder Nvidia.
Aber nur weil ich RT gerne nutzen möchte.
Rasteleistung bietet selbst eine 6800XT mehr als genug.

 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI, ferris19 und Taxxor
Ich sag mal Bullshit.

Letztendlich ist der Verbraucher durch sein Konsumverhalten in der Verantwortung gewisse Tendenzen zu unterbinden wenn er mit Etwas nicht einverstanden ist. Der Markt regelt das dann von alleine.

Im heutigen Informationszeitalter mit nahezu unbegrenzten Möglichkeiten und Quellen war es nie einfacher sich über ein Produkt zu informieren.
 
Zuletzt bearbeitet:
Finde nicht das da etwas brisant ist, Nvidia andere Hersteller sabotiert und man dringend darüber reden muss. Die Tensor Cores auf den Nvidia Karten sind nun mal technisch wesentlich besser als das was AMD anbietet. Das muss man eben akzeptieren, weiß da jetzt auch nicht wie man darauf kommt das Spieleentwickler praktisch gezwungen werden RT auf AMD Karten künstlich zu verlangsamen.

Und jetzt soll man irgendwelche magischen Schalter gefunden haben die auf AMD Karten eine Explosion in Sachen RT Performance erzeugen. Klingt nicht wirklich glaubwürdig.

Das heißt jetzt noch lange nicht das man die RX 7900 Serie grundsätzlich schlecht reden muss, sie ist aber (zumindest gilt das für mich, siehe unten) aus mehreren Gründen weniger gut als das von Nvidia angebotene.

  • Auch mit RX 7900 wieder (teils massive) Treiberprobleme
  • Blackscreen / Bootprobleme
  • Geringere Effizienz
  • Geringere RT Performance
  • Schlechtere VRR Technik (Echtes G-Sync ist immer noch besser)
  • Schlechtere Upscaling-Technologie
  • Preise kaum besser als Nvidia
 
  • Gefällt mir
Reaktionen: Aduasen, shy-Denise und ferris19
Tornavida schrieb:
Der Markt regelt das dann von alleine.
Um mal einen anderen gern gemachten dummen spruch mit in die Waage zu legen:
Und du glaubst auch noch an den Weihnachtsmann?
Ergänzung ()

Celticon schrieb:
Schlechtere VRR Technik (Echtes G-Sync ist immer noch besser)
Ne, das ist vorallem nur eines Teurer und die haben nen Zertifizierungsprogramm, und das letztere macht den unterschied zum 0815 Freesync, den jeder bauen darf!

Wobei es aber auch mittlerweile da bei Freesync das Premium und co zeugs gibt.
Wenn du halt das billigste kaufst, wo freesync drauf steht, dann kannste halt auch dreck bekommen.

Edit:
Diese Frage die gestellt wurde ist gefährlich :D
Es wurde effektiv der FArbenkrieg damit aufgerufen und nach der Wahrheit muss man mit der Pimzette suchen, es werden unwahrheiten und glaube gestreut ohne Ende, Fanboy und Girls etc. :D ich bin Kurz davor der Moderation bescheid zu geben, das die sich mal ansehen was hier abgeht. das schreit schon so nach Forenregeln die in 3.. 2.. 1.. gebrochen werden oder so :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aduasen, Fighter1993, Drewkev und 2 andere
So eine Art Slider im Spielmenü, mit dem man einstellen kann wieviele Strahlen verschossen werden, wäre nicht schlecht.

So ähnlich wie die Auswahl der maximalen Tesselationsstufe im AMD Treiber.
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
TigerherzLXXXVI schrieb:
Dem Artikel zufolge ist die Qualität der Beleuchtung beim Setting "Normal" kaum schlechter als in den beiden höheren Stufen "Hoch" und "Ultra". Leider wird in den meisten Raytracing-Spielen eine vernünftige Auswahlmöglichkeit der RT-Qualität nicht angeboten

Diesen Gedankengang kann ich voll nachvollziehen. Ich habe zwar RT nur in Witcher 3 genutzt, da ich sonst noch nie ein Spiel mit RT Funktion gespielt habe, aber eine Option die Strahlenqualität/Anzahl regelt vermisste ich ebenfalls. Es ging nur An oder Aus.
TigerherzLXXXVI schrieb:
Nvidia möchte beim Thema "Raytracing" mit aller Macht und einer nicht unerheblichen Portion Schuftigkeit die rote Konkurrenz durch zahlreiche Kooperationen mit Spieleentwicklern sabotieren
Hier würde ich nicht so weit ausholen. Benachteiligt bei solchen Praktiken sind in dem fall nicht nur AMD Besitzer, sondern auch alle anderen mit schwächerer/älterer RT Hardware. Ein Regler der die RT Qualität steuert wäre für alle mit älterer RT fähiger /VRAM begrenzter Hardware zu begrüßen. Machbar ist dies auf jeden fall, wieso es nicht gemacht wird natürlich nur Spekulation, aber Gewinnmaximierung naheliegend.
 
  • Gefällt mir
Reaktionen: II n II d II und TigerherzLXXXVI
abcddcba schrieb:
und jetzt kommst du mal mit den dazugehoerigen Belegen und Beweisen, ansonsten geht das ganze von dir hier wohl eher in eine rechtlich bedenkliche Ecke ... wir koennen aber auch gerne einfach random Behauptungen ueber dich aufstellen, muss man ja nicht belegen
Das Thema ist bewusst provokant gewählt, um viele Gamer anzusprechen.
4A Games beweist doch mit Metro Exodus EE wie es vernünftig geht. Warum sind sie bisher eine Ausnahmeerscheinung für eine vernünftige Raytracingumsetzung? Wenn jedes Spiel so wäre, hätte ich nie einen Grund gehabt viele RT-Titeln mit Nvidias Beteiligung bewusst zu hinterfragen. Denn auffällig ist es schon, zumindest wenn man als Radeon-Besitzer Raytracing sinnvoll nutzen möchte. Wenn ich am Ende falsch liege umso besser, aber bis dahin würde ich gern die EINE Wahrheit auf diese nervige Frage herausfinden.
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
EINE Wahrheit auf diese nervige Frage herausfinden
Kannst du garnicht, weil es Nvidia nie zugeben oder verraten würde. Und bis dahin bleibt alles an Vermutungen wohl genau das und jeder folgt seiner eigenen Verschwörungstheorie :-)

Das selbe Problem gabs übrigends auch schon vorher mit Hairworks :-) Witcher 3 als Beispiel.
Die internen Optionen sind so irrsinnig/absurd hoch gewählt, das ältere oder Konkurrenzimplementierungen natürlich ausgesiebt werden.
 
  • Gefällt mir
Reaktionen: Volvo480, II n II d II und TigerherzLXXXVI
Alexander2 schrieb:
Diese Frage die gestellt wurde ist gefährlich :D
Es wurde effektiv der FArbenkrieg damit aufgerufen und nach der Wahrheit muss man mit der Pimzette suchen, es werden unwahrheiten und glaube gestreut ohne Ende, Fanboy und Girls etc. :D ich bin Kurz davor der Moderation bescheid zu geben, das die sich mal ansehen was hier abgeht. das schreit schon so nach Forenregeln die in 3.. 2.. 1.. gebrochen werden oder so :D
Ich finde das Thema ist nicht aus der Luft gegriffen. Darüber hinaus ist es für alle Gamer interessant, die keine High-End-Grafikkarte von Nvidia besitzen - also die allermeisten. Auch wenn es so wirkt: ich möchte nur auf ein offensichtliches Problem bei aktuellen RT-Spielen aufmerksam machen und ernsthaft darüber diskutieren.
 
  • Gefällt mir
Reaktionen: MiroPoch
Das Nvidia bei den Gameworks Titeln, ihre Unterstützung verkaufen und dann die Titel insofern die Entwickler sich nicht selbst aktiv darum bemühen nur auf Nvidia optimiert sind ist ja nichts neues. Was auch immer man davon halten mag. Ja, das Resultat ist auf jeden Fall was dir aufstößt. Es lohnt sich anscheinend für Nvidia.
Da AMD im Grunde aber auch schon Pleite war es nur noch nicht wusste ist verständlich, das denen anscheinend weniger wichtig ist diesen "Kampf" an der stelle aufzunehmen, den sie mit wohl nur sehr viel Geld erschlagen könnten. (Teilhabe an vielen Spieleentwicklungen, und massive Werbekampagnen) so wie Nvidia es ja wohl macht nur eben noch teurer, weil man ja Oberwasser bekommen müsste damit es Sinn ergibt.

In der Vergangenheit Hatte sich AMD als Unternehmen aber auch schon gezeigt, selbst mit einem guten Produkt - wobei nicht nur guten, sondern besserem! Laufen die meisten "Trottel" dann doch noch immer zum blauen oder grünen Lager, wie auch immer.

Und Nvidia hat das auch gemerkt...
Wo sich AMD halt drauf zu konzentrieren scheint ist derzeit gute und immer bessere Hardware zu liefern, (nach meiner Ansicht) und dabei die Software pö a pö auch immer weiter zu entwickeln.

Oft wenn man Diskussionen sieht, das Nvidia ja doch zu teuer ist kommen auch meist sehr schnell die Leute die sich dann melden ich warte noch bis AMD xxx rausbringt, dann geht Nvidia mit dem Preis runter und dann kaufen die doch die Nvidia Karten.

Als billigmacher kannste halt keine große Konkurrenz sein. Und die sich ewig haltenden Gerüchte die AMD Treiber wären schlecht...
(die kann ich nicht unterstützen, ich habe mehr bug und Probleme mit Nvidia Treibern - gehabt), man braucht sich wirklich nicht Wundern, das das Geld doch eher noch Primär auf die Weiterentwicklung der Karten geht.
 
  • Gefällt mir
Reaktionen: MiroPoch und TigerherzLXXXVI
Zurück
Oben