News Fünf Jahre GeForce RTX: Teilt ihr Nvidias Gaming-Vision mit Raytracing und Upscaling?

Bible Black schrieb:
RT? Juckt nicht, weil die RTX2070S das eh nicht wirklich packt, da sind mir 100fps+ dann doch wichtiger. :p Aber ich bin da heute eh eiskalt geworden, Spiel starten -> alles auf Mittel, ggf. Texturen Hoch und schauen ob DLSS in Balanced dabei ist -> Fertig. Wenn es dann läuft, wird das Grafikmenü nicht mehr geöffnet. In 2-3 Jahren schaue ich dann noch mal rein, wenn eine neue GPU im Rechner steckt und RT sich weiterentwickelt hat bzw. noch mehr in HW gegossen ist. Gameplay/Story > Grafik.

Edit: DLSS 2.x ist dabei natürlich Turbo, alleine wenn die GPU nur noch 100W statt 180W zieht, aber es am Ende dann meist doch gleich aussieht und sogar flüssiger läuft. Rettet mich auch oft genug in 3440x1440.
Einfach auf fhd runter dann klappt's auch mit rtx😉
 
Was Nvidias eigene Bestrebungen in Sachen Raytracing angeht, so ist Cyberpunk 2077 das Prestigeprojekt schlechthin. Schließlich dient das Spiel mindestens zur Hälfte als eindrucksvolle Techdemo bzw. Fingerzeig, welcher gewaltige grafische Sprung mit der Technik möglich ist.
Diese Medaille hat aber auch eine Kehrseite: gestiegene GPU-Preise seit RTX 2000, extremer Optimierungsaufwand des Entwicklerstudios nötig, die unbedingte Notwendigkeit von Upscaling, schneller Werteverfall der eigenen RTX-Grafikkarten, der Charakter eines technisch einmaligen Exklusivtitels ohne wirkliche Reproduzierbarkeit für die Spielebranche in naher Zukunft, das notwendige Setzen auf ein propritäres Ökosystem. Sicherlich gibt es noch weitere Punkte.

Die Frage sollte daher lauten:

Wie sehr rechtfertigt Nvidias Brechstangenmethode beim Thema Raytracing alle damit einhergehenden Nachteile? Wie wichtig ist eine gute Grafik für ein Spiel überhaupt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dai6oro
DevPandi schrieb:
Das Problem ist nicht nur, dass die Entwickler immer schlechter optimieren, sondern dass moderne Effekte im klassischen Rastizer-Verfahren immer schlechter sich optimieren lassen. NVIDIA hat 2018 die Transformation zu RT nicht eingeleitet, weil sie einfach eine neue Kuh durchs Dorf treiben wollen. Sondern weil wir bei der Entwicklung der Rastizer an einem Punkt angelangt sind, an dem all die "Optimierungen", die einen Rasterizer schnell machen, ersetzt werden durch "optimierte" Verfahren aus dem Bereich der RayTracer, die dann zur Näherung verwendet werden und dann darauf aufbauend wieder "Annahmen" getroffen werden.

Voltreffer!
 
  • Gefällt mir
Reaktionen: Pontus und Atnam
Ranayna schrieb:
Ich nehme diese in Kauf, denn ich finde die generelle Bildqualitaet ohne Antialiasing meistens besser.
Ich mag keine forcierte Unschaerfe.
Auch so Sachen wie Motion Blur oder Depth of Field schalte ich immer ab, wenn ich die Option dazu habe.
Tip: Benutze Reshade mit SMAA (Edge Detect). Da entsteht grundsätzlich keine Unschärfe und das hat kaum Performance Impact. Das glättet allerdings auch nicht alles..
 
Apocalypse schrieb:
..., zeigt aber auch imho auch auf das Nativ rendern und dann DLAA besser ist, als mit Halber Auflösung Rendern und dann mit DLSS upscalen.
Natürlich ist es das. Mir ging es an der Stelle ja auch darum zu zeigen, dass am Ende die Menge der verfügbaren Samples pro Pixel die Bildqualität bestimmt.
 
  • Gefällt mir
Reaktionen: Atnam
"Wie (häufig) nutzt du Upscaling in Spielen?"

Leider fehlt da die Option, dass man es nicht vernünftig nutzen kann. In meinem Fall würde es erst mit nem 1440p Monitor und einer leistungsstarken GPU über Sinn machen machen. Den sonst leidet die Bildqualität zu extrem darunter.
 
C4rp3di3m schrieb:
ich und auch viele andere Menschen empfinen Upscale bzw. hochskalierte Frames als Minderwertig.
Und erkennen einen Unterschied, dass ist genauso wie bei Ultraschall, es gibt viele die hören es nicht (Tierabwehr) ich nehme dieses Fiepen allerdings war.

Am Ende reden wir hier von einer Softwarebasierten Trixerei. Können die doch Verkaufen und wer will auch Nutzen. Aber das darf nicht dazu führen dass an der Hardware gespart wird, darum geht es.

mfg

Das funktioniert aber Wunderprächtig !
Der Monitorhersteller bringt immer bessere Geräte mit höheren Hz-Zahlen/Auflösungen welche selbst die Topaktuellen Karten Nativ aber nicht schaffen, ergo fängt man an zu Tricksen, Tricksen in Form von DLSS und Co....

Ich bin hier ebenfalls der Meinung das man aus nichts auch nichts machen kann.
Treppeneffekt hin oder her, das war vor 20 Jahren in den Anfängen der AA Technik nicht anders als Heute und da man die Kundschaft heute ohne wenn und aber melken kann, was früher nicht möglich war da Konkurrenz, wird das Ganze noch mit Wunderprächtigen Preisen bis auf das Letzte ausgereizt.
Ich sehe es noch kommen das man in Zukunft für DLSS und Co. Abos einführt und auch das wird gehen wie geschnitten Brot.

Gibt immer jemanden der Bereit dafür ist...ich jedenfalls nicht mehr...
 
  • Gefällt mir
Reaktionen: SweetOhm
Apocalypse schrieb:
Wenn's die Hardware und APIs gibt, kommen auch die Spiele, genau wie damals mit 3dfx. ;-)
Nope, dazu ist der Anteil der wirklich großen Chips noch zu gering.
Da schlägt das Henne Ei Problem voll durch, denn der Markt besteht nicht nur aus Entry und High End, sondern ist in massig viele Graustufen unterteilt!
Denn bei einer 15W APU will ich keine dedizierte RT-GPU.
Und ob eine 50W RT-GPU im Laptop dann noch ausreichend wäre, bezweifel ich mal.
 
Ich war erstaunt darüber, dass bei der Umfrage sage und schreibe 34% der Gamerinnen und Gamer eine Grafikkarte von AMD besitzen. Das ist ungewöhnlich und ganz sicher nicht repräsentativ. Trotzdem freut es mich.
 
  • Gefällt mir
Reaktionen: SweetOhm
TigerherzLXXXVI schrieb:
Ich war erstaunt darüber, dass bei der Umfrage sage und schreibe 34% der Gamerinnen und Gamer eine Grafikkarte von AMD besitzen.
1693842033773.png

https://www.computerbase.de/2022-12/hardware-software-umfrage-2022/

Dieses Forum war noch nie wirklich repräsentativ, weder was die genutzte Hardware, noch was die genutzte Software angeht.
1693842147118.png
 
  • Gefällt mir
Reaktionen: SweetOhm
TigerherzLXXXVI schrieb:
Ich war erstaunt darüber, dass bei der Umfrage sage und schreibe 34% der Gamerinnen und Gamer eine Grafikkarte von AMD besitzen. Das ist ungewöhnlich und ganz sicher nicht repräsentativ. Trotzdem freut es mich.
Auf PCGH ist die Verteilung ca. 60/40 NV/AMD bei GPU und ca. 70/30 AMD/INTEL bei den CPU´s.
 

Anhänge

  • Data PCGH.jpg
    Data PCGH.jpg
    184,6 KB · Aufrufe: 59
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
BloodGod schrieb:
Ist ja auch völlig Ok, vor allem lässt sich Raytracing ja immer abschalten, ist ja nicht so das es einem in irgendeiner Form aufgezwungen wird, wäre mir jedenfalls neu.
Also zum einen habe ich ja eigentlich nichts gegen Raytracing in Spielen, Minecraft sieht ja echt super aus.
Aber eine 4090 für den halben Preis ohne ohne RT und Tensor-Kerne würde mir ja eigentlich reichen, das können sie mir dann gerne als GTX 4090 für 900€ verkaufen und ich wäre echt mehr als happy. Oder halt mit einer GTX 4080 für den Zweitrechner. Die Hardware wird einem halt aufgezwungen, weil ohne RT kann man ja nichts aktuelles mehr kaufen.
 
  • Gefällt mir
Reaktionen: leonM
Nach wie vor eine gute Sache, allerdings ist die implementierung zu oft zu scheiße und irgendetwas fehlt oder die Engine ist ohnehin schon übelst fragwürdig, oder es ist nicht sinnvoll eingesetzt usw. Das ist aber nicht zwangsläufig ein Problem der Hardware und Spiele die vor Jahren raus gekommen sind haben es schon besser gemacht.

Grafikkarten-Preise sind ein weiterer Faktor der einfach gar nicht mehr klar geht für RTX Karten.
 
1331 schrieb:
das war vor 20 Jahren in den Anfängen der AA Technik nicht anders als Heute und da man die Kundschaft heute ohne wenn und aber melken kann, was früher nicht möglich war da Konkurrenz, wird das Ganze noch mit Wunderprächtigen Preisen bis auf das Letzte ausgereizt.
... und wenn da mal nicht noch dunkle Mächte am Werk sind... ;)

Monitore gibt es mittlerweile mehr Auswahl denn je - in alle Formaten Auflösungen und Größen. Niemand muss 4K oder 240Hz kaufen. Brauchbares WQHD mit 144hz auf 27" gibt es mittlerweile für kleines Geld (<250€).

Die Entwicklungen der letzten Jahre ermöglichen aber eben auch deutlich mehr. Warum soll man das verschenken?
Grafikkartenhersteller gibt es darüber hinaus zum ersten mal seit Ewigkeiten wieder 3 (bzw. 2.5 ;) ) inwiefern ist da keine Konkurrenz mehr?

Desweiteren hält heutzutage ein PC deutlich länger wenn man nicht alle Regler auf Anschlag stellen will.
Mit einer 1080/2080 lässt sich das meiste noch spielen.
Die Karten sind mittlerweile 7 respektive 5 Jahre alt.
Als Vergleich kannst du ja mal mal überlegen was mit einer Geforce 4 noch ging als die Geforce 8 (4.5 Jahre später) rauskam. Und damals waren diverse neue Technologien NICHT optional sodass manche neuere Spiele direkt mal den Dienst verweigert haben (Pixel Shader 2.0 etc) RTX muss ich nicht aktivieren.

Dass die Preise für eine dezente Mittelklasse-Karte bzw generell deutlich gestiegen sind lässt sich nicht leugnen. Muss man akzeptieren oder eine Konsole kaufen bzw die Spiele halt Streamen. Es gibt zig Alternativen.

Apocalypse schrieb:
Aber eine 4090 für den halben Preis ohne ohne RT und Tensor-Kerne würde mir ja eigentlich reichen, das können sie mir dann gerne als GTX 4090 für 900€ verkaufen
Und warum sollte man einen in begrenzter Menge verfügbaren Ferrari Motor in einen Golf bauen und ihn günstig verkaufen weil den Rest nicht jeder braucht? Wenn du das RTX Gedöns nicht brauchst gibt es dafür eine hervorragende 7900XT(X). Mir ist bisher kein Spiel bekannt was nur mit RT läuft
 
Zuletzt bearbeitet:
Apocalypse schrieb:
Also zum einen habe ich ja eigentlich nichts gegen Raytracing in Spielen, Minecraft sieht ja echt super aus.
Aber eine 4090 für den halben Preis ohne ohne RT und Tensor-Kerne würde mir ja eigentlich reichen, das können sie mir dann gerne als GTX 4090 für 900€ verkaufen und ich wäre echt mehr als happy. Oder halt mit einer GTX 4080 für den Zweitrechner. Die Hardware wird einem halt aufgezwungen, weil ohne RT kann man ja nichts aktuelles mehr kaufen.
Das ist es ja, wäre nett für jene die aktuell nicht RT subventionieren wollen und nur auf Raster und DLSS wert legen. Sprich, für mich reichen die paar gut implementierten RT-Spiele nicht aus, um RT in der Hardware haben zu müssen. Klar ist, man will den Markt nicht aufteilen aber bis Dato haben wir von RT über die 5 Jahre mehr auf der Nichthaben-Seite als auf der Habenseiten. Würde gerne in RT erst in paar Jahren einsteigen wollen, wenn viel mehr gute Produkte(Spiele) auf den Markt sind anstatt jetzt einfach RT in begrenzten Maße und in wenig gut implementieren Spielen es aufgezwungen zu bekommen. Für jene die richtig Bock drauf haben, diese können sowas wie 4090 holen, ich würde z.B lieber 4090 mit reiner Raster-Power haben wollen und diese z.B 5Jahre bis zum nächsten großen RT- Sprung halten wollen. glaube erst in 5 Jahren bekomme ich das was ich eigentlich haben will. Meine 2080TI war einfach verbrannte Chipfläche und das ist bei 3080 die ich kurz hatte auch mehr oder weniger der Fall gewesen(da kaum richtig gutes RT bei Spielen vorhanden, Control, Metro und CP) und dafür lohnen sich die RT-Nanometer auf dem Chip nicht^^
 
  • Gefällt mir
Reaktionen: Apocalypse
X-TR4 schrieb:
Und warum sollte man einen in begrenzter Menge verfügbaren Ferrari Motor in einen Golf bauen und ihn günstig verkaufen weil den Rest nicht jeder braucht?
Keine Ahnung warum man jetzt einen Golf GTI gebaut hat, aber ich muss zugeben, der 1er Golf GTI hat schon was drauf gehabt, eine echte Rally Legende. ;-)
Und vor einem Ferrari Dino 208 GT4 musste er sich nun auch nicht wirklich verstecken. Sind ja auch heute noch viele Golf Modelle vor Ferraris auf der Bestenliste der Nordschleife. ;-)

Aber natürlich haben auch AMD Karten jetzt so einiges an Platz für RT eingeräumt, wenn auch nicht so viel wie Nvidia. Noch mehr Raster Performance wäre mir trotzdem lieber, ich spiel halt weder Quake RTX noch RTX Minecraft, etc

Ein paar volle RT Games gibt es ja anscheinend doch schon, aber so richtig viel ist es halt nicht geworden, von Remakes alla Portal mal abgesehen. Sieht gut aus, gerne mehr davon, ist ja toll für die Early Adopters. Hybrid RT hat mich aber bisher so gar nicht abgeholt.
 
Daumen hoch an die Leute, die bei ner nvidia Frage überall Nein und "ich hab ne radeon" anklicken. Wirklich, Glückwunsch...
 
zakuma schrieb:
Raytracing ist okay, vernünftig umgesetzt macht es schon Stimmung. Finde aber FSR/DLSS die wichtigere Technik vor allem in Kombination mit Raytracing damit die fps überhapt erreicht werden können.

Selber habe ich eine RX6800XT und bin mit der Karte mehr als zufrieden, Rohleistung liegt ja im Bereich 4070 mit mehr VRAM.
Die Preispolitik von NVidia ist halt super frech, weniger RAM höherer Preis um damit Technologien in der Zukunft zu Subventionieren. Eine RTX 2080 konnte damals gar kein Raytracing (in Sachen Leistung) wurde dennoch als das Wunderwerk verkauft für Raytracing.
So läuft es mit NVidia.
Erste Gen kann nie versprochenes liefern. Jetzt mit 3. Gen geht RT einigermassen, kommt Pathtracing, das RT wie ein schlechter Scherz da stehen lässt.

Natürlich, geht es nicht native, noch nicht. Dafür muss man schon nächste oder Übernechste Gen kaufen.

Die ewige NV Karotte
 
  • Gefällt mir
Reaktionen: SweetOhm und zakuma
Zurück
Oben