NVIDIA RTX Technologie verfrüht released worden?

The_Void

Commander
Registriert
Sep. 2010
Beiträge
2.831
nabend leute.

ich hab mal ne frage. kürzlich kaufte ich mir ne GTX 1060 6 GB, um endlich g-sync nutzen zu können. kurz darauf kamen dann die NVIDIA RTX karten raus.

wie ich es verstanden habe, müssen jetzt 20 jahre alte spielegurken aus oppas mottenkiste herhalten (etwa quake 2), um halbwegs spielbare frameraten mit RTX technologie zu erzielen. dies würde sich ja in die tradition NVIDIAS einfügen, wo die neu herausgebrachten technologien, sei es physx, hairworks oder überhaupt das gesamte gameworks gedöns, bei den meisten anfangs mehr schlecht, als recht laufen, bzw. liefen.

ich meine, ich kenne noch zeiten, wo ich 1 (!) raytracing bild in 320x256 pixeln auflösung aufm amiga 2 tage rendern lassen mußte, nur um festzustellen, daß im bild was falsch war und dann weitere 2 tage warten. jetzt aktuelle spieletitel mit 20 fps in echtzeit mit raytracing technologie zu sehen, finde ich schon erstaunlich, aber 20 fps würde ich nicht unbedingt als gut spielbar bezeichnen.

daher nun meine frage, ob die RTX karten zu früh rausgebracht wurden? ich persönlich möchte jedenfalls kein quake 2 spielen, oder andere alte titel, die ich schon kenne. und für aktuelle spiele braucht man halt eine wirklich sauschnelle CPU.

was sind da eure erfahrungen?
 
Ob zu früh oder zu spät. Technologischer Stillstand ist das Problem!

Es gibt so viele Beispiele aus der Welt der Technik bei denen vergleichbare Diskussionen geführt werden:

4GB RAM? Werden eh nie gebraucht
64Bit? 32Bit reichen doch völlig
4K? Braucht kein Mensch
3D? Wer braucht sowas schon
VR? Viel zu teuer und unbequem

uvm...

(Das sind nicht meine Meinungen!)

Wer es haben möchte und es sich leisten kann kauft es. Wer nicht, lässt es einfach sein und kauft ein vergleichbares Produkt. Es gibt so viele Alternativen.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Zitterrochen
Meiner Meinung nach, liegt es an der Implementierung. Die Engines sind dafür nicht gemacht, daher wird ein großer Headroom gebenötigt für Raytracing... Gib der Geschichte 1-2 Jahre und du bekommst mit mit einer RTX 2060 "rückwirkend" gute Performance raus für aktuelle Spiele.
 
Das benötigt eben Leistung - vorallem wenn's Echtzeit sein soll. Denke die nächste (oder übernächste) Nvidia (und auch AMD) Generation wird da einen deutlichen Sprung nach vorne machen diesbezüglich.
Es gibt eh noch zuwenig Spiele die das wirklich sinnvoll einsetzen, mit Quake 2 wollte man wohl nur beweisen was man mit einer uralten Engine und neuester Technik herausholen kann und das ist eben schon sehr beeindruckend - mehr als ein "es funktioniert" ist es aber auch nicht.
Für Fullscreen-Raytracing mit halbwegs aktueller Grafik sind wir aber sicherlich noch einige Jahre entfernt, irgendwo muss man ja mal anfangen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
phoenix, hier geht es aber nicht um ein altes produkt am ende des lebeszyklus, sondern um neue technik, die aktuell wenig brauchbar ist, wenn ich es richtig verstanden habe und das bereits zu release.
 
Nicht wirklich.

Habe Metro Exodus oder auch Control alles flüssig samt RT in 1440p mit 2080ti gespielt.
Dass RTX-Karten kurz nach Pascal releast worden sind stimmt auch so nicht. Pascal kam 2016 auf den Markt, RTX 2018.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Die von mir genannten Produkte waren zu Beginn auch kaum brauchbar. Und von wenig brauchbar ist RT weit entfernt.
Wenn du das behauptest, hast du nie Metro Exodus, Control oder BF5 gespielt. Und das sind nur 3 Beispiele. Ich spiele die alle flüssig. Ist nur eine Sache die Detailregler geschickt zu nutzen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Man muss Nvidia zu Gute halten das sie außerhalb der Konsolen Generationen ein neues Feature etablieren, über proprietäre HW lässt sich streiten.

Ansonsten hat Phoenix schon alles gesagt
Phoenix3000 schrieb:
Wer es haben möchte und es sich leisten kann kauft es. Wer nicht, lässt es einfach sein und kauft ein vergleichbares Produkt. Es gibt so viele Alternativen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
RitterderRunde schrieb:
Gib der Geschichte 1-2 Jahre und du bekommst mit mit einer RTX 2060 "rückwirkend" gute Performance raus für aktuelle Spiele.
Nie im Leben. In 1-2 Jahren gibt's die RTX 3xxx Karten mit deutlich mehr RT Cores. Und die dann erscheinenden Spiele werden das ausnutzen und sich sicherlich nicht mit dem Stand der Technologie von vor 2-3 Jahren begnügen.
Es werden ja aktuell schließlich nur ein paar wenige Effekte damit berechnet - und dazu noch mit sehr niedriger Auflösung bzw. wenigen Rays und Bounces- , dabei ist noch viel viel viel mehr möglich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
RTX sieht schon nice aus, hab es in BF5.
 
Ich würde es aus einem anderen Blickwinkel betrachten.

Was wird nVidia durch diesen Schachzug ermöglicht, sprich man hat die RTX Reihe und weiterhin die GTX Reihe, wo die aktuellen Modelle, wie meine GTX 1660 Ti, auch auf der neuen Architektur basieren?

Ganz einfach: du kannst mehr Käufer ansprechen. Besonders in der Mittelklasse, wo gegen deine GTX 1060 mit 6 GB eine RX 580 und danach RX 590 mit 8 GB positioniert ist.

Eine GTX 1660 Ti hat zwar auch "nur" 6 GB, ist aber in der Leistung sehr nah an der GTX 1070 dran.

Das die RTX Karten der aktuellen Generation da noch nicht so gut abschneiden, verwundert mich nicht. Auch verkaufstechnisch ist das kein Nachteil. Man kann dann bei der nächsten Generation schön von xyz % an höherer Raytracing-Leistung sprechen und es wird dann auch viele aus dem Forum hier geben, die deswegen eine RTX 2070 verkaufen werden.

War so und wird immer so sein.
 
The_Void schrieb:
neue technik, die aktuell wenig brauchbar ist
Ja... und das gilt für beinahe jede neue Technologie.

Alles was neu ist, wird sofort verteufelt, wenn es nicht von Tag 1 an perfekt in jeder Lebenslage funktioniert.
Das fängt bei Raytracing auf Consumer-Grafikkarten an und hört bei so was wie Elektroautos noch lange nicht auf.

Gib dem ganzen noch 2-3 Generationen, dann läuft es entweder butterweich oder hat sich als nutzlos herausgestellt, weil die Technologie vom Kunden nicht angenommen wurde.
Bestes Beispiel 3D-Fernseher. Die Technik funktioniert gut. Aber es gibt keine neuen 3D Fernseher mehr, weil die meisten lieber auf 4K setzen.

Ein Elektroauto wird auch verteufelt. Ohh, zu teuer, zu schlechte Reichweite usw. Nur Stammtisch-Parolen ewig gestriger Bedenkenträger.
Das nennt man "German Angst". In dem Zusammenhang gibt es zwei Zitate, die man immer wieder hört/liest:
1.: "Das haben wir schon immer so gemacht!" 2.: "Das haben wir noch nie so gemacht!"

Fortschritt geht nur in kleinen Schritten, erst in der Nachschau erkennt man eine evolutionäre Entwicklung.
Wer weiß, vielleicht löst Raytracing die klassische 3D Darstellung mal komplett ab. Oder auch nicht. Im Grunde ist das sogar ziemlich egal.

Wir haben es hier mit der ersten Generation Grafikkarten zu tun, die diese Funktion bieten. Ist doch logisch das das noch nicht perfekt laufen kann.
Und so schlecht läuft es aktuell gar nicht. Wenn du dir natürlich nur Tests anschaust die in der Release-Woche gemacht wurden, ergibt das nur ein verzerrtes Bild.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und Ltcrusher
Erinnert sich noch jemand an die Ur-Geforce? Die erste Grafikkarte mit T&L. Wahnsinns Technik. Nur sahen T&L-Spiele nicht die Bohne besser aus, als auf einer TNT 2 Ultra ohne T&L, stürzten dafür häufiger ab, oder liefen erst nach einem nachgereichten Patch (irgend so ein Shooter mit einem pausbäckigen Engel, der Leute übernehmen konnte, Name entfallen).

Dann kam die Geforce 2. Die wohl verbreiteste Variante war die Geforce 2MX. Wenn ich mich richtig erinnere, ohne T&L. Richtig in der Breite ist T&L erst mit der Geforce 4 und später angekommen.

Hätte Nvidia gewartet, bis die Entwicklung auf Geforce 4 Niveau angekommen wäre, hätten sie vermutlich Insolvenz anmelden müssen.

Raytraycing ist das nächste große Ding, wird aber noch Jahre/Grafikkartengenerationen brauchen, um sich zu mausern.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Gee858eeG
Bin ich wirklich schon so alt?
Erinnert mich an Need for Speed 2, wo ich mit meiner 3dfx Voodoo Karte plötzlich Regen auf der Rennstrecke hatte, während die Kollegen im LAN ohne 3D-Beschleuniger freie Sicht hatten... ;)

Da haben auch alle gesagt: "Was ist das denn für ein Unfug..."
Ja, die Meinung hat sich durchgesetzt. Nicht...
 
  • Gefällt mir
Reaktionen: Althir81, michilinmnnchn und GRiNGO73
Die Sache ist, dass Echtzeit Raytracing massig Rechenleistung braucht.
Die RTX 2060 lohnt sich daher z.b. gar nicht da nicht genug Leistung. Die RTX 2070 ist grenzwertig.
Und dann kommt noch hinzu, dass die Spielehersteller das ja auch ins Spiel implementieren müssen, was einen Mehraufwand bedeutet. Und man darf auch nicht vergessen, die Mehrheit der Leute die Spiele kauft haben gar keine RTX Karte. Wenn vielleicht 10% der Leute die das Spiel kaufen eine RTX haben, fragt sich der Hersteller ob es sich überhaupt lohnt das zu nutzen.

Und dann kommt hinzu dass Nvidia gerne mal auf Nvidia eigene "Lösungen" setzt wie eben z.b. G-Sync, Gameworks, Hairworks, PhysX etc. was dann alles Nvidia exklusiv ist und nur mit Nvidia Karten richtig funktioniert.
Gibt genug Leute die sowas blöd finden und lieber auf offene Standards setzen die mit jeder Hardware funktioniert. Sowas wäre dann ein weiterer Grund für Spielehersteller das ganze nicht für RTX Karten zu optimieren.

Sieht man ja auch an den Spielen die mit RTX Echtzeit Raytracing werben. Besonders viele sind das nicht.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
The_Void schrieb:
wie ich es verstanden habe, müssen jetzt 20 jahre alte spielegurken aus oppas mottenkiste herhalten (etwa quake 2), um halbwegs spielbare frameraten mit RTX technologie zu erzielen.
Du hast auch in anderen Spielen Raytracing, allerdings eben nicht das komplette Spiel, wie es mit Quake 2 gemacht wurde, sondern lediglich Teilaspekte.

Um aktuelle Titel komplett mit Raytracing zu berechnen fehlt noch viel Leistung und auch der Wille der Programmierer, das umzusetzen.
 
Na ja, der Unterschied zwischen Raytracing und Dingen wie PhysX, Hairworks usw. ist das das nicht nur ein proprietäres Addon ist, sondern eine grundsätzlich andere Technologie 3D Bilder zu erzeugen.
Von da her glaube ich schon das es langfristig weiter ausgebaut wird. Ich schätze wir werden langfristig beide grundsätzlichen Technologien parallel sehen. Also klassisches Rendern und Raytracing.

Dabei ist Raytracing keinesfalls neu. Die Technik und das Prinzip sind uralt. Da Raytracing aber extrem viel Leistung erfordert, war es bis heute kaum möglich das in Echtzeit zu realisieren.
 
  • Gefällt mir
Reaktionen: .Sentinel.
The_Void schrieb:
müssen jetzt 20 jahre alte spielegurken aus oppas mottenkiste herhalten (etwa quake 2)

Na herzlichen Dank. Ich kann mich noch ziemlich genau an den Release von Q2 erinnern, und auch, wie viel Spaß wir damals auf LAN-Parties (die Dinger, bei denen man seinen Rechner in seinen Kleinwagen stopfte, inklusive Röhrenmonitor, Schlafsack und mehreren Packungen Instant-Kaffee, um dann mit einem Haufen Leute erst einmal Kabel zu ziehen, einen oder zwei Tage damit zu verbringen, daß das Netzwerk vernünftig läuft, und anschließend gegen- oder miteinander zu zocken) wir damals damit hatten. Und erst die Mods! Da kam man schon ganz schön ins Schwitzen teilweise, ich sag ja nur LMCTF, Karte 21, 4vs4. Da war eine halbe Stunde schon ziemlich nervenaufreibend. Aber genial. Und irgendwie fühle ich mich gerade alt...

Wie auch immer: Raytracing ist nunmal sehr Rechenlastig (damalsTM konnte man einen 80486er mit einem 640x480-Einzelbild auch schon mal einen ganzen Tag beschäftigen), Aber zu früh rausgebracht? Nein. Nur dauert es ein Weilchen, bis die Routinen auch entsprechend optimiert sind. Die Rechenleistung ist da (nicht unbedingt für 8k, aber für FHD), und man rendert ja auch keine kompletten Szenen, sondern bildet nur bestimmte Sachen mit dem Raytracer nach.

Physx stammt ursprünglich übrigens nicht von nVidia, sondern Ageia. Die wurden nur aufgekauft (wie nVidia das auch mit 3dfx gemacht hat). Auch da war die Veröffentlichung nicht verfrüht, die Unterstützung durch die Software war nur noch nicht da und noch nicht ausgereift (ist sie zum Teil immer noch nicht und eine breitbandige Anwendung ist immer noch nicht da).
 
  • Gefällt mir
Reaktionen: .Sentinel.
Twostone schrieb:
Na herzlichen Dank. Ich kann mich noch ziemlich genau an den Release von Q2 erinnern

ich hatte bewußt etwas provozierend geschrieben, das mit oppas mottenkiste. ich habe quake 2 selber noch erleben dürfen im LAN und weiß noch, wie mein kumpel sich weigerte, Q2 zu zocken, da die explosionen aussahen "als ob man einen luftballon aufbläst und platzen lässt" und er lieber beim ersten teil blieb.

mir ging es darum, daß jetzt alte spiele aufgebohrt werden für RTX, damit es läuft. ich weiß selber, daß man mit den reglern in aktuellen spielen viel machen kann, wenn diese aber alle links sein müssen, wäre ich auch nicht zufrieden.

ach so und ich sagte "wenig brauchbar, wenn ich es richtig verstanden habe". ich sagte nicht, daß es per se so ist. darum habe ich den thread eröffnet. um zu fragen, wie es die anderen sehen. meinungsaustausch und so.
 
Bei Q2 wird quasi alles mit den Rays berechnet was geht, bei den anderen Spielen ist es oft ein Kompromiss, Schatten, Globale Beleuchtung oder eben Reflektionen.

Irgendwo fängt alles irgendwo an, 3D sah am Anfang auch nicht so prall aus wie heute. Schau dir Toy Story 1 vs 4 an ..
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben