News 3DMark: Nicht öffentliche Raytracing-Demo zum GeForce-RTX-Start

Berserkervmax schrieb:
Irgenwie jetzt nicht so spektakulär wie erhofft....

Für Entwickler ist es halt cool weil du weniger Arbeit mit den Lichquellen und der Ausleuchtung hast, das fällt bei Raytracing quasi hinten bei raus.
Dieses Gespiegele ist imho Firlefanz, ob das jetzt physikalisch korrekt spiegelt oder etwas verschwommen ist juckt beim Zocken keinen Menschen...

Wie gesagt: eh das nicht Mainstream wird wird es keine Pflicht, und Karten jenseits der 300€ sind halt kein Mainstream.
 
  • Gefällt mir
Reaktionen: Lübke82
Raytraycing schön und gut, nur wenn ich mir BFV mit und ohne RT anschaue dann gefällt es mir persönlich ohne RT bedeutend besser. Mit ist zwar beeindruckend, aber ohne einfach realistischer.
Hab mir lang Gedanken dazu gemacht warum und bin für mich zu einem Ergebnis gekommen welches auch diese Demo wieder bestätigt. Aus meiner Sicht ist es mit RT so ähnlich wie mit den Bewegungen von Menschen in Games. Ab einem gewissen Punkt wird so viel Realismus suggeriert dass das fehlende Quäntchen zur Realität massiv stört. Sprich entweder perfektes RT oder gar keines. Die fehlerhaft spiegelnden Oberflächen in BFV sind ein kraus.
 
  • Gefällt mir
Reaktionen: scg1903
So lange es keine Spiele auf dem PC gibt, die auch nur Annähernd im Gesamten so Aussehen wie das Aktuelle Spider-Man auf der "Billlligen" PS4... Gibt es keinen Grund solch Teure GPUs zu Kaufen.
 
Hmm, eine künstlich aufgepimpte Demo? Und nach der ersten Euphorie, wo dann klar wird, dass das Feature in der Praxis nicht so viel bringt, schläft es wieder ein.
 
Wirkt absolut unrealisitsch, in der Wirklichkeit würde man verschmierte Fingerabdrücke auf dem Raumschiff sehen...;)
 
Novasun schrieb:
Wieso? Die Reflexionen und Spiegelungen um die es ja hier geht sind doch genial. Und das in "Echtzeit"..

Mag sein, dennoch ist RT vorerst ein unwichtiges Feature. An der "normalen" (gefakten) Beleuchtung hat sich bisher auch niemand gestört.
 
Also ich finde es schon spektakulär. Zumindest sehe ich dem Ganzen deutlich positiver und mit mehr Zuversicht entgegen als manch anderem Hype der Vergangenheit, da man aus Relexionen und Spiegelungen (und dem Verfahren an sich) für Anwendungen und Games halt auch tatsächlich einen Mehrwert erzeugt - zwar kann man den jetzt in der 1st Gen. nicht ausschöpfen - zT nicht mal greifen aber meiner Meinung nach ist der Griff nach RT ein wichtiger technologischer Schritt den computergenerierte Grafik (jetzt) gehen muss. Und eben deshalb ist es nicht nur ein Hype oder Spielerei.
 
Wäre das ein AMD Feature würden hier alle komplett am Rad drehen und "GENIAL!" schreien usw.

Aber weil es nVidia ist, ist es eher so naja... xD

Kommt schon Leute, das wird in Zukunft einige sehr gut aussehende Games bringen, ich bin mal gespannt.

Und wie es halt immer so ist mit neuer Technik wird es natürlich einige Zeit dauern bis das richtig ankommt, das liegt aber nicht daran das es nVidia ist sondern ist völlig normal. Mal sehen wie so manches Game in 1-2 Jahren aussieht. ;)
 
  • Gefällt mir
Reaktionen: Lübke82
...das Problem ist ja eben, dass die Leute nur an "gutes Aussehen bei Games" denken und überhaupt nicht die Reichweite von RT Berechnungen auf Consumer-Ebene bezogen auf periphere Bereiche sehen.

Mit RTX wird die Entwicklung und Kostensenkung von RT Cores erstmal angeschoben. Der Einsatz in einigen Jahren ist doch weitaus spannender.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Jan schrieb:
Auch den von UL Benchmarks (vormals Futuremark)
... (vormals MadOnion) ...

Oh Gott, ich bin alt ^^

Cya, Mäxl
 
  • Gefällt mir
Reaktionen: Berserkervmax, DoNG und Lübke82
@xdave78 @eLdroZe

Ein großes Problem von RayTracing ist, dass es spezielle Hardware für braucht. Die Spielentwickler werden mit Sicherheit nicht die benötigte Manpower für etwas bereitstellen was >99 % der Leute eh nicht nutzen können. Das macht aus finanzieller Sicht ja auch gar keinen Sinn. Das drückt die Erfolgsrate schon mal erheblich.

NVIDIA müsste auch mal anfangen RT auf allen zukünftigen Karten anzubieten damit es eine gewisse Verbreitung findet und vor allem, darf es nicht etwas proprietäres werden, indem NVIDIA seinen eigenen Weg geht. Ansonsten wird das eine Totgeburt - wie PhysX seinerzeit - werden. Nicht nur dass die Entwickler Manpower für etwas bereitstellen müssten was 99 % der Leute nicht nutzen können, nein, man muss dann auch noch zwischen AMD und NVIDIA differenzieren, falls AMD auch auf den Zug aufspringt, was das ganze nochmals teurer macht. Zu guter letzt muss NVIDIA natürlich auch erheblich an der Performanceschraube drehen, sonst wird das Feature so hübsch es auch aussieht, nicht angenommen, wenn RTX on bedeutet 50%+ weniger Performance.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: abe|ellis
Drölfzehn schrieb:
@xdave78 @eLdroZe

Ein großes Problem von RayTracing ist, dass es spezielle Hardware für braucht.
Das war Physik (PhysX, Havok) auch mal, oder Transform&Lightning.
Mit entscheidendem Unterschied - RT ist eben nicht wie Du sagst eine propertiäre Technologie sondern ist bereits in einer allgemeinen API (DX12) enthalten und kann somit auch auf dieser Basis angesprochen werden. Mit NVIDIA hat das erst einmal weniger zu tun.
 
  • Gefällt mir
Reaktionen: Berserkervmax und Lübke82
sieht ja fast so gut aus wie das hier:
:p leider haben die benchmarkhersteller vergessen wie, man beeindruckende benchmarksqeunzen produziert.
 
  • Gefällt mir
Reaktionen: mr_capello und Lübke82
Mordhorst3k schrieb:
An der "normalen" (gefakten) Beleuchtung hat sich bisher auch niemand gestört.

Hach, diese herrliche Aufbruchsstimmung gepaart mit Neugier auf das Kommende ist einfach fantastisch :daumen:

Drölfzehn schrieb:
NVIDIA müsste auch mal anfangen RT auf allen Karten anzubieten damit es eine gewisse Verbreitung findet

Sollen sie alle Pascal-Karten zurückrufen und RT- und Tensorcores dazulöten? Wie stellst du dir das "auf allen Karten anbieten" vor? Sie bieten es doch auf allen Karten der neuen Chipgeneration an.
RT ohne Einheiten auf <= Pascal bedeutet 2FPS Daumenkino. Das will auch keiner.

Drölfzehn schrieb:
Nicht nur dass die Entwickler Manpower für etwas bereitstellen müssten was 99 % der Leute nicht nutzen können

"Die Entwickler"(tm) machen das doch schon bei einigen AAA-Titeln. Bei AA-Titeln und drunter brauchst du mit zeitnahem RT eh nicht rechnen. Dafür werden deren Budgets vermutlich nicht reichen. So Spiele a la Cyberpunk z.B.
 
Nur weil man "Raytracing" immer wieder und noch öfter sieht hört und Predigt wird es nicht automatisch zu einer sinnvollen Funktion die man braucht...
 
  • Gefällt mir
Reaktionen: Mordhorst3k
@GreitZ: Wer definiert denn was man braucht? Man braucht so vieles nicht. Zum Beispiel ein neues iPhone für 1600 Euro. Also das finde ich zumindest. Andere brauchen das aber komischerweise.

RT braucht man jedenfalls für realisitische Beleuchtung und Spiegelungen. Ob man persönlich Wert darauf legt diese realisitische Beleuchtung und Spiegelung zu haben steht auf einem anderen Blatt.

Ich finde persönlich das der neue Ansatz Raytracing zu realisieren spannend und verfolgenswert ist, zumal das schon locker 10 Jahre ein Thema ist. Kaufen werde ich mir so eine Karte aber nicht. Die Nachfolgekarte wahrscheinlich auch nicht.
Ich habe mir nämlich vor 2 Jahren eine 1070 gekauft und schon beim Kauf definiert dass sie mindestens 5 Jahre im Rechner bleibt (es sei denn sie geht kaputt). Schon da war ausgeschlossen dass ich jetzt eine neue Karte kaufe, selbst wenn man damit zum Mond fliegen könnte.
 
  • Gefällt mir
Reaktionen: Mort626 und mr_capello
estros schrieb:
Jede Grafikkarte kann dies berechnen, siehe zb den Bericht zur Turing Architektur.

In der Theorie kann es jede , also auch aktuelle AMD / alte NV Karten. Nur ohne die Hardware Komponente der NV RTX Generationen würde das so ablaufen wie ein H265 Video ohne Hardware Beschleunigung = Standbilder Geruckel.

zombie schrieb:
Raytracing ist ja für Lichtstrahlung, Reflektionen unf glänzende Oberflächen. Ich hoffe auch das in Zukunft nicht die Games komplett darauf ausgerichtet werden und man nur noch Future-Eye-Candy präsentiert bekommt.

Da diese Technik noch am Anfang steht (nicht die Technik selbst sondern die Integration dieser in Spielen) müssen die Entwickler von Spielen auch erstmal lernen wo sie sie implementieren so das es auch Sinn macht (Das ist das was DICE nun bei Battlefield V bemerkt hat und nun ändert) und nicht das man wie bei einer Demo (zu Schauzwecken) oder hier bei einem Benchmark der ALLE Oberflächen damit die Grafikkarte nicht nur Maximal gestresst wird sondern Überfordert werden soll damit die Leistungsunterschiede bei dieser Technik zwischen den Grafikkarten die das berechnen können besser zu unterscheiden sind.

Sprich dieser Overkill an transparenten bzw. reflektierenden Oberflächen ist bei einer DEMO oder Benchmark gewollt. in einem Spiel werden bis auf spezielle Ausnahmen von Räumen (zb: Labore mit Maschinen) immer nur ein paar Details/Objekte in einem Raum diese reflektierenden Eigenschaften aufweisen. Anstatt wie bisher nur die Eigenschaft transparent zu sein = Glas aufzuweisen.
 
@xdave78
Man muss es dem Nvidia Marketing aber lassen, sie haben es hinbekommen, dass die Meisten denken, dass Raytracing eine Nvidia Erfindung sei und nur auf diesen laufe...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AssembIer
JJJT schrieb:
@xdave78
Man muss es dem Nvidia Marketing aber lassen, sie haben es hinbekommen, dass die meisten denken das Raytracing eine Nvidia Erfindung sei und nur auf diesen laufe...
Keine Frage. Wobei mir persönlich das eigentlich erst jetzt so recht bewusst wird wo Du es erwähnst.
 
xdave78 schrieb:
...RT ist eben nicht wie Du sagst eine propertiäre Technologie sondern ist bereits in einer allgemeinen API (DX12) enthalten und kann somit auch auf dieser Basis angesprochen werden. Mit NVIDIA hat das erst einmal weniger zu tun.

Da hast du recht, ich hab BS erzählt. Was ich eigentlich meinte war, dass NVIDIA hoffentlich nicht auf die dumme Idee kommt und mit einer proprietären Lösung einen eigenen Weg geht. Hab mein ursprünglichen Post entsprechend angepasst.

DocWindows schrieb:
Sollen sie alle Pascal-Karten zurückrufen und RT- und Tensorcores dazulöten? Wie stellst du dir das "auf allen Karten anbieten" vor? Sie bieten es doch auf allen Karten der neuen Chipgeneration an.
RT ohne Einheiten auf <= Pascal bedeutet 2FPS Daumenkino. Das will auch keiner.

Damit waren selbstverständlich nur zukünftige Karten gemeint. Ist ja eigentlich auch logisch? Wenn die Gerüchte stimmen, dann ja nur bei der 2080 TI, 2080 und 2070. Alles darunter sind ja nur noch stinknormale GTX Karten. Und ja, mir ist bewusst das RT bei den Low-End zurzeit eher sinnlos sind, aber das ändert nur leider nichts daran, dass die allermeisten Leute eher Low-End Karten besitzen und es sehr förderlich wäre, wenn zumindest die von NVIDIA auch RT könnten.

DocWindows schrieb:
"Die Entwickler"(tm) machen das doch schon bei einigen AAA-Titeln. Bei AA-Titeln und drunter brauchst du mit zeitnahem RT eh nicht rechnen. Dafür werden deren Budgets vermutlich nicht reichen. So Spiele a la Cyberpunk z.B.

Wenn ich recht informiert bin sind das zurzeit 11 Spiele von 11 unterschiedlichen Entwicklern, die von NVIDIA mit Sicherheit gut dafür bezahlt worden sind. Und das mache ich denen überhaupt nicht zum Vorwurf, versteh mich nicht falsch. Ich denke halt nur, dass die meisten anderen Entwickler, die von NVIDIA dafür nicht bezahlt werden, dieses Feature nicht ohne weiteres implementiert werden.

Man darf natürlich auch nicht vergessen das "RT-Support" erst mal gar nichts heißt. Von vereinzelten Wasserpfützen, die man vielleicht alle Jubeljahre mal trifft bis hin zum gesamten Licht, könnte alles drin sein. Es würde mich also überhaupt nicht wundern, wenn AAA-Spiele dabei sind die jetzt zwo Werbung machen aber am Ende vielleicht tatsächlich nur Wasserpfützen die man alle Jubeljahre mal trifft via RT berechnen und alles andere über stinknormale Rasterization läuft. Da werden einige sehr enttäuscht sein.
 
  • Gefällt mir
Reaktionen: Mort626
Zurück
Oben