News 3DMark: Nicht öffentliche Raytracing-Demo zum GeForce-RTX-Start

Also ich finde die Lösung schon Okay auch Karten ohne RT Cores anzubieten. Ich meine was hast Du denn davon wenn sie Dir da 64 RT Cores drauftun nur um die Anforderung zu erfüllen...wahrscheinlich kannst Du mit den Cores null anfangen und hast sie aber bezahlt. Früher gab es Klima im Auto ja auch nur gegen einen saftigen Aufpreis.
 
Drölfzehn schrieb:
Wenn ich recht informiert bin sind das zurzeit 11 Spiele von 11 unterschiedlichen Entwicklern

Das ist doch schon mal was. Es sind immerhin auch 11 Triple-A Spiele die Eindruck machen werden und nicht irgendein Schranz den keiner kauft. Und waren es nicht auch insgesamt 19 Spiele die neue Turing-Techniken nutzen? Es gibt ja RT einerseits, aber eben auch Deep Learning Anti Aliasing andererseits.

Drölfzehn schrieb:
Damit waren selbstverständlich nur zukünftige Karten gemeint. Ist ja eigentlich auch logisch? Wenn die Gerüchte stimmen, dann ja nur bei der 2080 TI, 2080 und 2070. Alles darunter sind ja nur noch stinknormale GTX Karten. Und ja, mir ist bewusst das RT bei den Low-End zurzeit eher sinnlos sind, aber das ändert nur leider nichts daran, dass die allermeisten Leute eher Low-End Karten besitzen und es sehr förderlich wäre, wenn zumindest die von NVIDIA auch RT könnten.

Naja, irgendwann machts halt keinen Sinn mehr die Zusatzeinheiten zu verbauen, weil die kein Butterbrot mehr vom Teller ziehen. Ob damit jemandem geholfen ist der sich RT anschauen möchte?
Ich würde die Funktionsblöcke dann lieber weglassen und damit die Stromaufnahme senken. Man könnte dan ersatzweise über Takterhöhung nachdenken.
Man weiß AFAIK auch noch gar nicht was unterhalb der 2070 kommt. Könnte auch nochmal ein geshrinkter Pascal werden, obwohl dessen EOL schon erreicht ist. Aber in kleinerer Fertigung nochmal aufwärmen ist halt nicht ausgeschlossen. Ich glaube es wäre nicht allzu leicht, bzw. eher unmöglich, RT und Tesorcores aus den Turingchips rauszuschneiden. Wenn man die nur abschalten und nicht wegschneiden kann, müsste man Strom draufgeben obwohl die Einheiten nicht arbeiten. Is auch nicht so prickelnd.

Drölfzehn schrieb:
Ich denke halt nur, dass die meisten anderen Entwickler, die von NVIDIA dafür nicht bezahlt werden, dieses Feature nicht ohne weiteres implementiert werden.

Die Macher vom Flugsimulator X-Plane sind laut Blog auch davon begistert und wollen es wohl unterstützen. Allerdings ist das für sie ziemlich schwierig. Sie müssen auf Vulkan setzen und im Prinzip alles selbst machen. Kein DX12, kein DXR, kein RTX. Vulkasupport ist auch nur geplant und nicht realisiert. Sie erwähnen aber auch, dass Entwicklerkollegen mit denen sie gesprochen haben ebenfalls begeistert sind.
 
zombie schrieb:
Raytracing ist ja für Lichtstrahlung, Reflektionen unf glänzende Oberflächen. Ich hoffe auch das in Zukunft nicht die Games komplett darauf ausgerichtet werden und man nur noch Future-Eye-Candy präsentiert bekommt.
Es soll einfach realistisch aussehen.
 
Wenn mich DAS bei Raytracing erwartet, dann verzichte ich. Danke, weitergehen.
Die Grafikdemo ist zum fremdschämen.
 
Die scheinen ja eng mit NVidia zu "kooperieren". Wo ist eigentlich nochmal der lange angekündigte 16-bit Floating Point Benchmark?
 
Na gab wohl für die RayTracing Implementation bissl mehr Zuschüsse ;D

Btw: Das Video ist nichtmehr Online. Wurde Offline genommen bzw. gelöscht...
nur soooo zur Info
 
Zurück
Oben