News Microsoft: DirectX 12 erhält Raytracing-API DXR für Hybrid-Rendering

Gibt's bein NV auch nicht nur Volta und die hat Tensor Cores deswegen geht es, ich glaube nicht dass eine GTX2050/60 dass auch haben wird, wenn dann ab GTX2070ti aufwärts, Was auch sein könnte es gibt dann Turing alias non Ti und Ampera alias Ti mit Tensor cores für DXR. Würde erklären warum es laut Gerüchteküche zwei GPU vers. geben soll.
 
Kann man jetzt mal wieder mit diesem Raytracing-Gedöns aufhören? Geht mir schon voll auf die Nerven.
Die Triggern euch alle doch nur marketingtechnisch an, um einen Grund für den Kauf neuer Grakas aus dem Boden zu stampfen.

Guckt euch die gezeigten Demos von Nvidia genau an. Vollkommen unrealistische Grafikszenarien, die mich erstens nicht verblüffen, weil Farb- & Leblos dargestellt, und zweitens niemals in der gezeigten Qualität in einem Spiel zu sehen sein werden.
Man sieht teils ja sogar in der Demo wie sich die Bildpunkte über 1-2 Sekunden zusammensetzen. Und das wird schon auf einer DGX mit 4 x Volta100 berechnet?

Und btw. - ist es jetzt echt so, dass die einzige Karte mit Tensor-Cores, die für die grandiosen Raytracing-Gamewürgs Bibliotheken von Nvidia benötigt werden, sich verrechnet? Dann sind die Lichtstrahlen vermutlich nicht mal korekkt dargestellt :evillol:
 
nein man kann nicht damit aufhören. Es gibt Leser die interessiert das... zwingt dich ja keiner das zu lesen oder so nen Dünnpfiff abzulassen ;)
 
Metro Exodus... ein Stalker in "bissl aufgehübscht", aber hey Leute, wir haben nicht mehr 2008.

Die Animation von Gras, Zweigen und Bäumen ist so unrealistisch - wenn da wirklich so eine Brise wehen würde,die das Gras so nieder drückt, dann würden da keine Partikel im Sonnenlicht ungestört tanzen am offenen Fenster.

Ebenso das Rinnsal auf dem Weg, keine 2 Fuß breit zeigt es Animation und Wellencharakter eines ausgewachsenen Baches.

Wenn man immer mehr Details rein packt, dann sollte das auch stimmig sein. So aber stößt man die Leute mit der Nase auf immer unglaubwürdigeren "Realismus".
 
Fragger911 schrieb:
Wenn man immer mehr Details rein packt, dann sollte das auch stimmig sein. So aber stößt man die Leute mit der Nase auf immer unglaubwürdigeren "Realismus".

Danke, das ganze Demovideo hat mich total verstört. Hier sollte etwas tolles neues gezeigt werden und ich schau mir das an und denke mir... Häh?! Nur ein paar bessere Texturen machen doch den Realismus nicht besser.

Und dann auch noch der Schwerpunkt Licht!
Schaut doch mal bei 1:20ff in dem Video auf die Lüfterblätter von dem Tischventilator. Das passt hinten und vorne nicht.

Wenn man etwas neues präsentieren will, dann sollte man es nicht nur gut meinen, sondern auch gut machen!
 
Also ich finde es ziemlich lächerlich wenn hier irgendwelche Algorithmen, die es schon seit 10+ Jahren gibt, plötzlich als KI-Algorithmen bezeichnet werden. Sorry, aber das ist alles Standardmathematik.... und nur weil sich das ein oder andere plötzlich dank gesteigerter Rechenleistung in bestimmten Anwendungen nutzen lässt, wird plötzlich ne KI draus? Wo wird da überhaupt die Grenze gezogen? Ist eine lineare Regression jetzt auch schon eine KI? Oder erst die Kombination von zwei oder mehr linearen Regressoren?
 
Alles nur Marketing-Gelaber. Etwas Iteration ist ja plötzlich „deep learning“, digitales Messitum schon länger „big data“ usw usf ...
 
Natürlich trotzdem also die Wassereffekte und dass verhalten des Gras im Wind sind noch realistischer, sondern sehen irgendwie noch künstlicher aus finde ich.

Okay die Schatten sehen gut aus waren bei Metro aber schon immer schön.
 
Mcr-King schrieb:
Wie gesagt der Gaming PC ist tot dass weiß auch NV oder vielleicht auch nicht und genau deswegen haben sie mit der Switch einen spalt in der Tür gelassen.

Noch ist der PC nicht Tod, der jetzige zustand muss dafür erst ~4 Jahre anhalten.
Und selbst wenn werden sich maßgeblich die großen Pubischer zurückziehen mit ihren TrippleA Gedöns.
Die meisten Spiele die ich in letzten Jahren gekauft habe würden auch auf einer 5870 2G gut laufen.

NV ist zu gierig für diesen Markt.
Anders als beim PC kann Vega oder Navi sein potential bei Konsolen voll entfalten.
NV wird bei Sony oder MS nicht mehr einsteigen können ohne das die ihre Hardware billiger als AMD verkaufen.
UNd RayTrace interesiert da noch lange 0.
 
Zuletzt bearbeitet von einem Moderator:
die content creator community am pc ist so stark ausgeprägt, dass der wegfall der großen publisher und triple A spiele den pc spielemarkt wieder in eine ähnliche situation wie 1999-2003 bringen könnte - also "reset". das wäre garnicht so verkehrt.

das wirklich schlimme wäre der wegbruch von hardware und die gängelung durch windows.
 
Die Händler sind zu gierig geworden. Niemand kann sich mehr einen SpielePC leisten. Das fängt schon bei NVIDIA an, die den Markt künstlich verknappen, oder dem RAM Kartell, das aber beides nur im PC Markt zur Geltung kommt, denn hier sind noch die Entusiasten die gerne viel Geld ausgeben. Das dumme ist nur, das werden immer weniger und dann wird auch kein Kontent mehr kommen. Sprich, die AAA Speile kommen auf Spielkonsole und nicht mehr auf dem PC. Das weiß auch NVIDIA, denn das dicke Geld wird nur am PC Spieler verdient. Um den Umstand aufrecht zu halten, geht man nun aber den falschen Weg. Anstatt die PReise zu senken, wird eine neue Software-Technologie rausgehauen, die zum aufrüsten auf noch teurere Hardware verleitet. Aber ihr habt euch diesmal geirrt. Fast alle dir ich kenne und High-End PC Gamer waren, sind auf die PS4 umgesteigen. Dies hat unglaubliche viele Vorteile. Ein einmal gekauftes Spiel kann ich an einen Freund verleihen und oder wieder verkaufen! Zweiter Vorteile ist die unglaubliche günstige Konsole. 250 Euro für eine Konsole, die das gleiche Spielerlebnis wie an einem 1300 Euro PC bietet. Und ja, der 1300Euro PC hat eine bessere Grafik... Aber mal ehrlich, 1080p auf einem 50" TV ist gut genug, wenn das Spiel gut ist.
Uncharted 4 hat mich trotz den 30fps und 1080p umgehauen.
 
Artikel-Update: Interessierte Entwickler können ab sofort mit den Arbeiten an der Umsetzung von DirectX Raytracing in Spielen beginnen. Der entsprechende DirectX-12-Layer für den Kompatibilitätsmodus auf bereits verfügbarer Hardware wurde von Microsoft auf GitHub zur Verfügung gestellt.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
 
nebulus schrieb:
Die Händler sind zu gierig geworden. Niemand kann sich mehr einen SpielePC leisten. Das fängt schon bei NVIDIA an, die den Markt künstlich verknappen, oder dem RAM Kartell, das aber beides nur im PC Markt zur Geltung kommt, denn hier sind noch die Entusiasten die gerne viel Geld ausgeben. Das dumme ist nur, das werden immer weniger und dann wird auch kein Kontent mehr kommen. Sprich, die AAA Speile kommen auf Spielkonsole und nicht mehr auf dem PC. Das weiß auch NVIDIA, denn das dicke Geld wird nur am PC Spieler verdient. Um den Umstand aufrecht zu halten, geht man nun aber den falschen Weg. Anstatt die PReise zu senken, wird eine neue Software-Technologie rausgehauen, die zum aufrüsten auf noch teurere Hardware verleitet. Aber ihr habt euch diesmal geirrt. Fast alle dir ich kenne und High-End PC Gamer waren, sind auf die PS4 umgesteigen. Dies hat unglaubliche viele Vorteile. Ein einmal gekauftes Spiel kann ich an einen Freund verleihen und oder wieder verkaufen! Zweiter Vorteile ist die unglaubliche günstige Konsole. 250 Euro für eine Konsole, die das gleiche Spielerlebnis wie an einem 1300 Euro PC bietet. Und ja, der 1300Euro PC hat eine bessere Grafik... Aber mal ehrlich, 1080p auf einem 50" TV ist gut genug, wenn das Spiel gut ist.
Uncharted 4 hat mich trotz den 30fps und 1080p umgehauen.

Immer dieses Argument der "künstlichen Verknappung." Mehrere Studien haben gezeigt, dass das nicht in jedem Fall den Verkauf ankurbelt. Schon gar nicht bei Produkten, die gerade eh händeringend am Markt verfügbar ist und auf die man ein Quasimonopol hat.

Und über die Vor- und Nachteile zwischen PS4 und PC muss man wohl nicht mehr so viel sagen. Das wurde doch alles schon hundert mal durchgekaut. Ja du kannst auf der PS4 Retailspiele verkaufen, bei digitalen Titeln geht es nicht. Dafür sind die Retail PS4 Preise meistens auch deutlich höher, als die Spielepreise für den PC, besonders wenn man mal kurz nach Release schaut. "Verleihen" geht in Zeiten von Gog, Familysharing und co. zur Not am PC auch.

Und auch das Spielgefühl Argument kann ich nicht ganz nachvollziehen. Als Besitzer einer PS4, PS4 Pro und eines PCs kann ich dir sagen, dass da doch recht große Unterschiede sind. Und das nicht mal rein auf die Technik bezogen, sondern auch auf Themen wie Multimonitoring (dabei meine ich nicht mal widescreengaming, sondern das nutzen von zusätzlichen Monitoren für andere inhalte), Modding, etc.

Ich spiele auf beiden Plattformen gerne und man muss nicht mal einen High End Rechner haben. Denn die grafischen Vorteile sprechen für mich am aller wenigsten für den PC. Wobei es durchaus spiele gibt, die auf der Konsole hart an der Kotzgrenze sind. ESO auf der Non Pro PS4 ist eine echte Zumutung beispielsweise. Habe ich bei meinem Mitbewohner gesehen, der hat es auf der PS4 angefangen und sobald etwas mehr los ist, ist es einfach nur noch Krebs von der Performance. Selbst auf seiner alten GTX 660Ti läuft es da um welten besser. Von den ganzen zusätzlichen Möglichkeiten am PC mal zu schweigen in dem Spiel ^^

Immer dieses Schwarz Weiß Denken... beide Plattformen haben Ihre Vorteile, ich möchte aber keine von beiden Missen.
 
Entschuldige bitte, wenn ich nicht auf die ganze Panikmache, rot-grün-Basherei und PC-Untergangsszenarien eingehe, aber hat niemand die Hoffnung, dass ein neues Crysis der Grafikwelt für die nächsten 10 Jahre zeigt, wo die Reise hingehen kann? Egal, wie schlecht die gezeigten Umsetzungen sind, grafisch ist das das nächste Level.

Ich für meinen Teil schaue erstmal, wie sich das entwickelt und hoffe auf ein Crysis Remaster (aus technischer Sicht).
 
Hätten wir einen gesunden Wettbewerb bei den Spiele Grafikkarten ja aber da nvidia ihre Marktmacht nutzt um die Konkurrenz künstlich auszubremsen oder gar auszusperren, nein.
 
Wisst ihr noch wie man uns mit DirectX 12 und (Windows 10) 40% mehr FPS versprochen hat ?

Ich habe sofort gesagt, das ist eine Marketing Lüge aber ich wurde hier sofort von mehreren beleidigt und fertig gemacht.

Ich werde jetzt noch ein mal sagen, das ist nur Marketing !

Vor kurzem ist Gears of War 4 raus gekommen welches nur mit Windows 10 funktioniert,
damit endlich alle auf Windows 10 umsteigen.

Ich habe Intel 8700K und Windows 7 und bin voll zufrieden.

Edit: Gears of War 4 werde ich dann auf meinem alten PC mit Intel 2600k und Windows 10 testen, werde ich vermutlich nach 20 Minuten sowieso Deinstallieren.
 
Zuletzt bearbeitet:
Das war keine Marketing Lüge sondern bezog sich schon immer auf CPU limitierten Szenarien denn das war ja der große Unterschied zu DX11. Kam dann auch noch die bessere Multicore Unterstützung ins Spiel konnten man noch deutlich mehr rausholen.
Hing das Spiel nicht im CPU Limit waren die Unterschiede entsprechend gering. Schlechte DX12 Ports die zum Teil sogar mehr Leistung von der CPU forderten als bei DX11 taten dann ihr übriges bei.
 
whesker schrieb:
Wisst ihr noch wie man uns mit DirectX 12 und (Windows 10) 40% mehr FPS versprochen hat ?

Ehrlich gesagt kann ich mich an eine pauschale Aussage diesbezüglich von offizieller Seite nicht erinnern. mir schwebt da nur was Richtung 40% Mehrleistung im CPU Limit im Kopf rum. Pauschal bringt DX12 oder eine andere Low Level API nicht mehr Performance. Sie gehen aber den Flaschenhals CPU an. Hat man doch auch schon bei Mantle damals gesehen. Bei starken CPUs hat es kaum etwas gebracht, bei schwachen CPUs hingegen gab es einen ordentlichen Performanceboost.

SoDaTierchen schrieb:
Entschuldige bitte, wenn ich nicht auf die ganze Panikmache, rot-grün-Basherei und PC-Untergangsszenarien eingehe, aber hat niemand die Hoffnung, dass ein neues Crysis der Grafikwelt für die nächsten 10 Jahre zeigt, wo die Reise hingehen kann? Egal, wie schlecht die gezeigten Umsetzungen sind, grafisch ist das das nächste Level.

Ich für meinen Teil schaue erstmal, wie sich das entwickelt und hoffe auf ein Crysis Remaster (aus technischer Sicht).

Nein. Von Crytek würde ich da auch nichts in die Richtung erwarten. Das Problem ist ganz einfach, dass man proportional viel Leistung braucht, um kleine grafische Sprünge heute zu machen.

Zumal es heute kein Verkaufsargument ist. die meisten haben sich an einer spielbaren Grafikdemo schnell satt gesehen und man kann damit heute nicht viel Geld verdienen. Warum sollte ein Hersteller Millionen in ein solches Projekt stecken? Vorallem Crytek den es finanziell eher schlecht geht, wird so ein Risiko nicht eingehen.

Crysis 1 sah zu seiner Zeit schon sehr gut aus, aber einen 10 Jahres Ausblick gab es nicht. Im gegenteil, technisch steht das spiel auf so einer schlechten Basis, dass es nie wirklich fortschrittliche Hardware auslasten konnte. Man kann halt nicht Jahre im Voraus eine Software schreiben, die zukünftige Hardware vernünftig nutzt. Crysis sieht zwar noch immer sehr gut aus, es läuft aber trotzdem in hohen auflösungen wie ein Sack nüsse und man sieht ihm an vielen stellen das Alter mittlerweile an. sicherlich ein Meilenstein der PC Grafik, aber es lohnt sich deutlich mehr ein Spiel für aktuelle Hardware auszulegen, was sich dann auch entsprechend verkauft (auch auf Konsolen)
 
Zwei Dinge, die mich interessieren würden:

1) Inwiefern verändert sich jetzt die Hardware der GPUs, damit Raytracing optimal unterstützt werden kann? Die Tensor-Cores von Nvidia, ist das der Weisheit letzter Schluss? Letztlich ist das doch nur eine aufgebohrte Matrixmultiplikation mit einer Addition, basierend auf FP16.

1a) Im Grundsatz bleiben damit die Shader erhalten?

1b) Und wie stehts um den Rasterizer? Ist der dann hinfällig, weil bei Raytracing nichts mehr "gerastert" wird?

1c) Und wie ists mit Object Culling? Muss das auch nicht mehr "beschleunigt" werden?

2) Das Zusammenschalten von GPUs sollte jetzt mit Raytracing doch perfekt unterstützt werden und relativ leicht zu implementieren sein, oder? Die bisherigen Lösungen, vor allem Alternate-Frame-Rendering, sind vom Grundsatz ja völlig anders.

Wenn man die Punkte und 1 zusammennimmt, dann wären AMD-Chips viel besser auszulasten und damit könnte doch AMD deutlich aufholen, denn hier ist beim klassischen Rasterizer-based Rendering gerade das Culling / Frontend oftmals der Engpass.

Was meint Ihr?
 
Zurück
Oben