News DirectX 12: Futuremark zeigt DirectX Raytracing (DXR) am 3DMark

edenjung schrieb:
Das Hat Nvidia entwickelt? Wo steht denn das?

Unter anderem auch in dem von dir verlinkten Golem-Artikel. MS und NV haben da zusammengearbeitet.

Wobei mich das tatsächlich eher verwundert, denn Innovationskraft, vor allem auch noch für welche die in (halbwegs) offene Standards einfließen verbinde ich ja eher mit AMD...
 
man kann Nvidia moegen, hassen was auch immer, real time ray tracing war und ist schon immer der ultimative traum gewesen und dies ist der erste Schritt richtung Realisation und damit Sensation fuer mich
 
Jesterfox schrieb:
Wobei mich das tatsächlich eher verwundert, denn Innovationskraft, vor allem auch noch für welche die in (halbwegs) offene Standards einfließen verbinde ich ja eher mit AMD...

Soweit wie ich das sehe ist AMD an DXR von MS mit beteiligt, NVs RTX ist wohl das selbe wie AMDs Freesync andere Name und wohl auf V100 TensorCores zugeschnitten.
 
Zuletzt bearbeitet von einem Moderator:
knoxxi schrieb:
Achtung noob alarm:

Wäre es möglich mit RT die jetzige Art und Weise der Grafikberechnung völlig zu verändern und das eine Grafikkarte nur noch "RT-Einheiten" hat?

Möglich wäre es. Nicht zuletzt kenne ich das Thema Ráytracing schon seit meinen frühen Gaming-Tagen Mitte der 90er. Da war das schon einmal recht stark im Fokus (genau wie VR....verrückte Sache). Das Problem ist, dass die Power das zu berechnen in keinem Verhältnis zu dem steht was aktuelle technisch machbar und zahlbar wäre um ein komplettes Spiel mit 33s oder gar 16,6s laufen zu lassen. Dementsprechend würde ich jetzt mal mit meiner nagelneuen Glaskugel davon ausgehen, dass die Fusion beider Techniken (Rastern und Raytracen) jetzt mal eine gute "Überleitung" ist um die Technik dafür weiter zu entwickeln. Sicherlich mit dem Ziel irgenwann (nicht heute, nicht morgen und auch nicht in den nächsten 10 Jahren) das Rastern vielleicht komplett auszusetzen, da Raytracing sich ja im Prinzip mit den Strahlen an der Natur und dem natürlichen Sehprozess orientiert und wir in einer Zukunft voller AR wohl auch realistische Bilder wünschen bzw. es leichter sein wird eine Technik die sich am Sehprozess orientiert auch besser auf den Menschen abzustimmen. (nehm ich an)
 
Jesterfox schrieb:
Unter anderem auch in dem von dir verlinkten Golem-Artikel. MS und NV haben da zusammengearbeitet.

Wobei mich das tatsächlich eher verwundert, denn Innovationskraft, vor allem auch noch für welche die in (halbwegs) offene Standards einfließen verbinde ich ja eher mit AMD...

Oh. Ich hab den Artikel damals nur überflogen. Das hab ich wohl überlesen. :D
 
StefVR schrieb:
Man kann Nvidia viel vorwerfen aber nicht mangelnde Innovationskraft.

Dummer weise wird diese Innovationskraft nahezu ausschließlich dafür genutzt die Konkurrenz auszubremsen oder auszusperren.
 
edenjung schrieb:
Das Hat Nvidia entwickelt? Wo steht denn das? ich bin davon ausgegangen, dass es das schon läanger gibt. Das wird ja auch Teil von Direct X 12.
Es sind immer die Hardware-Hersteller, die vorlegen.

Microsoft legt ja nicht irgend eine API fest und die Grakahersteller gehen dann her und bauen die passende Hardware dafür.

Es läuft umgekehrt. Die Graka-Hersteller entwickeln jahrelang an ihrer Hardware und wenn sie fertig ist, dann gehen sie zusammen mit Spieleentwicklern und auch der Konkurrenz zu Microsoft und entwickeln eine gemeinsame API um ihre zukünftige Hardware ansprechen zu können.
Eine API ist ja nichts anderes als eine Schnittstelle um Hardware anzusprechen. Die hat also nicht MS festzulegen, sondern die Hardwarehersteller.
DirectX12 wird nicht von MS, nVidia oder AMD allein entwickelt sondern ist ein Ergebnis einer Koooperationsarbeit. Jeder hat dort ein Wort mitzureden wie diese API aussehen soll und AMD wird auch bald mit seiner eigenen Hardware-Implementation folgen, die dann durch DirectX12 beschleunigt wird.
 
@noxon
Hätte deine Logik auch nur halbwegs Sinn dann würden die Spiele und die Grafikkarten deutlich vor der API raus kommen. Schon eigenartig das dies nicht der Fall ist.
Der Entwickler der API entwickelt diese in Zusammenarbeit mit den Hard- und Softwareherstellern, das MS hier offenbar nur mit einem zusammengearbeitet hat legt die Vermutung nahe das diese API auch recht deutlich auf dessen Hardware ausgerichtet ist und schon passt es wieder zum Schema von nvidias bisheriger Vorgehensweise.
 
shahisinda schrieb:
neben Motion Blur halte ich Chroma und DOF in nahezu jedem Spiel für absolut uberflüssig und störend. Das sind die drei ersten die auf Off gehen bei mir. Lieber Energie und Entwicklung in anderes stecken, als diese sinnlosen Effekte.

Wie wahr, wie wahr. Diese drei Effekte deaktiviere ich auch immer als erstes:D
 
Am witzigsten finde ich es wenn beim Display Wert auf geringe Pixelreaktionszeiten gelegt wird und die gewonnene Bewegungsschärfe dann wieder mit Bewegungsunschärfe platt gemacht wird.
 
Pi mal Daumen seh ich hier nix, was deutlich beeindruckender / realistischer aussieht als in diversen aktuellen Games. Ich bin zB grad etwas verspätet dran, Witcher 3 durchzuspielen, mit maximierten Grafiksettings, und u.a. nochmal erhöhter Schattenqualität via Config. Die Schatten sehen in dem Spiel sehr korrekt aus. In den aktuellen Frostbite Engine Games zB ebenso.
 
Es dürfte darum gehen dass man nicht aufwendig versucht zB Reflektionen so versucht aussehen zu lassen als ob sie halbwegs physikalisch korrekt wären... Es kann durchaus einfacher sein diesem Boden einen gewissen Reflektionswert zu geben und den Rest erledigt das dahinter verborgene Raytracing, dass garnich mal perfekt sein muss aber durchaus auch die Sache vereinfachen kann.

Genauso die Beleuchtung. Äußerdem schlummert ggf. auch in den GPU und CPU noch Reserven die genau mit sowas wie RT nahezu linear skalieren. Am Anfang mag das viel Leistung kosten, kann aber hin zu einer weitestgehend korrekt rendernden Szene gehen. Mit steigender GPU und CPU Performance steigt der Anteil der Raytracing Anteile. Je nach dem wo es lohnt über Korrektheit noch was an BQ rauszuquetschen.

Ich denke aktuell sind wir auch an einem Punkt bei der klassische Engines für mini Fortschritte bei BQ massiv viel Power brauchen. An der Stelle wird der Weg zu Raytracing oder physikalisch korrekten Methoden ggf wieder interessanter. :)
 
Zuletzt bearbeitet:
Acrylium schrieb:
Wow, das sieht ja tatsächlich auffällig besser aus. Nicht schlecht. Fragt sich nur wie lange es dauern wird bis gängige Software das unterstützt und gängige Hardware das zu berechnen in der Lage ist. Eine Titan V halte ich nicht für "gängige" Hardware ;)

Das würde mich nicht wundern wen das noch mindestens 10 Jahre dauert. Eine Titan V kostet 3000€... Es ist die erste Karte im Konsumermarkt der Raytraicing überhaupt wiedergeben kann. Und das vermutlich auch nur in nem Benchmark. Von der Spieleleistung liegt sie glaub ich ja grad mal 20% über eine Ti. Und gängig ist halt eine 1050ti oder eine 1060.... für 200-300€.
 
Hmm.. Hauptsache mal schnell n Benchmark rausgehaun. Is jemanden noch aufgefallen wie der Roboter auf dem Boden rumeiert? N bisschen mehr zeit und das hätte sauber ausgesehen. Ka wieso aber das is mir sofort ins Auge gefallen.
 
Sinnfrei schrieb:
Toll, wird vermutlich nur niemals veröffentlicht, genauso wie der 3DMark Serra.
serra war eine auftragsarbeit für amd
"They demonstrate a usage case of Rapid Packed Math using 3DMark Serra - a custom demo created by Futuremark for AMD to show off this Technology" https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/3.html
nagus schrieb:
Genauso wird es kommen.
ja und weiter ?

@Kasjopaja ist halt nur ne demo
 
Zurück
Oben