News Auch für Radeon: Crytek zeigt Raytracing-Demo für kommende CryEngine

yummycandy schrieb:
Nein, das würde zu weit führen. Allerdings hat Volta Tensor Cores und eine auf Compute ausgelegte Architektur. Diese ist z.B. nicht mehr superskalar, hat separierte Integer Cores und überarbeitetes Thread Sheduling.

Die Tensor Cores sollten ja fpr RT irrelevant sein, da sie ohnehin nicht zum entrauschen verwendet werden, sonst würde es ja vermutlich auch mit RT+DLSS Probleme geben. Es sei denn, die sind so schnell, dass sie auch locker beides schaffen oder man das entrauschen und DLSS in einem Schritt vereint. AI-Upscaler haben ja auch Entrauscher drin, weil das Upscaling auch zu Rauschen führen kann. Ob das jetzt mit dem RT-Rauschen vergleichbar ist, weiß ich allerdings nicht so genau.

Fraggball schrieb:
Naja,zumindest basieren die rt cores auf volta und sind weiter spezialisiert auf bestimmte Berechnungen.
Volta ist für diese Berechnungen aber auch schon deutlich besser geeignet als pascal.

Ja, ich meinte das im Sinne von Shader -> x5 -> RT-Shader -> x5 -> RT-Kerne, so etwa scheint sich die Leistung zumindest grob zu verhalten. Compute-Leistung im eigentlichen Sinne hat Vega ja auch, aber AMD verkauft ja jetzt nicht Radeon Instinct als DXR-Karten, weil einfach nur Compute-Leistung wohl keine Optimierung auf RT ist.
Wenn ich @ZeroZerp richtig in Erinnerung habe braucht es für RT eher was in Richtung 4-bit-Leistung, während übliche Compute-Karten ja auf 64bit Double-Precision ausgelegt sind. Also mehr oder weniger eine Optimierung in die andere Richtung?
 
MK one schrieb:
Was man auf jeden Fall sagen kann : Cryteks Ansatz braucht weniger Rechenpower

Nein, das kann man nicht auf jeden Fall sagen, weil es überhaupt keine Leistungsdaten dazu gibt. Und einen Vergleich gegenüber einer DXR-Implementierung gibt es auch nicht.
Ergänzung ()

Fraggball schrieb:
Ach und zu dem 10 mal schneller,

Das bezog sich schon immer rein auf die Raytracing-Leistung und dort stimmt das ja. Hat also mit Marketing-Gewäsch nichts zu tun.
 
MK one schrieb:
Ihr könnt schreiben was ihr wollt , muss man eine bestimmte Hardware nutzen um ein Feature nutzen zu können ist das ganz bestimmt kein Vorteil .

Das ist aber immer so bei Innovationen. Das war bei Mantle auch nicht anders. Und ebenso, als AMD seinerzeit die ersten Tesselation Ansätze angeboten hat.

Bei Dir ist eine Innovation immer dann schlecht, wenn sie die "falsche" Firma macht. Ganz egal, was es ist.
 
  • Gefällt mir
Reaktionen: KlaraElfer und kisser
KarlKarolinger schrieb:
Die Tensor Cores sollten ja fpr RT irrelevant sein, da sie ohnehin nicht zum entrauschen verwendet werden, sonst
Es scheint so, als wenn TCs doch für RT benutzt werden. Hab auf die Schnelle nicht gefunden inwiefern genau.

Das Rendering einer Szene besteht aus mehreren Berechnungen. Dazu gehören FP32, INT32, RT-Core-Operationen und diese in den Tensor Cores. Ein durchschnittliches Rendering verwendet etwa 80 % der FP32-Ressourcen, 28 % der INT32-Ressourcen, 40 % der Rechenleistung der RT Cores und 20 % der Rechenleistung der Tensor Cores. Damit kommt NVIDIA auf 78 RTX-OPS als Maßeinheit für die Rechenleistung im Hybrid Rendering.
https://www.hardwareluxx.de/index.p...-und-den-neuen-shader-funktionen.html?start=4
 
Grestorn schrieb:
Das ist aber immer so bei Innovationen. Das war bei Mantle auch nicht anders. Und ebenso, als AMD seinerzeit die ersten Tesselation Ansätze angeboten hat.

Bei Dir ist eine Innovation immer dann schlecht, wenn sie die "falsche" Firma macht. Ganz egal, was es ist.
Mantle ist keine Hardware und der Vorläufer von Vulkan , und nutzt NV Vulkan ?
Ebenso ist Tessalation eine Innovation von AMD wie du schon sagst , die von NV adaptiert und ausgebaut wurde
AMD hat die Tessalation nicht auf AMD Hardware beschränkt , ebensowenig wie Vulkan beschränkt ist .

RT cores sind Brute Force , sind zu nichts anderes zu gebrauchen , nur in RT Games
Cryteks Ansatz ist innovativer weil die Rechenpower der Graka bei anderen Engines halt für was anderes gebraucht werden kann
On Non RTX Games sind RT Cores nur Ballast , die Tensor Cores können wenigstens teilweise noch verwendet werden
Ergänzung ()

yummycandy schrieb:
Es scheint so, als wenn TCs doch für RT benutzt werden. Hab auf die Schnelle nicht gefunden inwiefern genau.


https://www.hardwareluxx.de/index.p...-und-den-neuen-shader-funktionen.html?start=4

Die Tensor Cores werden bei RT für das "entrauschen" des Bildes benötigt , sonst wirkt das Bild pixelig
 
  • Gefällt mir
Reaktionen: Thraker und yummycandy
Selanius schrieb:
@ZeroZerp und @KlaraElfer
Ja ist ok. Dreht es euch nur immer weiter solange bis es wieder passt. Alle anderen können und wissen nichts, nur nVidia macht es richtig und ihr seid die einzigen, die alles schon im Vorraus wissen. Irgendwann ist es auch mal gut mit dem missionieren.
In jedem Thread mittlerweile dasselbe gelobpreise von nVidias überlegener RTX Technik. Die leider für alle anderen, die nicht nur durch eine grüne Brille gucken, nur eins bewiesen hat: Die Technik die nVidia da zusammengefrickelt hat in einem halben Jahr (Nicht meine Aussage) ist halt nicht fertig und keiner hat wirklich Lust RTX zu implementieren (außer die, die ein paar $ von nVidia als Unterstützung bekommen). Das sieht man an der Spieleauswahl, das sieht man daran wie komplex es doch am Ende ist RTX ein zu bauen und das sieht man daran, dass es keinen Leistungsvorteil für den Kunden gibt (noch immer nicht).

Ja ist ok, RTX ist das einzig wahre und alle anderen "tricksen" nur, die RT über einen anderen Weg realisieren. Am besten sollte das mal jemand Crytek mitteilen, das sie aufhören den falschen Weg weiter zu gehen. Wäre ja ein frevel, wenn sie ihren Ansatz bis zum Ende fertig stellen und dieser dann noch immer auf jeder Mainstream GPU laufen würde. 😆
Laß Crytek man weiterentwickeln, keiner hier im Forum ist traurig, wenn es genauso läuft wie sie es versprechen, hier sind nur Leute, die sich über jede Verbesserung der Spielegrafik freuen. Ohne wenn und aber. Ich persönlich hoffe, dass auch Ubisoft so was entwickelt, dann wären einige meiner Lieblingsspiele noch schöner. Es geht hier überhaupt nicht drum, wer Recht hat. Schließlich haben hier die meisten nur mehr oder weniger theoretisches Wissen in Bezug auf Grafikentwicklung bei Computerspielen.
Es geht um das was wir am Bildschirm sehen, das Spiel!
Bis dahin darf hier jeder gescheit weiterschwurbeln, so lange es nett bleibt. Mich eingeschlossen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@MK one
Du argumentierst hin und her, mit sehr fragwürdigen Wendungen, nur um recht zu behalten. Warum denn? Warum muss eine Innovation "SW" sein, um "gut" zu sein, und darf nicht in HW realisiert sein? Was ist das für eine Logik?

Tesselation war damals eine AMD spezifische Erweiterung, die NUR von AMD nutzbar war. Erst viel später wurde das in DirectX aufgenommen. Eine klassische Innovation.

Und RT ist ebenso wenig NV exklusiv, wie schon 1001x in diesem Thread klargestellt wurde. Wieso packst Du diese Behauptung erneut aus?

Die Tesellation Einheiten von AMD waren damals auch unnütz für alle Spiele, die das nicht unterstützten. Wie so viele andere Dinge, wenn sie neu sind.

Deine Argumentation geht schlicht hinten und vorne nicht auf, Du willst das nur nicht wahrhaben.
 
  • Gefällt mir
Reaktionen: kisser
Macht Hoffnung auf ein Crysis 4 :freaky:
 
  • Gefällt mir
Reaktionen: pietcux
@Grestorn
DXR ist eine Schnittstelle von DX12 , um sie zu nutzen braucht man nicht unbedingt spezielle Hardware RT Cores

wir kennen derzeit noch nicht die Hardwareanforderungen die die Crytek Demo hat und doch scheinst du darauf zu beharren das es nur mit Hardware RT Cores machbar sei .

Die crytek Demo zeigt doch grade das RT Reflektions auch auf ner AMD Karte läuft , obwohl RT / DXR noch gar nicht im AMD Treiber integriert wurde ...
 
  • Gefällt mir
Reaktionen: Thraker
MK one schrieb:
Ihr könnt schreiben was ihr wollt , muss man eine bestimmte Hardware nutzen um ein Feature nutzen zu können ist das ganz bestimmt kein Vorteil .

Die bestmögliche Umsetzung von RT geht aber nicht ohne bestimmte Hardware. Warum sollte man auf eine mit starken Einschränkungen verbundene Näherung setzen?
 
MK one schrieb:
Ihr könnt schreiben was ihr wollt , muss man eine bestimmte Hardware nutzen um ein Feature nutzen zu können ist das ganz bestimmt kein Vorteil .

Auf wessen Aussage beziehst du dich? Man benötigt für DXR keine dedizierten fixed function units, schau dir doch mal die Titan V an.

MK one schrieb:
Man merkt es doch daran wie schleppend RTX Games rauskommen , die RTX Grakas sind seit 6 Monaten raus und die Anzahl der Games mit entsprechendem RT kan man immer noch mit einer Hand abzählen .... , trotz der NV Liste beim Launch von Games die " bald " verfügbar sein sollten ....

Cryteks SVOGI Ansatz, auch inkl. Raytracing ist schon seit Ewigkeiten in Demos verfügbar, aber schaffte es bisher nicht in ein einziges Spiel, dein Vergleich hinkt also.
 
MK one schrieb:
DXR ist eine Schnittstelle von DX12 , um sie zu nutzen braucht man nicht unbedingt spezielle Hardware RT Cores

Du brauchst auch keine GPU um DX12 zu nutzen. Geht auch alles auf der CPU per Software-Renderer.
Wozu also Hardware. die irgendetwas beschleunigt. :freak:
 
KlaraElfer schrieb:
Auf wessen Aussage beziehst du dich? Man benötigt für DXR keine dedizierten fixed function units, schau dir doch mal die Titan V an.

Nur eine 3000 Euro Graka .... , Thema erledigt ... , crytek ne RX 56 = 300 Euro Graka
KlaraElfer schrieb:
Cryteks SVOGI Ansatz, auch inkl. Raytracing ist schon seit Ewigkeiten in Demos verfügbar, aber schaffte es bisher nicht in ein einziges Spiel, dein Vergleich hinkt also.

??? Das RT Reflections Feature ist so neu das es erst provisorisch in der CryEngine 5.5 integriert wurde und das ist das worüber dieser Thread hier handelt .
Wird es sich durchsetzen ? muß sich erst noch zeigen .. , ebenso wie NV s RTX

Der Chip Artikel wiederholt das auf was ich bereits einige Seiten vorher schrieb ( schon vor den Artikel )
https://www.chip.de/news/Geniale-Gr...e-auf-300-Euro-AMD-Grafikkarte_164296525.html

Laut Crytek wird die CryEngine diesbezüglich noch optimiert, damit sie von den Fähigkeiten von High-End-Grafikkarten profitiert. Vorausgesetzt werden die Grafikschnittstellen DirectX12 oder Vulkan.
Vor dem Hintergrund erscheint es mittlerweile plausibel, dass auch Spielekonsolen wie die PlayStation 5 Raytracing-Effektebieten könnten.

Die kommenden Konsolen werden keine dedizierten Hardware RT Cores haben , ergo werden die Game Entwickler dort zu einer Engine greifen die , mit vertretbaren Hardwareaufwand , RT bzw RT ähnliche Effekte bieten kann ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thraker und DrDoom
MK one schrieb:
wir kennen derzeit noch nicht die Hardwareanforderungen die die Crytek Demo hat und doch scheinst du darauf zu beharren das es nur mit Hardware RT Cores machbar sei .

Wie kommst Du darauf? Das habe ich mit keinem Wort behauptet. Das Gegenteil wurde ja oft genug hier geschrieben.

Es ist naheliegend, dass man mit RT Cores effizienter und schneller zu einem bestimmten Ergebnis kommt, als ohne. Das wirst Du vermutlich bestreiten, da ja generell alles von NVidia scheiße und unnötige Geldmacherei ist. Das ist mir letztlich egal, wie Du Dir Deine Realität zusammen zimmerst.
 
  • Gefällt mir
Reaktionen: kisser
Wieso sollte man keine Zweifel an nVidia's RT Hardware äußern, wenn ähnliche Ergebnisse plötzlich in einer Tech-Demo auch völlig ohne spezialisierte Hardware erzielt werden ?

Ich mein, jeder hier im Forum weiß, dass die RTX Karten allesamt in ihrer Klasse teurer wurden, mit genau diesem Verkaufsargument. Und das scheint durch solche Tech-Demo's und der Tech-Presse-Reaktion grade weiter torpediert zu werden.


Mal ganz nebenbei, die Leute sollten mal langsam aufhören bei nVidia und RT von Innovation zu sprechen... RT gibt es schon seit gefühlten Ewigkeiten und ist eindeutig keine Innovation von nVidia.
 
  • Gefällt mir
Reaktionen: Thraker und DrDoom
Aldaric87 schrieb:
Wieso sollte man keine Zweifel an nVidia's RT Hardware äußern, wenn ähnliche Ergebnisse plötzlich in einer Tech-Demo auch völlig ohne spezialisierte Hardware erzielt werden ?

Weil "ähnlich" nicht "gleich" ist und wegen der klar benannten Probleme bei der Demo.

Komm, ihr seid doch nicht ernsthaft so naiv, oder?

Nur wegen dem Hass auf NVidia meint ihr ernsthaft, die bauen Dummy-HW auf ihre Karten, damit man damit mehr Geld verlangen kann? Denkt doch mal nach...

RT ist keine Innovation, aber die Möglichkeit, RT effizienter und schneller zu rechnen. Und mehr hat NV auch nie verkauft.
 
  • Gefällt mir
Reaktionen: kisser
yummycandy schrieb:
Es scheint so, als wenn TCs doch für RT benutzt werden. Hab auf die Schnelle nicht gefunden inwiefern genau.

https://www.hardwareluxx.de/index.p...-und-den-neuen-shader-funktionen.html?start=4

Das scheint auf der Präsentation von NVidia zu basieren. Da werden auch RT-Cores und FP32 Shader gleichzeitig für RayTracing verwendet. Laut NVidia Blog ist es aber eben tatsächlich so gewesen, dass diese nur hinterinander/abwechselnd und nicht gleichzeitig gearbeitet haben.
Ist allerdings auch schon eine Weile her und ich finde den Blogeintrag gerade nicht. In dem Zusammenhang kam wohl auch die Vermutung auf, dass eben die Shader den Denoiser geben würden. Naja, zum Teil scheint das alles noch recht unsicher. Ich dachte auch, ivch wüsste aufgrund der Präsentation, wie es läuft, bis ZeroZerp mir dann anhand des Blogs gezeigt hatte, dass es in Wirklichkeit ganz anders lief, aber das war vor 3 Monaten oder so. 🤷‍♂️

kisser schrieb:
Die bestmögliche Umsetzung von RT geht aber nicht ohne bestimmte Hardware. Warum sollte man auf eine mit starken Einschränkungen verbundene Näherung setzen?

Weil man seit Jahrzehnten bereits auf noch viel schlechtere Näherungen setzt und nicht jeder für die spezielle Hardware so viel Geld ausgeben will? Wenn ein Markt dafür da ist, sollte man also darauf setzen, weil man damit Geld verdienen kann. Als Kunde könnte man darauf setzen, weil man sich teure Spezialhardware spart.
 
Grestorn schrieb:
Komm, ihr seid doch nicht ernsthaft so naiv, oder?
Klar ... , jede weitere Disskission erübrigt sich wenn jemand nur seine eigenen Argumente anerkennt ...

und ist dir eigentlich aufgefallen das Crytek von Real Time Raytracing Reflections spricht ...

ausserdem , wenn ähnlich zu 80 - 90 % der RTX Qualität entspricht mit 10 % der Rechenleistung von RTX ( schliesslich spricht NV bei RT Cores von der 10 fachen Leistung gegenüber normalen Shader Cores ) dann scheiß auf RTX , ich hab lieber günstigere GraKa , die trotzdem dann 80-90 % der Grafik Quali der 800-1200 Euro Karten haben ...

wie gesagt , noch ist nicht klar welche Auflösung und wieviel FPS die DEMO denn hatte auf einer RX56 , jedoch gemäß NV hätte es erst gar nicht funktionieren dürfen ... , und Cryteks Ansatz gefällt mir wesentlich besser als der von NVidia der quasi den kauf einer NV RTX Karte vorraussetzt .
 
Grestorn schrieb:
Weil "ähnlich" nicht "gleich" ist und wegen der klar benannten Probleme bei der Demo.

Komm, ihr seid doch nicht ernsthaft so naiv, oder?

Dir ist schon bewusst das Crytek eine Liste an Problemen gezeigt hat, an denen noch gearbeitet werden muss ? Es ist schließlich nur eine Demo.

Man kann sich ja mal die Demo's von nVidia anschauen und die Endprodukte in den Spielen. Da liegt auch einiges dazwischen, im negativen Sinne.
 
  • Gefällt mir
Reaktionen: MK one
Aldaric87 schrieb:
Dir ist schon bewusst das Crytek eine Liste an Problemen gezeigt hat, an denen noch gearbeitet werden muss ? Es ist schließlich nur eine Demo.
Die Liste der Dinge, die nur mit Einschränkungen funktionieren stehen so unverrückbar seit 2 jahren in der Cryengine Dokumentation. Und dazu wird angemerkt, dass das einfach systemische Einschränkungen sind.

Das ist wie wenn Du dich als Entwickler für eine Renderart entscheiden must (Deferred, Forward, Forward +).
Da gibt es systembedingte Vor- und Nachteile, die sich nicht beseitigen lassen (Einschränkungen auch Hardwareseitig, so dass es nicht auf allen Karten läuft!!).
z.B. https://gamedevelopment.tutsplus.com/articles/forward-rendering-vs-deferred-rendering--gamedev-12342

Und so, wie es bei den aktuellen Renderarten für jede Art zu unverrückbaren Nachteilen kommt, sind bewegliche bzw. dynamisch Objekte so ein Pferdefuß bei Reflexionen und Belechtung.

Willst Du das "richtig" machen, musst Du es einfach mit Höllenaufwand durchrechnen...

Man kann sich ja mal die Demo's von nVidia anschauen und die Endprodukte in den Spielen. Da liegt auch einiges dazwischen, im negativen Sinne.
Zumindest was die RT Demos angeht, so ist der derzeitige Zustand und die Performance weit über dem, was einem NVIDIA zur EInführung präsentiert hat.
Negativ sehe ich das nicht.
Es zeigt nur, dass wir am Anfang stehen und dort auch noch viel geschraubt werden kann.

Unabhängig von dem ganzen Firmenkleinkrieg und dem Firmenbashing hier schon wieder, was mir inzwischen EXTREM auf den Zünder geht, bin ich sehr an der Technik interessiert, die hinter Cryteks Ansatz für Spiegelungen steckt.

Bin gespannt wie ein Flitzebogen auf die Dokumentation, wenn sie diese Funktion in ihre Engine einpflegen und welche Kompromisse sie in Sachen Qualität, Strahlentiefe, Geometriekomplexität der Offscreen- Spiegelungen etc. eingegangen sind.

Ich finde es super, wenn mit immer neuen Ansätzen versucht wird ungelöste Problematiken in Sachen Rendering in den Griff zu kriegen, zu entschäfen oder zumindest deutlich zu minimieren.

Wie gesagt- Ich treibe mich des öfteren in Entwicklerforen rum, folge diversen Blogs einiger "Größen".
Das ist abartig, was die können und welch unfassbares und auch unkonventionelles Verständnis dort in Sachen Rendering/Problemlösungen/Möglichkeiten herrscht.

Aber selbst die sagen, dass natürlich der absolute Traum der realtime- Pathtracer ist und man froh sei, dass man endlich in diese Sphären reinschnuppern kann.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux
Zurück
Oben