News Auch für Radeon: Crytek zeigt Raytracing-Demo für kommende CryEngine

Niemand braucht Raytracing. Schatten stören eh nur. Und wenn man dann spielt fällt einem das alles eh nicht auf, wenn irgendwo in einer Fensterscheibe 10 Pixel sind.
 
@mkdr

Wir wissen's schon, Du bist das Volk!
 
  • Gefällt mir
Reaktionen: Lübke82 und mkdr
mkdr schrieb:
Niemand braucht Raytracing. Schatten stören eh nur. Und wenn man dann spielt fällt einem das alles eh nicht auf, wenn irgendwo in einer Fensterscheibe 10 Pixel sind.
Danke, was würd ich ohne dich machen. Muss gleich die RTX ausbauen und sofort verschrotten, bringt ja eh nix.
Niemand braucht deinen Post in so einem Thema, echt nicht!
 
  • Gefällt mir
Reaktionen: FCK-THIS, Lübke82 und mkdr
borizb schrieb:
... dir sei es nochmal gesagt: Nvidia hat sich für eine dedizierte RT Einheit entschieden,
als hier aber auch gar niemand von RT gesprochen hat. Das war die größte Innovation auf
Grafikkarten seit warscheinlich 10 Jahren nur mehr Ghz und mehr RAM -mit Ausnahme
von VR, wo auch Nvidia mehr tut und die Nase vorne hat - und all das kostet einfach Geld!
Für NV in R/D und für den Kunden, der ein Produkt kauft das mehr kann und kostet.

Hier jetzt mit Argumenten von Hype oder Fairness zu kommen und Äpfel mit Birnen zu
vergleichen finde ich ziemlich schäbig. Crytek hätte diese Demo auch auf einer RTX zeigen
können. Aber ich vermute mal, das hätte AMD dann nicht unter der Hand gesponsort.
Wie gesagt, ich vermute es. Es ist nur geraten. Wär ja auch nicht verboten prinzipiell.

Aber du sprichst von Fairness? Wie ist das bitte fair gegenüber Nvidia? Fair wäre gewesen ein
Vergleichsvideo: So läuft es mit AMD / So läuft es mit Nvidia zu zeigen. Einfach nur die Vega
56 zeigen nennst du fair? Auf welchem Planeten ist das fair, dass der, der die Innovation bringt
von Crytek benachteiligt wird? Ohne die RTX Karten wäre diese Demo doch nie entstanden, oder?

Nur kurz vorweg, der Moralapostel steht Dir in diesem Fall ausgesprochen schlecht, insbesondere unter Zuhilfenahme von nicht fundierten Unterstellungen (die Du wenigstens anständiger Weise selber als solche entlarvst) bzgl. eines gezielten AMD/RTG Sponsorings von CryTek für eine Engine-Demo, die Dir und anderen RTXlern wohl gar nicht schmeckt.

Geht's noch?

Dazu noch mir Schäbigkeit unterstellen, wenn Du Dich mit Deiner ganzen Trollerei quasi gegen einen offenen RT-Raytracing Markt aussprichst, nur weil Du vielleicht einen Turing-RTX-Fehlkauf getätigt hast oder nVidia-Aktien besitzt oder weiss der Geier und diese Extrawurst-/Zweiklassen-RTX-GPU-Politik von nVidia gutheisst :rolleyes:.

Ich bin im Gegensatz zu Dir eben für kein nVidia-GPU-Monopol und keine Extrawürste auf Basis eines RTX-Geldbeutels/-Aufpreises und zum Glück auch nicht so marketinghörig wie Du scheinbar, denn das was Du bzgl. nVidia von Dir gibst, könnte glatt von einer Huang Werbeveranstaltung stammen.

Nach über einem Jahr gibt es wieviele Spiele mit RTX-Support und ist das Feature ähnlich wie DLSS wie sehr verbreitet und ausgereift und hat sich für die geneigten RTX-Käufer wie gelohnt?

Genau, wohl kaum, aber Du stimmst hier Lobeshymnen auf die RTX-Turing-Karten an und trollst gegen eine Vorab-Demo einer kommenden Engine, die vorbildlicher Weise bei ähnlich guter Optik wie RTX eben keine nVidia Pascal und RX Vega GPU Käufer nackt im Wind stehen lässt.

Ja, nee, das ist schon mächtig ehrenrührig, böses CryTek aber auch, weil man indirekt aufzeigt, wie es nVidia mit RT-Raytracing durch alle Klassen hätte schrittweise in GPUs einführen können, aber stattdessen gibt es die üblichen Ausflüchte der RTX-Gang hier auf CB anstelle Anerkennung dafür :freak:.

Mein Mitleid für dreiste Quasi-Monopolisten (mit oft leeren Versprechungen oder Kundentäuschungen) hält sich wahrlich in Grenzen und was mich primär als Kunde interessiert ist, dass die Kundschaft fair behandelt wird und nicht nVidia einen Reibach nach dem anderen macht und Kunden abzieht mit unausgereiften Produkten, auch wenn bzgl. Gewinn und Umsatz dieses Quartal ausnahmsweise 'mal keine Rekordzahlen vorgesetzt wurden von Huang & Co., so ein Drama aber auch (man hatte trotzdem 7 Milliarden auf der hohen Kante um auf stattliche Einkaufstour gehen zu können).

Das ist doch Quark was Du behauptet, dass die Demo ohne RTX/nVidia so oder ähnlich nie entstanden wäre bei CryTek (die wurde vermutlich dann kurz nach RTX-Einführung aus dem Ärmel geschüttelt, oder was, nur um nVidia dumm dastehen zu lassen :lol:?) und Beweise für diese steile These bleibst Du schuldig sondern argumentierst nur einseitig emotional.

Wo werden denn Pascal Besitzer benachteiligt?

Weil eine RX Vega56 und keine GTX 1070Ti genutzt wurde (evt. eine GTX 1080Ti nötig wäre um die höhere Compute-Power der RX Vega GPUs auszugleichen) und das Demo nicht auf beiden GPUs gezeigt wird.

Kannst Du es nicht verkraften, dass ein Entwickler AMD/RTG in gerade einmal einer Raytracing-Demo für eine leider nur mittelprächtig verbreitete Engine den Vorrang einräumt und nicht nVidia, obwohl auch zu nicht-RTX Pascal GPUs Bezug genommen wird?

Wenn ja, wäre das schon ein Armutszeugnis.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thraker und ActionNews
KarlKarolinger schrieb:
Ich hab ja 4K. :D
Ich würde mir DLSS aber nicht antun bis das mal ne wirkliche KI ist, die nicht einfach nur aufskalierte Matschepampe ausgibt, sondern ernsthaft Pixel bzw. Details sinnvoll "hinzudenken" kann, wie sich das für AI-Upscaling gehört.
Und selbst dann auch nur, wenn ich mich dafür nicht bei NVidia registrieren muss und von deren vorberechneten Profilen abhängig bin. Und wenn FreeSync funktioniert (laut GameStar mit meinem Monitor und NVidia nicht).

Was schreibst du denn für nen Müll? Schonmal mit der Materie auseinandergesetzt? Du musst dich nirgends bei Nvidia registrieren! Die Profile werden standardmäßig mit den Treiber ausgeliefert. Und in Metro läuft DLSS in UHD inzwischen extrem gut seit dem letzten Update. Die übertriebene Unschärfe wurde sehr gut beseitigt.

Welchen Monitor hast du denn? Bei mir gibt es keine Probleme mit G-Sync am Freesyn-Monitor!

Bitte etwas besser sich bilden in Bezug zu DLSS, danke!
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: cruse
Ich denke, einige verstehen nicht so ganz, worum es hier eigentlich geht.

Natürlich ist der Ansatz mit RT-Cores performanter was RT-Berechnungen angeht. Benötigt aber eben zwingend die RTX-Karten (welche auch nicht gerade günstig sind, die Chipfläche ist ja auch ordentlich gewachsen)
Natürlich braucht der von Crytek gezeigte Ansatz mehr Tricks für die Reflexionsberechnung. Dafür geht es aber mit quasi jeder halbwegs aktuellen Karte. Egal ob AMD oder Nvidia, auch auf RTX-Karten (auch wenn die RT-Cores dann wohl brach liegen)

Damit ist der hier gezeigte Ansatz insgesamt Interessanter, weil flexibel einsetzbar, auch auf einer 1080Ti, deren Besitzer nicht unbedingt für RT auf eine 2080 oder 2080Ti umsteigen wollen. Es gibt eine optische Aufwertung für alle und nicht nur für die, die gerade sowieso eine neue Grafikkarte für 400 und mehr benötigen (Wer will schon jede Generation eine neue Karte kaufen, das sind wohl eher die wenigsten)

Wenn man dann noch bedenkt, dass RT am Anfang steht und sich noch viel ändern kann, sind die RT-Cores mehr als nettes Feature nebenbei zu verstehen, relativ teuer erkauft. Immerhin weiß man heute noch nicht, wohin die Reise bei RT geht, so besteht auch die Möglichkeit, dass selbst Nvidias RT-Core-Ansatz schnell obsolet werden könnte.

Sicher wird es auch bald Richtung RT-Beschleuniger in allen (zumindest Mittelklasse bis High-End) Karten hinauslaufen, auch bei der Konkurrenz, zumindest wenn die Wege nicht durch Patente verbaut sind. Bis dahin allerdings gibt es zwei Möglichkeiten: Eine performantere und weitergehende RT-Berechnung, die aber nur auf RTX-Karten geht und eine mit mehr Tricks und weniger RT, dafür eben aber auf allen halbwegs leistungsstarken Karten funktioniert.
Das dabei auch die CPU mehr gefordert wird, ist auch halb so schlimm, gerade bei anspruchsvollen Grafiken ist die CPU nicht gerade der Flaschenhals, insbesondere, wenn ein anderer Thread verwendet wird und damit ein anderer Kern ausgelastet werden kann. Beim Spielen wird, zumindest bei mir, die CPU kaum ausgelastet. Reserven für weitere Threads sind genug vorhanden.

Die Spielehersteller haben dann die Möglichkeit zu wählen: Man macht die optische Aufwertung durch RT nur RTX-Kartenbesitzern zugänglich oder macht sie allen Spielern verfügbar. Wer viel Geld investieren will (wird wohl kaum einer sein), der kann auch beide Wege der RT-Berechnung ins Spiel/in die Engine implementieren.

RTRT (;) Real Time Ray Tracing) muss sich dann auch erst nach und nach soweit verbreiten, sodass es sich auch lohnt, die extra Chipfläche für dedizierte RT-Recheneinheiten aufzuwenden. Nvidia ist hier den ersten Schritt gegangen, was aber auch nur möglich war, weil sie einen guten Abstand zur Konkurrenz haben, bei einer Konkurrenzsituation auf Augenhöhe hätte man es nicht auf dieser Weise bringen können. Allerdings ist dieser erste Schritt eben sehr Exklusiv und ohne entsprechenden Einsatz ihres Gameworks-Programms würden wohl wenige Entwickler auf diese "Nischentechnologie" zurückgreifen.

Wichtig bleibt, dass in Zukunft die RT-Berechnung insgesamt offen genug bleibt, sodass jeder GPU-Hersteller darauf zurückgreifen kann. Auch wenn die Basis der RT-Berechnung von Nvidia auf DX12 beruht, heißt das noch nicht unbedingt, dass Nvidia wieder einen Teil des Weges proprtär auslegt. Gerade wenn in Zukunft tatsächlich Intel auch in diesen Markt einsteigen sollte (hab da schon ein paar Zweifel dran, aber ohne die Möglichkeit abzusprechen), merkt man viel mehr, wie schlecht proprietäre Ansätze sind (gilt zB auch für G-Sync).

Also in diesem Sinne...
 
Zuletzt bearbeitet:
Jeder Ansatz ist interessant. Ich bezweifle aber, dass bei Ansätzen, die auf generische Shader basieren, die Nachteile und Performance je in einen Bereich kommen, dass sie sinnvoll nutzbar sind.

Passieren kann es natürlich trotzdem, ich glaube aber nicht daran.

Ich glaube eher, dass sowohl AMD als auch NVidia die notwendigen spezialisierten Cores in breiterer Form und auch preisgünstiger anbieten werden. Das ist einfach sinnvoll und am Ende auch für den Kunden pragmatisch.

Dass es im Moment noch (zu) teuer ist, ist generell der Fluch einer ganz neuen Technologie. Im Gegensatz zum klassischen Rasterizing ist bei RT offenbar schon der erste Sprung, um überhaupt etwas brauchbares auf die Beine zu stellen, richtig aufwendig und entsprechend technisch anspruchsvoll und teuer.

Abgesehen von religiösen Anfeindern sollte sich jeder, auch die Leute, denen es jetzt viel zu teuer ist, darüber freuen, dass es neue Ansätze gibt, um die alten Probleme endlich zu lösen und uns einen neuen Schritt aus dem Uncanny Valley hinauszuführen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser, .Sentinel. und pietcux
Grestorn schrieb:
Jeder Ansatz ist interessant. Ich bezweifle aber, dass bei Ansätzen, die auf generische Shader basieren, die Nachteile und Performance je in einen Bereich kommen, dass sie sinnvoll nutzbar sind.

Klar sind beide Ansätze interessant, aber der hier gezeigte ist zur Zeit eben interessanter, da flexibel einsetzbar. Ich schrieb ja auch, dass Nvidias Ansatz performanter und umfangreicher ausfällt, hochspezialisierte Recheneinheiten werden ja nie von breiter verwendbaren Einheiten überholt werden können. Irgendwann wird es soweit sein, dass RT-Recheneinheiten großflächig verwendet werden (ob von AMD, Intel oder Nvidia), aber bisher betrifft es eben nur die RTX-Karten und kann eben ausschließlich von diesen so verwendet werden. Erste RT-Echtzeitberechnungen geht immerhin auch ohne RT-Cores, was in der Spieleindustrie eher zur Verbreitung führen kann, als der hochspezialisierte Weg.
Damit sind beides wichtige Schritte für Raytracing, Nvidias Schritt vielleicht etwas zu früh, weil RT bisher eben noch gar nicht in Spielen verwendet wurde. Aber zur Zeit hat Nvidia eben genug Luft, um diesen Schritt jetzt schon zu gehen, weil im High-End nahezu Konkurrenzlos...
 
Lübke82 schrieb:
Was schreibst du denn für nen Müll? Schonmal mit der Materie auseinandergesetzt? Du musst dich nirgends bei Nvidia registrieren! Die Profile werden standardmäßig mit den Treiber ausgeliefert. Und in Metro läuft DLSS in UHD inzwischen extrem gut seit dem letzten Update. Die übertriebene Unschärfe wurde sehr gut beseitigt.

Ich bin mir ziemlich sicher, dass es damals mal hieß, DLSS setze GeForce Experience voraus. Kann gut sein, dass ich mal mitbekommen hab, dass es jetzt doch im Treiber ist, aber mein Gedächtnis ist wohl auch nicht perfekt.


Lübke82 schrieb:
Welchen Monitor hast du denn? Bei mir gibt es keine Probleme mit G-Sync am Freesyn-Monitor!

LG 27MU67-B: https://www.gamestar.de/artikel/g-s...sync-monitoren-aktivieren,3339414,seite2.html

GameStar schrieb:
Weniger Glück haben wir indes mit dem Asus MG279Q und dem LG 27MU67-B.
[...]
Der Monitor von LG produziert sowohl in den Spielen als auch in der Demo starke Darstellungsfehler, weswegen wir G-Sync Compatible nach kurzer Testzeit wieder ausgeschaltet haben.

Lübke82 schrieb:
Bitte etwas besser sich bilden in Bezug zu DLSS, danke!

Oder aufhören, was zu schreiben, das spart noch mehr Zeit.
 
Aldaric87 schrieb:
Wieso sollte man keine Zweifel an nVidia's RT Hardware äußern, wenn ähnliche Ergebnisse plötzlich in einer Tech-Demo auch völlig ohne spezialisierte Hardware erzielt werden ?

Weil der Weg ein völlig anderer ist. Mit völlig anderen Herausfoderungen und Hindernissen. Man könnte auch sagen: Schwer vergleichbar.

MK one schrieb:
Mantle ist keine Hardware und der Vorläufer von Vulkan , und nutzt NV Vulkan ?

Mantle ist Software die nur auf AMD-Grafikchips läuft. Erst als dies als Grundlage für Vulkan genommen wurde konnte es von allen genutzt werden.

MK one schrieb:
??? Das RT Reflections Feature ist so neu das es erst provisorisch in der CryEngine 5.5 integriert wurde und das ist das worüber dieser Thread hier handelt .

Das Global Illumination Feature ist hingegen bereits im Jahre 2015 in einem Spiel eingesetzt worden. Und? Hat es sich durchgesetzt? Hat überhaupt jemand Notiz davon genommen?
 
DocWindows schrieb:
Das Global Illumination Feature ist hingegen bereits im Jahre 2015 in einem Spiel eingesetzt worden. Und? Hat es sich durchgesetzt? Hat überhaupt jemand Notiz davon genommen?
In welchem Spiel was es denn?
 
@pietcux Das Spiel hieß Miscreated . Wundert mich nicht dass du fragst. Ich kannte es auch nicht :D

Das Paradebeispiel ist jedoch Kingdom Come Deliverance, was allerdings auch nicht viel jünger ist.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Das Global Illumination Feature ist hingegen bereits im Jahre 2015 in einem Spiel eingesetzt worden. Und? Hat es sich durchgesetzt? Hat überhaupt jemand Notiz davon genommen?

Kümmert es überhaupt irgendeinen Gamer wie das Spiel programmiert wurde ?
Es soll gut aussehen , Spaß machen und nicht schon nach 2 Stunden durchgespielt sein , das ist das entscheidende , nicht die Game Engine oder deren Features .

Die Demo schaut gut aus , man braucht nur DX12 oder Vulkan um die RT Reflections auf Vega56 aufwärts zum laufen zu bringen , damit wird die Engine automatisch für die Developer der neuen Konsolen interessant , denn in denen steckt AMD Hardware , die diese Anforderungen erfüllt ... und keine Hardware RT Cores hat .
 
Zuletzt bearbeitet:
MK one schrieb:
Kümmert es überhaupt irgendeinen Gamer wie das Spiel programmiert wurde ?

Diskutieren hier nur Gamer oder auch Leute die es interessiert wie ein Spiel programmiert wird oder wie Grafik entsteht die man dann in mehreren Frames pro Sekunde am Bildschrim bewundern kann?

MK one schrieb:
Die Demo schaut gut aus , man braucht nur DX12 oder Vulkan um die RT Reflections auf Vega56 aufwärts zum laufen zu bringen , damit wird die Engine automatisch für die Developer der neuen Konsolen interessant

Erstmal abwarten wie die neuen Konsolen in Sachen Leistung ausgestattet werden und was den Entwicklern dann wichtig ist. Konsolenspieler sind bisher jedenfalls nicht dadurch aufgefallen dass sie Top-Grafik haben wollen.

Und ob dadurch die Cryengine attraktiver wird? Ich glaube eher dass andere Engine-Entwickler dieses Engine-Feature nachbauen und selbst implementieren, wenn überhaupt.
Viele AAA Spieleentwickler setzen mittlerweile auf Hausengines. EA z.B. auf Frostbite. Damit werden sogar Spiele von Teams gemacht die eigentlich auf ganz anderen Engines entwickeln, siehe Bioware mit Mass Effect Andromeda. Das machen die nicht weil Frostbite so geil ist, sondern weil sie die Entwicklung steamlinen und billiger machen wollen. Eine Engine, ein Toolset, ein Entwicklungsteam das Engineerweiterungen allen gleichzeitig zur Verfügung stellen kann, ein Wissenspool. Da kommt ne Cryengine von vornherein nicht in Betracht.
Genauso bei Bethesda mit der Creation Engine. id Software würde wohl auch einer das Feature in die idTech Engine bauen als ein Cryengine Spiel zu machen.
Und was da noch an flexiblen Entwicklern übrigbleibt wird eventuell nicht in der Lage sein eine Cryengine nach vorn zu boxen, schon gar nicht aufgrund eines einzigen Features. Eventuell könne Ubisoft mit der Dunia-Engine das Feature übernehmen, aber sonst?
 
Zuletzt bearbeitet:
KarlKarolinger schrieb:
Ich bin mir ziemlich sicher, dass es damals mal hieß, DLSS setze GeForce Experience voraus. Kann gut sein, dass ich mal mitbekommen hab, dass es jetzt doch im Treiber ist, aber mein Gedächtnis ist wohl auch nicht perfekt.

Nvidia meinte damals, dass es möglich wäre die DLSS-Profile über Experience oder den Treiber zu verteilen. Derzeit werden sie nur per Treiber ausgeliefert. Es wurde also sich nur hypothetisch darüber geäußert.
 
  • Gefällt mir
Reaktionen: .Sentinel., pietcux und KarlKarolinger
Lübke82 schrieb:
Nvidia meinte damals, dass es möglich wäre die DLSS-Profile über Experience oder den Treiber zu verteilen. Derzeit werden sie nur per Treiber ausgeliefert. Es wurde also sich nur hypothetisch darüber geäußert.
Es waren die typischen Verdächtigen, die sofort als die RTX Ankündigung kam geschrieen haben, dass das Ende der Welt bevorsteht und dass Jensen der Gottseibeiuns ist. Nvidia selber hat nichts dazu beigetragen.
Ich nutze Geforce Experience gerne, nehme sogar häufig die dort vorgeschlagenen Einstellungen. Und ich nutze DLSS bei WQHD. Sieht meines Erachtens hervorragend aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82
Wenn Crytek es wie auch immer geschafft hat, durch Beschuss auf einem Voxeltree die benötigte Ray Anzahl so weit zu senken, dass hochauflösende Reflections dabei rauskommen, dann gebührt ihnen großer Respekt.

Die Voxel Struktur wurde ja in Sachen Global Illumination nur ins Leben gerufen, um die Abtastauflösung durch Rays deutlich zu senken. Quasi ein sehr niedrig auflösendes RT, welches dann über Gradienten dreidimensional durch über die Voxelgrenzen hinweg geglättet wird.
Dass diese Lösung bei GI gut funktionieren kann, steht für mich außer Frage, aber Reflexionen sind ja in der Regel pixelgenau.
Die Problematik von Lightleaks etc. entstehen ja bei SVxGI gerade aufgrund der "Abtastlücken". Und da ist es für mich noch ein großes Fragezeichen, wie da pixelgenaue Spiegelungen realisiert werden können.

Oder sie haben über eine Art Koordinatensystem innherhalb der Voxel, welches erst für feinere Abtastung aktiviert wird, wenn die Teststrahlen innerhalb eines Voxels die Möglichkeit ergeben, dass sich darin irgendwas spiegeln könnte.

Nach alledem, was ich bisher gesehen habe, haben die einen verdammt guten Sortieralgorithmus entwickelt, der weite Teile grob prüft, ob sich ein Raybeschuss lohnt und wenn das ganze positiv aussieht konzentrieren sie sehr gezielt einige Strahlen auf das "Zielobjekt". Das ist quasi deren Ausgangslage konform der DXR Beschleunigungsstruktur.
Ansonsten bedienen sie sich wie es aussieht der üblichen Mittel, die sich derzeit auch nVidia für Beschleunigungen zu Nutze macht (temporal denoising, niedrigere Aktualisierungsraten der Reflexionen, differenzabgleich mittels Bewegungsvektoren, interlacing etc.).

Auch kann ich mir gut vorstellen, dass sie keine Materialbasierenden Testalgorithmus benutzen, sondern tatsächlich Attribute an Objekte, wie spiegelnd oder nicht spiegelnd vergeben.
Wird der Voxeltree geprüft, so kann man von vornherein die Voxel für eine weitere Prüfung ausschliessen, die nicht von einem Objekt mit dem entsprechenden Attribut durchquert werden.

Zudem könnten sie eine Spreizungsprüfung eingebaut haben, so dass auch in den Spiegelungen nur die Anteile besonders sauber abgetastet werden, die sich in Sachen Kontrast stark vom Ursprungsfarbwert abheben.

Ich gehe davon aus, dass das was Crytek macht, schon "echtes" Raytracing ist, jedoch deutlich selektiver und "fokussierter", als es der Ansatz in Battlefield 5 liefert, wo man die Reflexionen ja z.B. dynamisch dann auch auf nassen Materialien zu sehen bekommt (geiler Effekt im Übrigen->Hatte mich in BF5 mal neben einen Kameraden bei Regen in eine Pfütze gelegt und Teile der Szenerie haben sich schwach auf dessen nassen Mantel gespiegelt).

Insofern in erster Instanz sicher der richtige Weg von Crytek, da quasi noch einmal eine neue Qualitätsstufe zu schaffen, die zwar unterhalb der fullscreen- DXR Variante liegt, aber deutlich besser ist, als das, was die Screenspace- Reflections leisten.

Spannend wird natürlich dann auch, wie sehr das an der Performance nagt. Denn bei Kingdom Come konnte ich entgegen der offiziellen Aussagen bei Deaktivieren der GI (ist über Konsolenbefehle möglich) doch eher einen Verlust von 30%-40% verzeichnen (falls mich mein löchriges Gedächtnis nicht im Stich lässt), die das Feature mit sich bringt.

Schön, dass der RT Train jetzt endlich Fahrt aufnimmt und nun die ersten schlauen Köpfe Lunte gerochen haben, das vernünftig und schlau zu implementieren. Das war abzusehen und wir werden alle davon profitieren.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux und Lübke82
Stellenweise wirken die Spiegelungen aber auch nicht so prächtig. Ab 1:15 ziehen die Spiegelungen eine für mich hässliche Ghosting-Spur hinter sich her in den sich bewegenden Glasscheiben.
 
Lübke82 schrieb:
Stellenweise wirken die Spiegelungen aber auch nicht so prächtig. Ab 1:15 ziehen die Spiegelungen eine für mich hässliche Ghosting-Spur hinter sich her in den sich bewegenden Glasscheiben.
Habe die Szenerie noch einmal genau angesehen- Das sind einfach Artefakte mit welchen man durch die Beschleunigungsversuche leben muss. Es wird ja auch erwähnt, dass man mit temporalen Techniken und Versatz zu kämpfen hat.

Dennoch hochinteressant die Szene mit den Patronenhülsen, auf die hier immer wieder angespielt wird.
Die Szene stütz meine Theorie einer extrem zielgerichteten Abtastung.

Alles, was nicht zu 100% an der Voxelgrenze liegt bzw. in einem 100% Szenario als spiegelnde Fläche identifiziert werden kann (Meshgrenze für die Spiegelungen bzw. Attribut Spiegelung fehlt), fällt durchs Raster.
Das wäre dann z.B. ein eindeutiger, prinzipbedingter Nachteil der Technik, esseidenn man käme auf die Idee die Voxelkonzentration bei Bedarf (da müsste man wiederum eine Prüfung einbauen, ob ein Objekt Gefahr läuft durchs Raster zu fallen), in Bildausschnitten erhöhen zu können. Also ein Voxel zu 4 kleineren Voxeln.

Das würde aber wiederum ordentlich auf die CPU gehen und wenn die jetzt schon "Sekunden" für den Aufbau des Voxeltrees angeben, macht es da eine Dynamisierung alles andere als besser...

Hmmm...

Alles nur blinde Theorie- Das Video würde aber meine Ansätze unterstreichen. Bin gespannt, was die Entwickler da noch stricken...

LG
Zero
 
  • Gefällt mir
Reaktionen: Lübke82
Zurück
Oben