• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Intels Raytracing-Projekt: Der Stand der Dinge

@WLibero:
Also bei den aktuellen "Heavy Rain"-Bildern musste ich schon drei Mal hinsehen, ob das nun reeller Film, gerenderte Sequenz oder Ingame ist.
Das meinst du nicht ernst oder? Hast du schon so einen Realitätsverlust? Man erkennt doch sofort das es aus einem Spiel ist und kein "reeller" Film (Wobei dort ja extrem viel gerendert wird, wenn man sich mal die Making-Of´s ansieht vor allem von Kriegsfilmen.)
 
@TheGhost

Ja klar erkennt man das sofort. Dennoch sieht man wie wei die Grafik bereits ohne Raytracing ist. Btw ich glaube woanders vor kurzem nen Artikel gelesen zu haben, wo schon behauptet wird, das man binnen 3 Jahren schon selbst die Grafik von Ice Age auf seinen Rechnern laufen lassen kann. Und wenn bis dahin Raytracing noch immer nicht besser skaliert hat sich die Sache glaub ich gegessen.
 
Dennoch fehlen bei der Grafik eben diese genaueren Lichtbrechungen,Spiegelungen usw. und genau dafür sorgt Raytracing. Hat sich aber wohl nicht nicht herumgesprochen ^^
 
Hört bitte auf Leute euch etwas vorzumachen, RT Engine hin oder her. Ist eine überaus coole Sache, da sage auch ich nix dagegen, aber im Bereich Spiele wird nichts unter RT Engine passieren.
Ein Beispiel: Stell dir nun einfach mal vor. z.b. Crysis 10 in 10 Jahren, Online mit von mir aus 64 bis 128 Gamern UND in einer komplett zerstörbaren Welt mit Spiegeln Glass Metall etc. unter RT Engine. Du wirst es nicht unter 640x480 spielen wollen sonder mind. 1280x1024.

Allein vom Text den ich hier geschrieben habe bekomme ich Gänsehaut. Weil ich mir eben vorstelle welches Ocean an Daten mein PC durch ein 5 mm dickes Rohr pressen muss um eigenes Becken zu fühlen.

Wenn überhaupt werden Scheichs mit ein paar zusammen verbundenen Superkomputern zocken können. Was ich ebenfalls nicht glaube, den die sind auch nicht verrückt, eine Halle zu bauen nur um ein Game zu spielen, naja jedem das seine.

Der einzige Ort wo RT Engine eingesetzt werden kann ist Militär. Da brauchen die realistische bunte Texturen, Rauch und Partikeleffekte nicht.
 
Zuletzt bearbeitet:
Crysis 10 in 10 Jahren wie soll das denn gehen?
 
TheGhost31.08 schrieb:
Dennoch fehlen bei der Grafik eben diese genaueren Lichtbrechungen,Spiegelungen usw. und genau dafür sorgt Raytracing. Hat sich aber wohl nicht nicht herumgesprochen ^^


Und für uneingeschränktes Raytracing in Echtzeit fehlt es wohl die nächsten Jahre an der entsprechend leistungsfähigen Hardware und die Hardwareentwicklung fürs aktuelle rasterizing bleibt mit Sicherheit auch nicht stehen.
Beide Renderverfahren haben ihre Vor- und Nachteile aber solange die Vorteile bei gleichem Kostenaufwand nicht überwiegen kann man auch nicht von einem ernsthaften Konkurrenten sprechen.
 
e-Laurin schrieb:
Ab einer gewissen Komplexität der Szenerie ist Raytracing im Vorteil. Wenn man jetzt schaut, wie komplex die Spielgrafik heute schon ist, die dazu auf dedizierte Hardware (Grafikkarte) läuft, kann man sagen, dass Raytracing bald ein ernst zu nehmender Konkurrent für die Rasterisierung darstellen wird.
Irgendwie widerspricht sich das. Angesichts dessen, dass die Spielegrafik heute schon so komplex ist und Raytracing noch überhaupt nichts zu melden hat, scheint das Argument ja gerade keines zu sein.
Man stelle sich, wo wir heute mit dedizierter Raytracing-Hardware wären, hat man dieser Technik vor x Jahren den Vorzug gegeben. Wir würden alle Rasterisierung als eine Ansammlung von unrealistischen Algorithmen ansehen ;)
Hätte... Wie gesagt, die Ergebnisse zählen, und angesichts des Abstands der beiden Technologien können wir vllt in frühestens 10 Jahren von für uns alle brauchbaren Ergebnissen sprechen. Derzeit passen wohl noch nicht genügend GPUs/CPUs in einen Otto-Normalverbraucher-PC. Die Tatsache, dass das erforderlich ist, zeigt doch die (Energie-)Aufwändigkeit des Raytracings. Das lässt sich sicher noch optimieren, aber die Dimension ist trotzdem eine ganz andere. Mag schon sein, dass wir irgendwann mit Raytracing fahren, dann aber mit 500 Watt-GPUs.
 
BEnBArka schrieb:
@China

dann klär mich mal bitte auf wo da der Unterschied ist :) Ausser, dass sie nachwievor Probleme mit AA und Partikeleffekten haben, sehe ich da fast nichts was man mit Heutigen Engines nicht selbst basteln könnte.
Obwohl die Lichteffekte bei Raytracing sehr schön rüberkommen, nur das alleine macht das Spiel nicht fett :)

Genaugenommen wird alles durch "Lichteffekte" erzeugt, ohne die hätte man nämlich ein schwarez Bild :p (übrigens wird ein Spiel generell nie durch Grafik alleine fett). Und wenns um Licht geht kann keine Raterisierung der Welt Raytracing das Wasser reichen.

Schatten, Lichtbrechung, Lichtstreuung und Reflexionen z.B. kann man in kürzester Zeit implementieren, die zugrunde liegenden Algorithmen sind sehr einfach. Bei der Rasterisierung muss man sich für die selben Effekte da schon was cleveres einfallen lassen, was am Ende nichtmal 100% korrekt ist, weil das meiste hingetrickst ist. Beim näheren hinsehen bemerkt man die Illusion. Beispiel Schattenwurf: Ich kenne bis jetzt kein Spiel, bei dem Schatten von wirklich jedem Objekt auf jede Oberfläche geworfen wird.

Der große Nachteil ist bis jetzt die nötige Rechenzeit, man muss immerhin für jeden Strahl Kollisionserkennungen machen. Aber darüber mach ich mir überhaupt keine sorgen. Bekanntlich werden PCs immer schneller :D Außerdem kann man Raytracing super parallelisieren.

BEnBArka schrieb:
Btw ich glaube woanders vor kurzem nen Artikel gelesen zu haben, wo schon behauptet wird, das man binnen 3 Jahren schon selbst die Grafik von Ice Age auf seinen Rechnern laufen lassen kann. Und wenn bis dahin Raytracing noch immer nicht besser skaliert hat sich die Sache glaub ich gegessen.

Warum soll die Sache gegessen sein in 3 Jahren. Weisst du wie alt das Prinzip des Raytracing schon ist? ;)


IntelCyphe schrieb:
Hört bitte auf Leute euch etwas vorzumachen, RR Engine hin oder her. Ist eine überaus coole Sache, da sage auch ich nix dagegen, aber im Bereich Spiele wird nichts unter RR Engine passieren.
Ein Beispiel: Stell dir nun einfach mal vor. z.b. Crysis 10 in 10 Jahren, Online mit von mir aus 64 bis 128 Gamern UND in einer komplett zerstörbaren Welt mit Spiegeln Glass Metall etc. unter RR Engine. Du wirst es nicht unter 640x480 spielen wollen sonder mind. 1280x1024.

Allein vom Text den ich hier geschrieben habe bekomme ich Gänsehaut. Weil ich mir eben vorstelle welches Ocean an Daten mein PC durch ein 5 mm dickes Rohr pressen muss um eigenes Becken zu fühlen.

Hättest vor 10 Jahren jemandem erzählt, was wir heute für Spiele haben, hätte man sich das auch nur schwer vorstellen können.
 
Zuletzt bearbeitet:
TheGhost31.08 schrieb:
@WLibero:
Das meinst du nicht ernst oder?
Doch. Auf den ersten Blick erkennt man es nicht. Also ich nicht. Und wir sprechen mittlerweile schon von Gesichtern, bekanntlich als am schwesten zu simulieren, ganz zu schweigen von Titeln wie z.B. GT(-Racing). Also ich weiß da nicht mehr, ob das echte Autos sind. Was will ich da noch mit Raytracing, das noch viele Jahre Entwicklung braucht um Rasterizer überhaupt einzuholen, und das nur, um bestenfalls ein paar Details mehr zu haben und schlechtestenfalls mehr Energie dafür zu verbrauchen.
 
@Hinky ich meinte damit nicht Raytracing sonder mit normaler Rasterisierung.
 
Ich bezog mich auf "Und wenn bis dahin Raytracing noch immer nicht besser skaliert hat sich die Sache glaub ich gegessen."

Warum sollte Raytracing schon so bald rentabel sein? Es ist schon über 40 Jahre alt, trotzdem lange nicht tot :D
 
Das letzte Bild sieht doch sehr edel aus, besser als Crysis etc. Wenn so eine Optik bereits flüssig auf den Bildschirm zauberbar ist, dann steht Raytracing nicht mehr viel im Wege. Mit neuer Hardware tut sich da sicher auch noch was. Bin gespannt wie gut sich Larrabee hier macht.

Um etwas Tricksen wird man auch bei Raytracing nicht herumkommen. Aber das ist ja auch nicht das Problem. Keiner verlangt dass jeder Partikel einer Wolke richtig korrekt gebrochen wird... Licht und Schatten, sowie Material und Detailgrad, hier geht nichts über Raytracing und meiner Meinung nach bietet Raytracing sofern es mal läuft die ideale Grundlage für eine weitere Engine in welcher auch Tricksen bei Rauch etc erlaubt ist. Es kommt wie einige sagten darauf an, was hinten rauskommt.

Wir sind an einem Punkt wo Raytracing schon nahezu der Rasterisierung aufschließen kann, es fehlt lediglich an Rechenleistung. Aber die wird man auf absehbare Zeit haben. Ich denke es wird auf jeden Fall noch einiges an zeit vergehen bis Raytracing die wahren Vorteile zeigen kann, bis dahin werden wir uns ala Dx11 und OpenGl begnügen müssen.

Ich denke mit dem Launch von Larrabee werden wir ebentuell auch von Daniel Pohl wieder etwas hören und vielleicht raytracing live in Aktion sehen.
 
Zuletzt bearbeitet:
Zitat von e-Laurin
Ab einer gewissen Komplexität der Szenerie ist Raytracing im Vorteil. Wenn man jetzt schaut, wie komplex die Spielgrafik heute schon ist, die dazu auf dedizierte Hardware (Grafikkarte) läuft, kann man sagen, dass Raytracing bald ein ernst zu nehmender Konkurrent für die Rasterisierung darstellen wird.
WLibero schrieb:
Irgendwie widerspricht sich das. Angesichts dessen, dass die Spielegrafik heute schon so komplex ist und Raytracing noch überhaupt nichts zu melden hat, scheint das Argument ja gerade keines zu sein.

Nein, es widerspricht sich nicht. Die Grundaussage ist: Die Komplexität aktueller Spiele ist noch nicht hoch genug, als dass RT einen Vorteil bietet.

Der Vorteil von Raytracing ist, dass es mit zunehmenden Polygonzahlen aber einem gewissen Punkt nur noch unwesentlich mehr Leistung benötigt, um das alles zu stemmen. Rasterisierung hingegen aber braucht linear mehr mehr Leistung.


Um es einfacher auzudrücken, hier mal vereinfachtes Beispiel:

Rasterisierung (lineare Skalierung):

1 Mio Polygone -> 100 fps
5 Mio Polygone -> 20 fps
10 Mio Polygone -> 10 fps

Raytracing (logarithmische Skalierung):

1 Mio Polygone -> 75 fps
5 Mio Polygone -> 50 fps
10 Mio Polygone -> 45 fps

Die gewählten fps und Polygonzahlen sind willkühlich gewählt. Es geht nur um's Prinzip.

Ich hoffe, ich habe es damit etwas anschaulich gemacht. Noch hängen wir sozusagen irgendwo bei knapp mehr als 1 Mio Polygone. Aber da Grafik immer aufwändiger wird, werden wir in ~5 Jahren sicher kurz vor der 5 Mio Polygonmarke hängen.

In meinem Beispiel ist nicht mitgerechnet, dass bei der Rasterisierung zunehmend für immer unscheinbarer Effekte beinah exponentiell mehr Leistung benötigt wird. Man denke zB nur an HDRR. Als das kam, sind die Computer fast reihenweise daran verzweifelt. Für RT ist HDRR viel, viel leichter umzusetzen. In Racedriver Grid kann man Spiegelungen dazuschalten. Keine Hardware ist in der Lage für diesen eigentlich kaum bemerkten Effekt in der höchsten Detailstufe flüssig darzustellen.
 
Zuletzt bearbeitet:
Tot wird es nie sein, weil es defintiv seine Anwendungsbereich hat. Wissenschaft, Medizin?, Militär. Nur will uns Intel halt allen verkaufen das wir "Otto-Normalverbraucher" es brauchen wie einen Tropfen Wasser in der Wüste, und das stimmt mmn absolut nicht ;)
 
F_GXdx schrieb:
Crysis 10 in 10 Jahren wie soll das denn gehen?

Die werden von EA aufgekauft. :D

zum topic:

Mich freuts, dass mit Daniel Pohl ein Deutscher Intel das Raytracen beibringt. *Deutschlandfahneschwenk*
 
Krautmaster schrieb:
Das letzte Bild sieht doch sehr edel aus, besser als Crysis etc. Wenn so eine Optik bereits flüssig auf den Bildschirm zauberbar ist, dann steht Raytracing nicht merh viel im Wege. Mit neuer Hardware tut sich da sicher auch noch was. Bin gespannt wie gut sich Larrabee hier macht.

Solange die verwendete Hardware nicht bekannt ist bringen uns solche Bilder herzlich wenig.
Was nutzt es wenn eine Maschine dahinter die mehrere KW frisst (ein Hoch auf die gute Parallelisierung) steht und man auf vergleichbare Partikeleffekte, die heute mehr als Standard sind, verzichten muss?

Das spätere Hardware mehr Leistung mitbringt ist ja schön und gut aber das Gleiche gilt auch fürs bisherige Renderverfahren.


Das ist nichts als Marketing bei dem man die Vorteile vervorhebt um Kunden für sein Produkt zu gewinnen aber ein ernsthafter Vergleich beider Rendertechnologien bleibt weiterhin aus.
 
Heavy Rain... bei den Bildern musste ich aller höchsten gähnen.
Gibt genug Spiele die gleich gut, wenn nicht besser aussehen.

Problem ist halt, das die Menge an Gesichtern in manchen Spielen einfach die Performance runter reißen würde.
Eine neue Technik, mehr Details bei weniger Performancehunger zu kriegen wäre hier eher von Vorteil.

Die Gesichter oder Personen sehen bei Heavy Rain nicht viel besser (wenn überhaupt) aus, als bei Mafia 2 oder Crysis.
Davon ab, das da immer noch zu viele polygonale Kanten zu erkennen sind.
 
@Krautmaster Ich sag dir was du als nächstes sehen wirst. Ein Model von mir aus Porsch 911 aus GT4 das mit Glück eine Runde dreht ohne Partikel, Nebel und sonst was. Und das alles mit dem neuen 6 Kern @3,0GHz Prozi unter 640x480. Die Technik von heute ist nichts für RT Engine.
 
Zuletzt bearbeitet:
Zurück
Oben