News Quake 4: Raytraced mit Core 2 Extreme QX6700

Raytracing soll keine Weiterentwicklung für Games sein, es soll hier nur die Arbeit von Daniel Pohl wiedergespiegelt werden. Wie schon am Anfang erwähnt hat Raytracing "keinen Sinn" in Games, da hier "Fakes", dh. mehr oder weniger "vorgezeichnete" Schatten ect., den selben Effekt haben.

Wenn man sich hierzu die Unreal Engine 3.0 Demo ansieht, sieht man wie weit diese "Fakes" auch schon sind, und Epic arbeitet schon an der Unreal Engine 4.0. "Fakes" sind eine Nachahmung der Realität, und sehen auch schon extrem Real aus.

Da es bei Games bei der Grafik nur um die Optik geht, ist es, bzw. wird es auch nie nötig sein, die Werte physikalisch richtig zu berechnen, da dadurch in der Optik auch keine Unterschiede erkennbar sind, bzw. sein werden!
 
Zuletzt bearbeitet von einem Moderator: (!!! entfernt, Regeln lesen bitte.)
Als ob es hier wieder nur um Spiele gehen würde. RT wird ja auch in der Produktentwicklung/-vermarktung benutzt um es möglichst realistisch zu machen. Da machen dann auch die Hardwareanforderungen keine Probleme mehr.

Vielleicht läuft das ja besser auf den kommenden 4x QuadXeon die Intel letztens vorgestellt hat oder auf einer großen SGI ...

Aber so nebenbei gesagt: Ich finde das nicht gerade beeindruckend, was die da fabrizieren. Es gibt genug Leute weltweit , die das besser hinbekommen (haben). Nur weil so ein "Trottel" eine DA darüber macht ist es nicht wissenschaftlicher als sonst eine Implementation.
 
Fusi schrieb:
... Wie schon am Anfang erwähnt hat Raytracing "keinen Sinn" in Games, da hier "Fakes", dh. mehr oder weniger "vorgezeichnete" Schatten ect., den selben Effekt haben. ...
Raytracing sieht sehr wohl echter aus als alles, was mit Fakes machbar wäre, sonst würden nicht sämtliche Kino-Animationen mangels Raytracing-Beschleuniger-Hardware sehr kostenintensiv mit Raytracing berechnet werden. ;)

Und deswegen bringt es eben auch in Computerspielen optische Vorteile, wobei allerdings immer die frage steht, wie lange die großen Spielegrafikkartenentwickler noc mit anderen optischen verbesserungen mehr Interesse wecken können - das ist eigentlich das einzige große Hindernis für hardwarebeschleunigtes Raytracing in Computerspielen. ;)
SaarCOR Raytracing-Hardware-Projekt über sich selbst schrieb:
Possible applications include computer games ...

@ Butterbemme

Wenn A3D-Hardware "Klangwellen-Tracing" beschleunigen konnte, sollten Lichtstrahlen auch effektiver berechenbar sein, als mit CPU. Und das Hardware-Projekt ist in den Links unter der News erwähnt.;)
 
Zuletzt bearbeitet:
@ALL: Was ich nicht so ganz verstehe:

Raytr. soll ja das berechnen, was der Betrachter von der Umgebung sieht! ALSO nicht NUR das Licht/Schatten, sondern auch was verdeckt wird durch andere Objekte (siehe Beschreibung Raytracing)!

Als das Spinnen-Monster in dem Video(YouTube) oben durch den Tunnel kommt, bewegen sich die Beine durch die Wand bzw. durch das Rohr! (Ich kann meinen Arm auch nicht durch die Wand stecken, um meinem Arbeitskollegen den Kaffee zu klauen :)

Scheint wohl nicht ganz zu funktionieren das RAYTRACING !?

Ausserdem würde mich mal interessieren, was hier einige Poster mit den sogenannten Fakes bezüglich der Schatten und Reflektionen in Spielen meinen?
 
Ich denke das war nur ein Clippingfehler der durch optimierung der Sache gegessenn wäre.
Licht und Schatten sehen zwar schick aus.... aber.... die Texturen wirkten wie Sau :freak:
Am besten fand ich immer noch die Demo von RT wo sich 300 Kugeln in der Luft unendlich wieder spiegelten :o
Und das in der selben Auflösung wie das Spiel....

Aber der Jung soll mal fleisig weiterschrauben!
Ich hoff das ich sowas in ein paar Jahren selber mal erspielen darf^^
 
Nein, Raytracing berechnet z.B. die Verdeckung von Objekten die sich hintereinander befinden. Wenn die Spieleengine allerdings eine unsaubere Kollisionserkennung hat, und die Beine etwas in die Rohrwand schiebt, kann das Raytracing auch nicht weiter helfen. ;)
Sind halt 2 verschiedene Sachen.
 
Das die Spinne ihr Bein in der Wand hat, liegt an Quake 4 und nicht an Raytracing.
Raytracing ist nur die Art der Erstellung des Bildes.
 
@Green Mamba

DAS habe ich doch geschrieben!

ICH:
"...sondern auch was verdeckt wird durch andere Objekte..."

DU:
"...die Verdeckung von Objekten die sich hintereinander befinden..."

?
 
Zuletzt bearbeitet von einem Moderator: (??? entfernt, Regeln lesen bitte.)
Was mich interessieren würde: Wie viel kann (theoretisch) eine Physik-Karte der CPU an Arbeit abnehmen... Wenn man jetzt die neue nVidia-Chip-Generation 6 ansieht und dann noch schaut, dass da jetzt drei PCIe x16 Slots drauf sind, könnte die Technik durchaus auch in den nächsten zwei Jahren umgesetzt werden...
 
lol wenn ich im unreal ed meine karte durchrechnen lasse, dauert das schonmal 6-10 min.
eine darauf optimierte graka fände ich toll. echtzeit in spielen ist leider noch nicht so weit. :(
 
ichdertobi schrieb:
Ausserdem würde mich mal interessieren, was hier einige Poster mit den sogenannten Fakes bezüglich der Schatten und Reflektionen in Spielen meinen?

In nem Game ist vieles vorberechnet zB. Schattenwürfe uä. werden per Shadowmap vorberechnet. Die relativ geringe Polygonzahl wird mittlerweile auch ganz gut über Normal Maps (die sich am ursprünglichen Highres modell orientieren) gefaked. Darum sehen bei Doom3 zB die Model Kanten grob aufgelöst aus, von vorne betrachtet "wirkt" das Model aber runder.

mit DX10 wird dies noch besser funktionieren da die Grafikkarte echtes Displacement unterstützt und somit echte Kanten entstehen.

Allgeimein stelle ich fest, das immer mehr Effekte, die früher nur in Raytracing zu sehen waren, in Computerspiele implementiert werden (mittlerweile gibts dort wohl auch Ambient Occlusion Maps... ;) ). Dort sind sie zwar meist vorberechnet oder anders gefaked, aber der sichtbare unterschied ist sehr gering.


MountWalker schrieb:
Raytracing sieht sehr wohl echter aus als alles, was mit Fakes machbar wäre, sonst würden nicht sämtliche Kino-Animationen mangels Raytracing-Beschleuniger-Hardware sehr kostenintensiv mit Raytracing berechnet werden.

Die Kunst im faken liegt darin diesen Unterschied so gering wie möglich werden zu lassen. Wenn du die effekte aus aktuellen Spielen mit den 3D effekten von älteren Filmen vergleichst wirst du keinen großen unterschied sehen.

Was bringt es dem Anwender zB. ne Brechung auwendig physakalisch korrekt berechnen zu lassen, wenns ein Shader auch so hinbekommt?


Übrigens mal ne allgemeine Frage: wie soll den ein Raytracing beschleuniger aussehen? Das ist CPU arbeit, da kann man höchsten ne Co CPU reinbauen....
 
@MountWalker

Tatsache, da ist ein Link unter der news, thx. ;)
Holla die Waldfee: "The ray tracing performance of the FPGA prototype running at 66 MHz is comparable to the OpenRT ray tracing performance of a Pentium 4 clocked at 2.6 GHz". Die Q4-Demo hier würde also bereits auf einer RT-Karte mit 266 Mhz laufen! Mal 20 für brauchbare Auflösung und Performace wären allerdings schon 5Ghz, viel zuviel für eine GPU-, PPU-artige Zusatzkarte. Aber dennoch sehr interessant, da ist bestimmt noch was drin.

Edit:
So wie ich das verstehe, benutzen die ganzen RT-Implementationen ja diese OpenRT-API. Also ist Daniel Pohl nicht, wie es auf diversen Seiten und auch hier rüberkommt, der Pionier in Sachen Echtzeit-RT, sondern er hat "nur" Q3 auf OpenRT portiert. (?)

Edit2:
Ah, jetzt bin ich noch auf ein paar beeindruckendere Bilder gestoßen, die schon eher zeigen, was für realistische Belichtung möglich wäre in Spielen. *klick* *klick* *klick*.
Naja, wie gesagt: 10 Jahre bis entsprechend schnelle CPUs oder RT-Hardware auf dem Markt ist, zu dem Zeitpunkt sieht Spielegrafik vermutlich auch mit Fakes bereits annähernd fotorealistisch aus.
 
Zuletzt bearbeitet:
@HereticNovalis: Die Tatsache, dass Bill Gates die Aussage dementiert hat, bedeutet nicht automatisch, dass er es auch wirklich nicht gesagt hat. Ich glaube, ich würde es an seiner Stelle auch lieber dementieren. ;)

@Topic: Läuft ja scheinbar unter Linux, die Engine. Jedenfalls steht OpenRT nur für Linux zum Download bereit.
Die alte Quake3-Raytracing Demo sollte eigentlich mal zum Download angeboten werden. Würde mich mal interessieren, wie es so auf meinem X2 4800+ läuft. ;) Quake3 steht mittlerweile ja schließlich unter der GPL.
 
mich würde mal interessieren, wie das auf dem von intel gezeigten prototypen von nem 80kerner laufen würde^^
 
Die OpenRT Engine wurde glaubich an der Universitaet des Saarlandes entwickelt, dort ist der genannte Daniel Pohl wohl auch Mitarbeiter oder Student. Das heisst, natuerlich ist das echtzeit Raytracing nicht seine "Erfindung" oder alleiniger Verdienst. Das Ziel von OpenRT besteht eher darin, eine Plattform (oder API) zu schaffen, um echtzeit Raytracing zu vereinheitlichen. (aehnlich: OpenGL) Echtzeit Raytracing an sich waere also auf einer bestimmten Plattform (z.B. PC mit Win.) moeglicherweise schneller als OpenRT, wenn es perfekt optimiert und angepasst waere.

Die Geschwindigkeit von Raytracing ist in geringerem Masse von der Anzahl der Objekte, Polygone, usw. abhaengig, als "normale" Rasterisierung, welche in Spieleengines benutzt wird.
Daraus folgt, dass Raytracing ab einer gewissen Anzahl von Polygonen schneller ist als Rasterisierung. Der Trend bei Grafikengines besteht darin, immer mehr Polygone zu verwenden, daher ist das wissenschaftliche Interesse an Raytracing so gross, weil man zu Recht vermutet, dass dies die Zukunft der Computergrafik ist.

Es ist es unmoeglich bestimmte (sehr komplexe) Szenen mit Rasterisierung darzustellen, Raytracing funktioniert da allerdings schon. Die Hersteller und Kuenstler von computeranimierten Kinofilmen haben sich deshalb fuer Raytracing bzw. abgewandelte Formen dieses Algorithmus (Renderman ...) entschieden.

Wir koennen hoffen, dass mit dem Einzug der Raytracing Grafik neue Spielkonzepte erstmals richtig funktionieren. (wirklich dynamische Levels, optische Experimente ...) Jeder Gamer sollte sich also freuen, dass er mit Raytracing Effekte zu sehen bekommt, die zuvor nicht moeglich oder zumindest nicht praktikabel waren.

links zum thema:
(RTRT engine mit fakes, aber: Global Illumination) http://www.realstorm.com/
 
Als ich das erste mal von dieser Technik hörte war ich echt buff da wahrens aber mehrere Server mit Athlon XP prozesorren glaub 15 an der zahl die dies wiedergeben konnten bzw der entwickler ein Artikel dazu entwickelt hat.
 
Wohl ein neuer Rekord.
Es bleibt aber festzuhalten dass das aktuelle Hipster-Raytracing für einzelne Effekte nichts mit einem echten Raytracing-Game zu tun hat und damit die Prognose auch nicht erreicht ist/widerlegt ist.
Im Gegenteil, es werden auch 2 weitere Jahre hier nicht reichen.
Für echte Raytracing Engines haben wir immer noch viel zu wenig Rechenpower.
 
Zuletzt bearbeitet:
Zurück
Oben