Bericht Bericht: Ray-Tracing „4.0“

elchtest

Newbie
Registriert
Feb. 2006
Beiträge
6
Gastautor Daniel Pohl (Intel) setzt seine Serie über Ray-Tracing fort und zeigt, wie die „Cloud“ und Ray-Tracing Spiele in Kinoqualität auf mobilen Geräten ermöglichen sollen. Für seine Forschungsarbeit setzt er dabei auf ein Netzwerk aus vier Servern mit je einer Intel Knights Ferry PCIe-Karte mit jeweils 32 Prozessorkernen.

Zum Artikel: Bericht: Ray-Tracing „4.0“
 
raytracing hat natürlich ein riesen grosses plus, ist meiner meinung nach aber auch wirklich das einzige: halt eben die lichtbrechung an sich. spiegelungen etc sehen einfach phänomenal aus. der rest naja wird wohl eher schwer zu machen sein bzw noch sau lange dauern (falls überhaupt) im gaming bereich.
was ich mir am ehesten vorstellen kann ist ein raytracing chip auf jetzige grafikkarten drauf. als zusatz, ähnlich wie sie nvidia mit physx gemacht hat.
das wäre vielleicht ne implementierungsmöglichkeit von raytracing, aber anderst kann ich mir (für mich halt relevant) diese technik in games noch nicht so vorstellen bzw zu rechenintensiv.
 
Super Bericht! Ich möchte sowas öfters lesen.

Ist ja schön, dass man mit Raytracing schon 70 fps erreicht, allerdings ist der Grafik-Vorteil gegenüber den herkömmlichen Render-Vorgängen in Spielen minimal, wenn nicht auch die inderekte Beleuchtung (Global Illumination) ins Raytracing einbezogen wird. Meiner Meinung nach ist es gerade das, was ein den Realismus-Grad am extremsten steigert.

101194-4ylhh.jpg


In aktuellen Spielen wird ein Teil dieses Effektes per Ambient Occlusion erzeugt, das ist aber nur bei Kanten usw Sichtbar, nur in kleinem Masse.
 
Zuletzt bearbeitet:
das mit den latenzen ist halt echt ein problem dass sich nicht umgehen laesst. da stellt sich
die frage nach der zielgruppe. die entusiasten werden sich mit 200ms nicht anfreunden
koennen und die leute denen eine solch hohe latenz egal ist werden wohl auch keinen
allzugrossen wert auf highend grafik legen. klar, fuer die industrie ist diese cloudgeschichte
natuerlich lukrativ, inklusive standleitung auf die konten der konsumenten.
 
Schöner Artikel.

Ich werde den mir morgen noch einmal aufmerksamer durchlesen, aber soweit:
Gut geschrieben und über ein relevantes Thema :)

Zum Thema Cloud:
Soll doch erstmal ganz Deutschland mindestens DLS mit 6mbit haben. Vielleicht sollte man alle Firmen die Cloud-Computing machen wollen dazu zwingen, der Telekom beim Ausbau unter die Arme zu greifen?
Persönlich halte ich das eh für Quatsch. Da sind wir dann doch direkt wieder bei Konsolen-Optik - und diesmal sogar für den PC.
 
Zuletzt bearbeitet:
Die Zukunft wird wohl so aussehen, dass man sich auf einen (oder 2 oder 3...) Video-Codec einigt und dass sämtliche "Consumer"-Geräte nur noch auf diese Codecs spezialisierte Prozessoren haben werden.
Optimaler weise hat man dann einen Fernseher, der als u.a. TV, Mediaplayer und Spielkonsole dient.

"Auf in die Cloud!"
 
ok, verstehe ich das richtig, es geht also nur darum komplexe lichtberechnungen an nen server zu schicken, der das dann berechnet und wieder zurück schickt?
 
Wenn ich das richtig verstanden habe, ist doch ein Riesen-Vorteil auch, dass man als Gamer nicht mehr für x-tausende Euro Hardware kaufen muss, sondern die Cloud die Frames für einen berechnet. Man selber wäre dann ja der Thin Client und könnte zocken, ohne die dickste hardware zu haben, sondern würde die fertig berechneten Frames über das Internet direkt auf den Bildschirm geschickt bekommen. Oder gehts nur um bestimmte Teile des Bildes (Lichtbrechung) und der Rest wird immer noch auf dem heimischen PC berechnet?
 
ok, verstehe ich das richtig, es geht also nur darum komplexe lichtberechnungen an nen server zu schicken, der das dann berechnet und wieder zurück schickt?

An den Server werden die Positionsdaten der Spielerfigur geschickt.
Der berechnet dann alles notwendige und schickt es wieder zurück an den Client.

Ganz grob vereinfacht kannst du dir das so vorstellen: das, was hier der Server ist, ist momentan der normale Computer, das, was hier der Client ist, der Touch-Screen-Monitor.

Der Client stellt eigentlich nur mehr dar und sendet die Eingaben, der Server macht den Rest.
 
Alexander Reshetov, Benjamin Segovia, Alexey Soupikov, Sven Woop, Ingo Wald (alphabetische Auflistung)
Dann müsste Ingo aber vor Sven genannt werden :D

Sonst: Ich finde es super, mal von solchen Technologien ausführlich zu hören. Bis ich alles verstanden hab, muss ich wahrscheinlich noch dreimal lesen....
 
Hmm warum sollte Ray-Tracing jetzt so viel größere Vorteile gegenüber herkömmliche Methoden haben? Das hier klingt eher so, als ob es so überhaupt erst mögliche wäre Ray-Tracing für Spiele anzuwenden, da sonst einfach nicht die Rechenpower vorhanden ist.

Aber dieses ganze "super tolle Grafik auf Server berechnen" macht doch wenig Sinn, wenn man die Datenmenge dann nur komprimiert zurückschicken kann -_-

Bei Onlive und co. kriegt man doch auch nur komprimierte 720p die sich gegenüber unkomprimierten Bildern nicht sehen lassen können...

Und naja, für viele Spieler, mich inklusive, dürften die Latenzen ehe ein K.O.-Kriterium sein, was natürlich an sich nichts mit Ray-Tracing zu tun hat aber trotzdem ein Problem darstellt :/
 
Von Cloud Computing halte ich recht wenig. Ich habe die Hard und Software lieber zu Hause. Bei dieser Webseite trifft man damit wohl eher das falsche Publikum!
 
Masterchief79 schrieb:
Wenn ich das richtig verstanden habe, ist doch ein Riesen-Vorteil auch, dass man als Gamer nicht mehr für x-tausende Euro Hardware kaufen muss, sondern die Cloud die Frames für einen berechnet. Man selber wäre dann ja der Thin Client und könnte zocken, ohne die dickste hardware zu haben, sondern würde die fertig berechneten Frames über das Internet direkt auf den Bildschirm geschickt bekommen. Oder gehts nur um bestimmte Teile des Bildes (Lichtbrechung) und der Rest wird immer noch auf dem heimischen PC berechnet?

es geht hier schon darum das komplette spiel im rechenzentrum zu berechnen und dir dann
per hd videostream auf deinen client zu schieben. ist halt fraglich ob der kunde ausser der
guten optik auch einen kostenvorteil von hat. gut man spart sich 1000 euro fuer einen
rechner, aber die 200 300 gb die an einem durchzockten sonntag nachmittag entstehen
wollen bezahlt sein und wenn man sich vorstellt das man als anwender vieleicht 4 stunden
lang 40 cpus und 80 gb ram in einem rechenzentrum in beschlag nimmt werden auch da
wohl noch ordenlich kosten fuer anfallen, ganz abgesehen von der eigentlichen
software/spiel die ja auch mit irgendwelchen stundenpauschalen beaufschlagt wird.

ja ich bin da skeptisch :)
 
Mich würde interessieren wie das mit der Latenz aussieht. Gerade bei Shootern oder Rennspielen dürfte das ein riesiges Problem sein, wenn die Daten immer erst von und zur Cloud geschickt werden müssen.
 
Hardware Setup

(...)

* Motherboard: (...)
* CPU: Intel Core i7-965(6 Kerne, 2 Threads pro Kern, 3.2 GHz)

Laut der Daten in der Klammer sollte es sich um einen i7-970 handeln. der 965 hat nämlich 4x3,33GHz mit SMT.
 
Der größte Vorteil von Raytracing ist imo, dass so ziemlich jeder den Ablauf versteht. Die potentielle Basis für Entwicklung in diesem Bereich ist also recht groß. Viele coole Effekte kommen einfach mal so gratis dazu, nicht immer ohne Performanceeinbußen, aber fast immer ohne groß Nachdenken zu müssen - Erweiterungen, wie die Überwachungsschirme, sind recht einfach zu implementieren. Noch offensichtlicher wird es wenn man mal einen Schritt zurück geht - es gibt nichts intuitiveres als Raycasting.

Jetzt kommt das aber :p Man fragt sich doch, warum gibt es Raytracing seit nunmehr ca 30 Jahren und trotzdem hat sich bei Spielen die Rasterisierung durchgesetzt - noch bevor der Hardware-Beschleuniger kam. Dort hat es ja auch mit Raycasting angefangen und die CPU ist scheinbar noch immer das Raytracing-Maß aller Dinge. Warum gibt es Beschleuniger für Rasterisierung, aber nach 30 Jahren immer noch keine gescheiten für Raytracing. Das Manko ist und bleibt die Hardware. Ich erinner mich da noch an die Interviews mit den Comanche Entwicklern von Novalogic so ca 2001. Und gerade wenn man sich Cloud Gaming anschaut wird das eine große Rolle spielen. Wieviel wird die CPU-Performance einer Server-Lösung über der durchschnittlichen GamerCPU liegen. Ich würd behaupten auf dem Grafikkartensektor ist da relativ zur durchschnittlichen GamerGPU mehr Steigerung drin.

Kann man nur gespannt bleiben was die nächsten Jahre so an HW kommt...
 
Hehe ja ab in die Cloud und Eigentums und Nutzungsrechte an Software und Games können dir noch schneller als bei Steam entzogen werden ohne das man etwas tun kann :)

RT selbst finde ich bringt immer noch keinen so großen graphischen Vorteil mit sich wie es hier rüber kommen soll. Das Modell des Kronleuchters z.B finde ich richtig grausig, wenn mir das einer ingame vorsetzen würde täte ich dem empfehlen das Modell neu zu machen.....
 
iron.e schrieb:
es geht hier schon darum das komplette spiel im rechenzentrum zu berechnen und dir dann
per hd videostream auf deinen client zu schieben. ist halt fraglich ob der kunde ausser der
guten optik auch einen kostenvorteil von hat. gut man spart sich 1000 euro fuer einen
rechner, aber die 200 300 gb die an einem durchzockten sonntag nachmittag entstehen
wollen bezahlt sein und wenn man sich vorstellt das man als anwender vieleicht 4 stunden
lang 40 cpus und 80 gb ram in einem rechenzentrum in beschlag nimmt werden auch da
wohl noch ordenlich kosten fuer anfallen, ganz abgesehen von der eigentlichen
software/spiel die ja auch mit irgendwelchen stundenpauschalen beaufschlagt wird.

ja ich bin da skeptisch :)

Ah, danke ;) Ja stimmt macht auch sinn so. Klar, bis die vorhandene Infrastruktur an Internetleitungen usw vorhanden ist, wirds natürlich noch dauern. Vielleicht so lange, dass das Projekt als ganzes nicht mehr wirklich lohnenswert ist, weil dann die Hardware schon so weit ist, dass man diese Effekte auch auf normalen Heimrechnern berechnen kann.
Außerdem entstehen durch den Stream ja auch ein Haufen Kosten (stellt euch vor man würde das für jeden Spieler von CoD Black Ops machen...), wie du schon gesagt hast, und für Millionen von Spielern will ja auch erstmal die Rechenpower seitens des Vertreibers vorhanden sein.
Somit könnte das eigentlich nur auf den Spielpreis aufgeschlagen werden, oder man führt á la Blizzard für jedes RT-Spiel monatliche (oder je nach Spielzeit anfallende) Gebühren an, wäre natürlich beides nicht wünschenswert.
Zudem muss ja auch der Thin Cloud wenigstens einigermaßen leistungsfähig sein, um die komprimierten Pakete wieder schnell genug zurückdecodieren zu können. Ganz ohne aktuelle Hardware gehts dann also auch wieder nicht.

RT selbst finde ich bringt immer noch keinen so großen graphischen Vorteil mit sich wie es hier rüber kommen soll. Das Modell des Kronleuchters z.B finde ich richtig grausig, wenn mir das einer ingame vorsetzen würde täte ich dem empfehlen das Modell neu zu machen.....
@Breeeze: Es geht ja hier auch nicht um "guck mal der ist rund" "oh guck mal der ist eckig, der gefällt mir besser" ^^ Sondern um die simple Tatsache, dass der nachgearbeitete aus über ner Million Polys besteht. Wenn man selber schonmal mit 3D Models gearbeitet hat, weiß man, dass das ein ganzer Haufen ist. ;)
Und es soll ja nur dem Beweis dienen, dass die Berechnung zwischen den verschiedenen Geometriestufen (die ja hier wirklich extrem sind) keine große Auswirkung auf die Performance hat.
Der wurde ja nicht mit dem Ziel designt, hinterher im fertigen RT-Wolfenstein zu landen.
 
Zurück
Oben