Bericht Bericht: Ray-Tracing „4.0“

Scotty4BMAN schrieb:
Der größte Vorteil von Raytracing ist imo, dass so ziemlich jeder den Ablauf versteht.
Was abgesehen von der Lehre komplett unwichtig ist. Einfache Effekte sind günstig und einfach zu bekommen. Will man mehr (Glossy Reflection/Refraction, GI,...) ist es auch nicht einfacher zu verstehen und wenn es performant sein soll, muss man genauso tricksen.


Betrachten wir es mal von einem anderen Standpunkt. Raycasting (Primärstrahlen von Raytracing) berechnen exakt das gleiche Ergebnis wie normale Rasterisierung: die Intersection der Strahlen durch die Kamera mit der Weltgeometrie. Nichttriviale Effekte, die Sekundärstrahlen (e.g. Soft Shadows) benötigen sind im Vergleich viel zu langsam.

Schaut man sich die Bottlenecks in modernen Spielen an, bemerkt man, dass dreiecksbasiertes Raytracing versucht Probleme zu lösen, die keine Probleme löst, sondern durch neue Restriktionen welche schafft. Imo ein Epic Fail.

Raytracing wird dann stark, wenn es nicht mehr auf Dreiecken arbeitet und die Vorteile anderer Datenstrukturen nutzen kann.
Um das zu zeigen müsste man aber vielleicht mehr machen als bei jedem neuem ID Spiel einen neuen Importer zu schreiben.
 
für sowas wäre intels eingestampfte graka echt super, schade dass es die nicht so zu kaufen gibt.
Aber einige sachen sehen echt nice aus.

Dieser Cloud kram stell ich mir für office ganz interessant vor, aber für zocken ist es mir völlig egal
 
Wird niemals vernünftig möglich sein! Der Ping is einfach zu hoch! Und wenn dann noch muliplayer dazu kommt, ist man bei 200ms Ping oder so ;) Lieber potente hardware für den Endkunden, außer würde ich nie nie nie nie nie soetwas mitmachen! Ich möchte meine eigene hardware zusammenstellen und ich will kontrollieren was bei mir übern Bildschirm flimmert.
 
@Jan
doch das war definitiv schon vermerkt in dem alten artikel den Karre gelinkt hat.
hier wird einfach nur nochmals aufgefrischt und detailierter berichtet.
 
RLZ schrieb:
Was abgesehen von der Lehre komplett unwichtig ist.
Das seh ich gar nicht so. Schon in der Forschung ist es von Vorteil, wenn etwas überschaubar ist und auch ohne riesen Aufwand experimentiert werden kann. Mehr Köpfe mehr Ideen und machen wir uns nichts vor, in der Welt der Programmierer setzt man sich auch nicht so oft hin und löst Probleme mit Differentialgleichungen auf dem Papier, bevor man etwas umsetzt.

RLZ schrieb:
Einfache Effekte sind günstig und einfach zu bekommen. Will man mehr (Glossy Reflection/Refraction, GI,...) ist es auch nicht einfacher zu verstehen und wenn es performant sein soll, muss man genauso tricksen.

Betrachten wir es mal von einem anderen Standpunkt. Raycasting (Primärstrahlen von Raytracing) berechnen exakt das gleiche Ergebnis wie normale Rasterisierung: die Intersection der Strahlen durch die Kamera mit der Weltgeometrie. Nichttriviale Effekte, die Sekundärstrahlen (e.g. Soft Shadows) benötigen sind im Vergleich viel zu langsam.

Schaut man sich die Bottlenecks in modernen Spielen an, bemerkt man, dass dreiecksbasiertes Raytracing versucht Probleme zu lösen, die keine Probleme löst, sondern durch neue Restriktionen welche schafft. Imo ein Epic Fail.
Raycasting kann jedoch auch sehr einfach Reflektionen und Transparenz darstellen, wo du dir mit Rasterisierung zugegebenermaßen schon einen abbrechen kannst. Das liegt aber imo eher daran, dass das raycasting auf der kleinsten atomaren einheit arbeitet, dem photon sozusagen, während bei dreicksbasierter rasterisierung immer unwesentliche Teile mit betrachtet werden (die in einer reflection map zb mit dargestellt werden müssen - was nicht immer geht) Hier gibts einen klaren ich brauch mir keinen Kopf machen Vorteil fürs Raytracing.

RLZ schrieb:
Raytracing wird dann stark, wenn es nicht mehr auf Dreiecken arbeitet und die Vorteile anderer Datenstrukturen nutzen kann.
Um das zu zeigen müsste man aber vielleicht mehr machen als bei jedem neuem ID Spiel einen neuen Importer zu schreiben.
Die Animation und Physik solcher Objekte ist aber auch nicht ohne. Raytracing hat imo genau da einen Nachteil. Die Index-Strukturen sind i.d.R. statisch. Ein hochdynamisches Objekt hab ich in den Demos noch nicht gesehn. Der Kronleuchter hat so viele Polygone und sieht nicht nur mittelprächtig aus, er wird sich auch keinen mm bewegen, weder als ganzes noch teilweise. Ein Baum mit Ästen und Blättern die im Wind wehen wär doch mal cool :evillol:
 
Zuletzt bearbeitet:
Jan schrieb:
@ Karre: Hier und heute geht es erstmals um Ray-Tracing und Cloud-Computing. Bitte erst lesen, dann mutmaßen.

Also wird "Ray-Tracing" als Trojanisches Pferd benutzt um dann Cloud-Computing ins Spiel zu bringen, da es scheinbar in absehbarer Zeit nicht möglich ist es für den Desktop-Betrieb zu ermöglichen. Da angedachte Zenario ist setzt Bedingungen die noch gar nicht vorhanden sind eh unpraktikabel sind. Stichwort (Breitbandinternet, Server- und Rechenwerkkapazitäten, Videokompression, Ping etc.)

Scheinbar will die Industrie (erst Microsoft jetzt Intel) den Kunden Cloud-Computing aufschwatzen. Davon halte ich wie gesagt relativ wenig bis gar nichts. Warum sollte ich auf Smartphone ein High-End Game mit Raytraycing spielen?

Auf dieser Webseite werden Grafikkarten für 500 Euro oder CPUs für 1000 € vorgestellt und getestet. Wenn die Hardware für den Heimbereich nicht bezahlbar ist wird die entsprechende Anmietung auch entsprechend teuer.
 
Ich halte von Cloud-Computing, wie viele andere, auch nicht viel. Da vergeht doch einem der Spaß am PC-Basteln. Dann gäbe es kein SysProfile mehr, sondern CloudProfile.:D
Ich liebe es, egal was, an meinem PC rumzuschrauben. Genau dass wäre mit Cloud-Computing nicht mehr möglich. Zudem dödle ich mit ner 1000er DSL Leitung durch`s Internet......
Das Thema könnte für PC`s in Firmen, sprich Office und vlt. Multimedia, interessant werden. Jedoch fürs Spielen wäre Cloud überhaupt nichts. Ich merk ja schon Lags, wenn ich nen Ping von 100ms hab. Was würde das dann wohl mit nem Ping von ~250 werden.:D
Allein wenn man schon hört was Nvidia vor hat mit 10-30mal mehr Leistung als Fermi im Jahr 2014.....
Da brauchen wir kein Cloud mehr.

Fazit:
Für Office und Multimedia ist Cloud OK. Jedoch fürs Gaming halte ich es ungeeignet.;)
 
Dieses Cloud Computing wird zur Zeit wirklich versucht mit aller Kraft umzusetzen, ob's bei Microsoft ist, mit Windows Live ist oder eben das hier.
Trotzdem sollten doch erstmal alle Menschen in Deutschland Zugang zu DSL bekommen, bevor man solche utopischen Sachen macht. Als Utopie ist es wirklich nicht schlecht, denn früher wollte man ja auch, dass jedes Haus sein eigenes Stromkraftwerk hat. Jetzt bekommen wir Strom von großen Kraftwerken, viell. wird es ja mit Informationen auch bald so :rolleyes:

Raytracing finde ich persönlich genial, weil damit Reflexionen und Brechungen physikalisch korrekt umgesetzt werden. Das komm einen alles vor wie im Physikunterricht. Zudem bin ich ein Freund von Glaseffekten uns glänzenden Autos. Ich glaube GT5 benutz bei seinen Menürendern auch Raytracing, darum schauen die so gut aus.
Mittlerweile bekommt man ja auch so sehr tolle Reflexionen zu sehen, ob die dann auch so physiklaisch korrekt sind, weiß ich nicht :D
Verwunderlich für mich ist, dass Intel soetwas macht, ich dachte eig. immer NVIDIA hat sich auf sowas spezialisiert mit wie man in Design Garage sehen kann... Verwunderlich ist, dass dort die Autos gar nicht so super aussehen, das kommen manche Spiele genau so hin...
 
eightcore schrieb:
Ist ja schön, dass man mit Raytracing schon 70 fps erreicht, allerdings ist der Grafik-Vorteil gegenüber den herkömmlichen Render-Vorgängen in Spielen minimal, wenn nicht auch die inderekte Beleuchtung (Global Illumination) ins Raytracing einbezogen wird. Meiner Meinung nach ist es gerade das, was ein den Realismus-Grad am extremsten steigert.

Praktischer weise steht mit Photon Tracing dem Raytracing eine adäquate Methode zur Berechnung der indirekten Beleuchtung zur Verfügung (damit werden sogar Kaustiken möglich im Gegensatz zu Radiosity). Photon Tracing kann dabei auch gleich die hoch optimierten Raytracing-Routinen recyclen.


Scotty4BMAN schrieb:
RLZ schrieb:
Zitat von
Was abgesehen von der Lehre komplett unwichtig ist.
Das seh ich gar nicht so. Schon in der Forschung ist es von Vorteil, wenn etwas überschaubar ist und auch ohne riesen Aufwand experimentiert werden kann.

Das ist so nicht korrekt. Schon allein wenn man sich anschaut wie ein effizienter Algorithmus zur Ray-Triangle-Intersection aussieht verliert das Raytracing den Vorteil der "Einfachheit".
Wen es interessiert "Fast Minimum Storage Ray Triangle Intersection" von Tomas Möller & Ben Trumbore ist ein solcher Algorithmus. Dagegen ist ein Scanline-Algorithmus trivial. Außerdem ist das Laufzeitverhalten von Raytracing im Vergleich zu Scanline ungünstig (zumindest bei aktuellen Echtzeitanwendungen) wärend ein Scanline Algorithmus jedes Polygon genau einmal anfasst, fasst ein Raytracer im schlimmsten Fall jedes Polygon bei der Berechnung von jedem Pixel an. Was für "Chaos im Speicher" sorgt :). Ergo bevor man überhaupt Raytracen kann benötigt man eine Beschleunigungs Datenstruktur einen BSP-Baum oder einen Octree/Quadtree. Kurz um, raytracen ist absolut nicht einfacher als das Scanline verfahren. Der Teufel steckt nur in einem anderen Detail.


RLZ schrieb:
Schaut man sich die Bottlenecks in modernen Spielen an, bemerkt man, dass dreiecksbasiertes Raytracing versucht Probleme zu lösen, die keine Probleme löst, sondern durch neue Restriktionen welche schafft. Imo ein Epic Fail.

Raytracing hat den Vorteil, dass damit Effekte möglich werden die "klassisch" nicht umsetzbar sind. Kaustiken, echte volumetrische Beleuchtung, Global Illumination, etc. .
Außerdem sinkt die Effizienz eines Scanline-Renderers(O(Polygonanzahl*sichtbare Polygonpixel)) mit steigender Polygonzahl während es auf den Raytracer(O(x*y*log(Polygonanzahl) nur minimale Auswirkungen hat.

Da ich mich selbst ausführlich damit beschäftigt habe, würde mich interessieren ob die Performance schon mal mit Fermi-Karten verglichen wurde. (Ich kenne bisher nur die nVidia-Seite und Vergleiche sind zuweilen ausgesprochen schwer.)
 
Zuletzt bearbeitet:
Cloud wird im Artikel so ausführlich erklärt, da Daniel Pohl die zukünftigen Anwendungsgebiete von Ray-Tracing auf dieser Basis sieht. Das läuft mehr oder weniger parallel bei Onlive ab, die ausschließlich die Rasterisierung verwenden.

---

Der Artikel gefiel mir sehr gut, neue Beispiele wurden erklärt und Funktionen geschrieben. Das Thema bleibt interessant.
Was man jedoch sieht, ein Server kann grob einen Consumer bedienen, das noch immer völlig Praxisfern ist. Eine drastische Leistungssteigerung ist Pflicht, darum sehe ich Rechner auf Basis von MIC-Produkten in zB. Kliniken oder für Simulations-Maschienen auch weiterhin für einzig machbar.
 
das hardware-setup muss fehlerhaft sein. ein x58-mobo verträgt keinen i7 965 mit 6 kernen. entweder ist es ein 4kerner oder es ist ein gulftown und kein bloomfield wie 965 suggeriert.
 
@ix.tank

Dem Speicherproblem des Raytracings hat sich CausticRT angenommen
Die werkeln an einer eigenen API & Hardware für Raytracing

Die Idee mit der Cloud find ich persönlich für Spiele auch blöd.
Die Encodierung & Decodierung erzeugt einen so hohen Lag der einem
jedem Spass am Zocken verdirbt.
 
Das ganze ist so bizarr. Der uralt Titel Wolfenstein, der im Grunde nach wie vor gerastert wird und nur um spiegelnde bzw. refraktierende Flächen ergänzt wird, welche so dann in vollkommen übertriebener und unnatürlicher Weise in den Mittelpunkt des Geschehens gerückt werden. Während Nvidia auf ihren Präsentationen bereits physikalisch korrekt reagierenden OpenCL-Patikelnebel und -rauch vorführt, wird in dieser RT Präsentation immer noch die weit über 10 Jahre alte 2D Annäherung benutzt, bei der vorberechnete Bilder in die Sichtachse des Betrachters eingeblendet werden. Bei diesem "Entwicklungstempo", darf man dann in 10 bis 15 Jahren mit der ersten Einbindung einer einfachen GI rechnen? Und dann wieder auf Basis eines Fremdprodukts, wie etwa der Doom 3 Engine?

Diese perfekt reflek-/refraktierenden Oberflächen kommen in der Wirklichkeit ohnehin nicht vor. Mehr oder weniger ist jede Art der Spiegelung verschwommen, und mehr oder weniger reflektiert jede Oberfläche, sonst würden wir sie gar nicht erst sehen. Im Grunde muss man alles reflektieren lassen und viel mehr den Grad der Diffusität(Verschwommenheit) steuern. Wenn ein Szenenlichtstrahl darüber hinaus über mehr als eine Objektkollision verfolgt wird, dann ist das Ergebnis, wenn wunderts, eine GI. Der Wolfensteinansatzt befindet sich allerdings noch in einer anderen Generation.

Deswegen frage ich mal ganz plump: Cloudcomputing für ein Wolfenstein mit Spiegellackautos und "tollen" Kronleuchtern? Sicher nicht. Und irgend etwas, das ein bissl attraktiver ist als ein Plugin für ü^10 Jahre alte Spieletittel, verbunden mit der Feststellung wie unglaublich rechenintensiv das doch schon sei, muss da schon kommen, etwas wofür es sich auch lohnt das Thema Cloudcomputing in Erwägung zu ziehen.
 
Hi,
Super Artikel.
Ein kleiner Fehler steckt im Ende.
Im Bereich über den Autor heißt es, er hätte seine Diplomarbeit über ein geraytracedes Quake 4 geschrieben.
Es war jedoch Quake 3.
gruß
yogi
 
Guter und interessanter Artikel, danke!

Zum Thema Cloud - das wird so weit wie möglich ohne mich statt finden denn spätestens wenn sich das etabliert hat muß man für jeden Pups bezahlen und mit Datenschutz ist es dann auch endgültig vorbei!
 
OnLive ist ja interessant, und die Idee nicht unbeding die dümmste - allerdings momentan absolut nicht großflächig realisierbar.
30$ für ein Spiel welches dann online gezoggt wird? Wo nehmen die das Geld für die Hardware her? Und dann für noch potentere Hardware die Raytracen kann? Wenn ich bedenke das ich 60€ im Monat für meinen Root zahle...
Dann wäre da die Verteilung der Last. Ist das gleiche Problem wie bei SLi und CF. Und AMD konnte es noch nicht in den Griff bekommen.
Und auch die Qualität (die ja durch Raytracing verbessert werden soll) leidet durch die geringe Bildqualität.
Zum zweiten ist die Bandbreite in Deutschland zum großen Teil nicht vorhanden, und selbst wenn - die Latenz (Ping) killt jeden Spielspass!!
Schon mal mit nem 130 Ping gezoggt!? Haha.
Und man bräuchte sichen mehr als DSL 6.000. Ich sag nur Teamviever als Beispiel. Selbst wenn der andere an 10 MBit upstream hängt macht das keine Freude ;)
Schlimmer wäre noch, wenn alle anfange mit diesem "Quatsch". Dann würde das Netz, welches ja jetzt schon ordentlich belastet wird, total augelutscht werden (Nachts der Ping beim spielen teilweise um 5-10ms besser ).
Und zu guter letzt: wie würden die Anbieter, grade in den USA, den ungeheuren Traffic der entsteht, tolerieren. Wenn schon peer-to-peer Verbindungen nicht immer erlaubt sind (deswegen ist der Multiplayer in CoD6 ja auch suboptimal implementiert)?

Also was bietet der Bericht bitte neues zu Raytracing!? Der Artikel erzählt über weite Teile was über Cloudgaming und nicht übers Raytracen. Ich dachte zuerst er wäre etwas wirklich neues entwikelt worden, ein neuer Algorithmus z.B.
Also heißt es weiterhin auf potente Hardware warten. Denn Raytracing ist einfach gut. Cloudgaming allerding noch nicht, und wenn dann irgenwann einmal, nur mit Einschränkungen.
 
Zurück
Oben