Bericht Bericht: Raytracing in Spielen 2.0

elchtest

Newbie
Registriert
Feb. 2006
Beiträge
6
Ein Jahr nach seinem ersten Bericht gewährt unser Gastautor Daniel Pohl, Experte in Sachen Raytracing in Spielen, einen Einblick in Fortschritte auf diesem Gebiet. Insbesondere werden die Vorteile des alternativen Rendering-Verfahrens gegenüber der heutzutage ausschließlich verwendeten Rasterisierung aufgezeigt.

Zum Artikel: Bericht: Raytracing in Spielen 2.0
 
Sehr schön geschriebener, äußerst informativer Artikel:daumen:

Besonders gut finde ich, dass hier auch mal recht ausführlich über die mathematischen Hintergründe informiert wird. Das führt einem unweigerlich vor Augen, wie theoretisch es beim Rendering zugeht, bevor überhaupt ein Gedanke an die praktische Implementierung verschwendet werden kann.

Ich würde mich freuen, wenn es in Zukunft mehr Artikel dieser Art hier geben würde:)
 
der typ hat einen steilen aufstieg, kann mich noch erinnern als er die erste beta der Q3 engine in RT vorstellte
 
Bei der Funktion die von der Anzahl der Dreiecke auf den Rechenaufwand abbildet, würde mich interessieren ob die allgemein gilt. Sobald die Szene Spiegelungen enthält, muss doch eine zusätzliche Lichtstrahlberechnung durchgeführt werden. Das bedeutet die Suche muss nochmal durchgeführt werden.
Naiv würde ich behaupten, dass bei einer Spiegelungstiefe k der Rechenaufwand auf f(x)=O((log x)^k) wächst.
 
es kommt zwar darauf an, was er jetzt mit HD-Auflösung meint (der Logarithmus macht sowieso die Unterschiede zwischen 1280x800 und 1920x1020 ziemlich klein), aber 45 Frames auf einem "normalen" Quadcore verglichen damals mit 57 Frames bei einer ATi Radeon X1950 XTX 1600er Auflösung 4AA/16AF, lässt den Break-Even schon erwarten, wenn er nicht sogar schon da ist.
Und so wie ich den Artikel verstanden habe, sollte sich die Programmiererei auch(z.B. Portale, Türen) vereinfachen.

das größte Problem ist wohl alles umzustellen. Wer jahrelang "normal" programmiert hat, soll plötzlich raytracen...?
 
Was bis jetzt von Intel kam, war lediglich der Versuch Raytracing sinnvoll als Prestige-Projekt auf der CPU laufen zu lassen. Nicht ganz so gloreich wie ich finde.
@ChiliConCarne:
Spiegelungen gehen linear in die Berechnung ein, dass heißt, wenn die Anzahl der berechneten Spiegelungen verdoppelt wird, verdoppelt sich der Rechenaufwand.
 
Sehr schöner Artikel.

Weiter so...
 
Ich bin mal gespannt was Intel offiziell zum Thema Raytracing sagt, wenn sie larrabee vorstellen ;)
 
Ich hoffe doch wirklich, dass die Bestrebungen von Intel und besonders weiterer Hardware-Entwickler in Richtung hochspezialisierter CPUs mit vereinfachten aber vervielfachten Cores geht.

Imho ist das doch der beste Weg zu Raytracing.
Was mich jedoch beunruhigt, ist, wie nvidia und ATI dabei am Ende stehen werden. Können sie mit entwickeln? Wird Intel da vielleicht den Ausschlag geben und es der Konkurrenz schwer machen? (Was eh blöd von denen wäre, sonst gäbe Probleme mit dem Monopolgesetz)
 
Wow.

Wirklich erstaunlich, was Raytracing ermöglichen kann.
Ich hoffe es gibt große Schritte bei der Grafik von Spielen.

Mal sehen, ob mit der Larrabee da etwas passiert.
Und hoffentlich kommen schnell CPUs mit mehr Kernen, denn das ist wirklich der einzige Weg zum allgemeinen Raytracing.
 
der typ hat seine leidenschaft gefunden und sie zum beruf gemacht...beneidenswert.. :)
 
Interessanter Artikel, interessantes Thema.
Bis sich das durchsetzt wird das leider noch dauern.
Geredet wird über RT in Spielen ja schon seit Ewigkeiten.

Mfg, Matthias
 
Schade, dass nicht auf Raytracing-Beschleuniger sondern nur CPUs mit x Kernen eingegangen wurde. Raytracing ist ja wie Rasterisierung ein spezialisierter Prozess, der sich mit speziell darauf ausgerichteter Harware stark beschleunigen lässt (schließlich lasse ich Crysis auch nicht von meiner CPU rendern ;))

Ich Wette, dass es in 5 Jahren Raytracing-Beschleunigerkarten und erste kommerzielle Spiele dafür geben wird.
Wer steigt ein?
 
M.E. schrieb:
Ein sehr interessanter Artikel.

Ich glaube an Raytracing, so wie sich das momentan mit den Multicores entwickelt.

16 cores sind spätestens (wirklich spätestens) 2020 realistisch.

MfG

M.E.



Von der Jahreszahl kannst du 10 abziehen.
 
M.E. schrieb:
16 cores sind spätestens (wirklich spätestens) 2020 realistisch.


2020? Das sind noch 12 Jahre bis dahin! Vor 12 Jahren hatte man noch nen P166 mit 32-64MB RAM und 3D-Karten gab es auch noch nicht so wirklich! Jetzt vergleicht man mal das mit dem was wir heute haben...
 
@triumvirn: Mit HD-Auflösung ist 1280x720 gemeint. Steht unter einem der Screenshots.
 
Sehr guter Schreibstil ;)
Gefällt, der Artikel
 
sehr Interessanter Artikel

habe selber schon Erfahrungen mit Raytracing in Pov-Ray gemacht, um animierte Szenen zu Rendern brauchten die Schulrechner Ewigkeiten^^
 
Zurück
Oben