Bericht Bericht: Raytracing in Spielen 2.0

2020? Das sind noch 12 Jahre bis dahin! Vor 12 Jahren hatte man noch nen P166 mit 32-64MB RAM und 3D-Karten gab es auch noch nicht so wirklich! Jetzt vergleicht man mal das mit dem was wir heute haben...
Und noch 5 jahre abziehen weil wir uns immer doppelt so schnell entwickeln. Ich denke Intel kommt wieder mit einen Tick und einen Tock mit 16nm und 16 Cores könnt ich mir gut vorstellen!
 
In erster Sicht ist Raytracing fuer die Wissenschaft und Technik wichtig, ich glaub man kann bei diesem Artiel erkennen das da Raytracing schon bei der Realitaet angekommen ist.

Bei Spiele dagegen wird es noch lang dauern. Immerhin gibt es hier einige Fragezeichen, wie wird sich DirectX diesbezueglich verhalten? Es ist ja bei diesem Artikel herauszuhoeren das momentan Raytracing auf OpenGL basiert, Linux-User wuerden jumbeln wenn es so bleiben wuerde, da waere die Macht von Microsoft mit ihrem DirectX gebrochen aber es wird bestimmt nicht so kommen. ^^
Dann ist ja noch die Sache wie NVIDIA und ATI sich dazu verhalten.
Bei ATI war Rede das man zukuenftig nur noch einen Core macht und je nach Leistung mehrere solcher Chips verbaut. Ein "R700" z.B. waere Low-End, zwei davon Midrange, drei oder vier High-End - je nach dem.
Das wuerde aehnlich in die Richtung wie bei Intel mit ihrem Larabee Projekt gehen.
Zu dem duerfte ATI in dieser Hinsicht auch von AMD bzw. AMD von ATI profitieren.


Der Artikel war interesannt.
Auch in der Hinsicht wie man schnell erfolgreich werden kann.
Der Bursche war sozusagen mit dem richtigen Wissen, zum richtigen Zeitpunkt am richtigen Ort. :D
 
Ein sehr Interessanter Artikel, ein komplexes Thema Laien beigebracht.
Vielen Dank! Ich will mehr.

Gruß
R.A.M.

P.S. Warum sind immer alle der Meinung CPU und Grafikkartenhersteller bekämpfen
sich beim Thema Raytracing...?
 
Sehr guter Artikel, hat Spaß gemacht zu lesen, danke schön!
 
Ich stelle mir da allerdings die Frage:
Warum sollten nVidia und gerade AMD/ATi diese Entwicklung auch wollen? Hört sich hier ja alles danach an, dass die gesamte Berechnung von Grafik dann durch die CPU getätigt wird.
Oder sind hier vielleicht "Grafikkarten" gemeint, die solche Raytracing-Berechnungen gesondert bearbeiten und dann eine CPU, die normale Berechnungen, wie KI etc. macht?
 
Hammer gut geschreiben auch das quer einsteiger was davon verstehen! und ratracing sieht einfach nur NICE aus!
 
Der Artikel gefällt mir, ist wirklich gelungen :)

Wie kommt man denn an das Bild auf Seite drei ran, unter dem "Klick für ein 80-MB-Bild in 10200x6000 Pixel." steht?
 
Ich hab da jetzt mal ne Frage...
Heißt das nun eigentlich, dass es mit Raytracing sinnvoll wäre, eine CPU mit 1-2 x86-Cores zu nehmen, dazu ein paar auf Raytracing und dessen Anforderungen optimierte Cores (sagen wir mal 6 Stück) hinzuzufügen und schon kann man die Grafikkarte aus dem System ausschmeißen?
Die Ausgabe erfolgt dann per Chipsatz und gut is.. oder wie?

Es würde ja keinen Sinn machen, 4-8 Cores für Videobearbeitung etc zu besitzen, um in Spielen dann 1-2 Grafikchips rechnen zu lassen..
 
Super Artikel, habe den ersten schon sehr informativ und interessant gefunden :daumen::schluck:

Liese sich Raytracing auch mittels CUDA realisieren?
 
super artikel.. würde ich gerne mehr von lesen.. auch schön alles mit eingehenden beispielen erklärt.. top ;)

aber wo ist das 80MB-Bild?
 
das frag ich mich auch da wollte ich meiner isdn connection über nacht was zum füttern geben und dann sowas :D
 
Wirklich toll.

Wenn er solche Bilder, wie das letzte mit Beleuchtung und Spiegelungen jetzt mal mit der Poligonzahl der Boeing 777 zeigen würde und ein paar "Shadereffekten" die dem Bild Tiefenunschärfe, Hitzeflimmern usw. dazugeben, dann würde auch der letzt begeistert aufschreien.

Es gibt ja immernoch einige die einen "Neuanfang" für nicht sinnvoll halten. :D


Kann man Quake3/4 Raytraced irgendwo fertig runterladen und mit dem eigenen Quadcore testen? Ohne selbst zu kompilieren oder viel Aufwand...würde mich mal interessieren?
 
Hm, zwei Fragen:

1) wie kann Intel mal eben einen Raytracer schreiben, der 10(!) mal schneller als alles andere ist? Da hätte ich mir noch ein paar mehr Infos gewünscht.

2) Wenn mit diesem Raytracer bereits auf 4 CPU-Kernen 45fps in HD erreicht werden, warum soll es bis zu den ersten Spielen noch ewig dauern? Warum kommen die nicht spätestens 2009, wenn sie bereits heute auf 200 Eur CPUs flutschen würden?
 
Zuletzt bearbeitet:
Also ich glaub auch das sich Raytracing in Spielen erstmal nicht durchsetzen wird.
(zumindest in Real Time Bereich, Offline vorberechnen von Lightmaps etc. ist schon sinnvoll..)

Für mich ist das eher so, dass Intel versucht, eine "sinnvolle" Applikation zu finden, die ihre Multicore wirklich nutzt. Also nicht viel mehr als ein Werbegag.

Ich finde der Artikel hebt jetzt nur die positiven Seiten von Raytracing hervor, ich glaube aber sehrwohl , dass es auch Effekte gibt in denen Raytracing benachteiligt ist.

Auch vergleicht er eine Brute Force Methode (Rasterisierung) mit einer optimierten Methode.
Klar das da so ein Unterschied heraus kommt. Es gibt aber sehrwohl auch Verfahren, die die Rasterisierungsarbeit vermindern (z.B. Clipping im Screenspace). Und der Flaschenhals aktueller Spiele ist so gut wie nie die Vertex Einheit. Darum find ich das mit der geometrischen Komplexität etwas zu stark bewertet.
Was Raytracing oft das Genick bricht, ist ja nicht die Anzahl der Vertices sondern die Auflösung des Fensters. Da steigt der Rechenaufwand nämlich enorm.

Zudem wird hauptsächlich in Richtung Rasterisierung geforscht und die meisten Paper, beschäftigen sich nur mit der Optimiereung für Rasterisierung. Raytracing spielt hier eine untergeordnete Rolle, also für Spiele Entwickler, die oft Erkenntnisse aus Forschungen übernehmen eher uninteressant.

Also im grossen und ganzen: Raytracing mag in manchen Bereichen seine Berechtigung haben, aber zur zeit ist das nichts weiter als eine wilkommene Werbung für Intel...
 
Super artikel!

wenn ich das richtig verstehe, brauchen wir künftig keine GPU's mehr (bzw. keine potenten mehr).
Dafür viele cores, die man ja, wenn man mal nicht gerade spielt, auch gut für andere dinge nutzen kann.
Im Grunde eine positive Entwicklung, nur nVidia wird wohl nicht so glücklich sein darüber...
 
Nur mal kurz am Rande noch : die Radeon HD 3870 besitzt 320 Shader Einheiten, d.h. 320 speziallisierte CPUs. Klar können die nicht alles was eine normale CPU kann, sollen sie ja auch nicht.

Dagegen sind 8 Cores ja garnix. Da muss Intel aber mächtig aufholen... Da Ati, Nvidia im parallelen Rechnern ja Jahre vorraus sind...
 
Zurück
Oben