Bericht Bericht: Raytracing in Spielen 2.0

@childinsilence:
Also nur f(n) = O(k * log n) ? Wobei f(n) = O((log n)^k) ebenfalls gar nicht mal so schlimm wäre wie mir gerade auffällt. Das wächst glaube ich bei hinreichendem n immer noch nicht so schnell wie O(n).
 
das Thema hat mich schon immer fasziniert - vor einigen Jahren war Raytracing ja auch sehr beliebt
in der DemoSzene und es gibt da einge hervorragende Gruppen und Coder die etliche fantastische
Demos gemacht haben zB Farbrausch etc
für Interessierte habe mal einige links zu demos und wissenswertes zusammengetragen

>http://4players.de/4sceners.php/index/-/index.html
>http://www.codinghorror.com/blog/archives/001073.html
>http://sio2.g0dsoft.com/modules/wmpdownloads/singlefile.php?cid=1&lid=24
>http://www.realstorm.com/
>http://tog.acm.org/resources/RTNews/demos/overview.htm
>http://www.openrt.de/
>http://www.sci.utah.edu/stories/2002/sum_star-ray.html
>http://zach.in.tu-clausthal.de/teaching/cg2_07/
>http://www.irtc.org/

unser Meister in Action >http://www.heise.de/newsticker/meldung/94619
und die FreeWare >POV-Ray-HP >http://www.povray.org/
 
@Chili:
Jup. Aber die Auflösungen wachsen Quadratisch, also k², weil Höhe und Breite sich verändern. Sowie die Tiefe der Reflexionen geht linear ein. Ach ja und das O(log n) bekommt man auch nur, wenn man statische Szenen rendert, da man alles in den zu statischen trees speichern muss, um ein echtes log n zu erhalten. Mit bounding spheres kann man im Durchschnitt und bei guter Programmierung ein log n nachweisen. Deshalb erscheint mir das geschriebene ja so volksverdummend, weil manche Dinge einfach unterschlagen werden.

Was auch unterschlagen wird, dass für Raytracing der konstante Faktor den das sog. Landau-Symbol O() impliziert wesentlich größer ist, als der Faktor der Rasterisierung, weshalb der Schnittpunkt aus dem Artikel erst bei sehr vielen Objekten ist. Deshalb lohnt sich Raytracing erst bei komplexen Szenen. Deshalb sind jetzt auch alle so begeistert um später zu erfahren, dass man dafür auch ordentlich Rechenleistung braucht. Seine Forschungsarbeiten sind OK, aber er vermarktet sich an der Grenze zur Fälschung.

Quake3 RT auf nem QuadCore 7-8 fps bei 640x480 tzz. Nicht gesagt wurde, dass diese Version genauso aussah wie die rasterisierte. Und das wirklich nur die Grundfunktionalität implementiert wurden. Oder würdest du glauben, dass das folgende Bild im Fenster oben links geraytraced ist? Das war vor einem Jahr mal ein Experiment von mir. Wie unten angezeigt mit 52 fps bei 640x480 auf ner ATI x1300. Gerendert wurden 2 Objekte. Nur deshalb so viele fps, weil das die Graka rendert. Die CPU wäre damit völlig überfordert.

rt.gif
 
Zuletzt bearbeitet:
also ganz so skeptisch sehe ich die sache nicht. die angaben von intel sind sicher auch als werbung für das eigne unternehmen zu verstehen, da wir diese firma aber alle gut kennen :D lässt sich mit einiger sicherheit vorhersagen, dass sie in der lage sind (vom entwicklerpotential und vor allem vom marketing) einer neuen entwicklung den boden zu bereiten. wenn sie es schaffen ein bahnbrechendes spiel auf ihrer dann neuentwickelden hardware zu promoten dann werden meiner meinung nach viele folgen. ich persönlich würde da auch begeistert sein, ein -vielleicht nicht perfekt passendes - beispiel ist die damals innovative voxel-engine in outcast, die ganz neue sehgewohnheiten bescherte und lust auf mehr machte (wenngleich diese damals großartig gescheitert ist ;) ) . also bitte innovationen; her damit ! :evillol:
 
Hallo Herr Pohl.

Zuerst einmal herzlichen Glueckwunsch das Sie es geschaft haben so einen Absprung hinzubekommen. Ich hoffe Sie bleiben dem Thema treu, und sind derjenige, der kommerziellem Raytracing zum durchbruch verhilft!

Da mich die Thematik Grafik und Spieleprogrammierung ebenfalls brennend interessiert, und ich zu Lern und Experimentierzwecken Raytracing ebenfalls testen moechte, wollte ich mal fragen ob und wenn ja, wann Sie ihre q3rt, bzw. q4rt Entwicklungen der Oeffentlichkeit zur Verfuegung stellen?

Sollte dies nicht der Fall sein, wuerde mich interessieren warum dies nicht moeglich ist.
 
Das passt ja mit den bemühungen von Intel bezüglich Multi GPUs gut zusammen. Und die sollen 2009,2010 kommen. Ich Tippe dann doch gleich mit einer Raytracing Demo als anschauungsmaterial. Mann wird sehen.

Schöner artikikel, anschaulich erklärt. Das nur ein Teil der Wahrheit gesagt ist wohl auch der anschaulichen erklärung und des Arbeitgebers geschuldet. Wertet Ihn für mich jetzt aber nicht unbedingt ab. Schön sowas auf CB zu lesen.
 
Ich freue mich, dass wir wieder von RT "hören" und hoffe, dass wir bald Hardware und Spiele dazu kaufen können.

Der Bericht war erstaunlich verständlich zu lesen für einen Programmier-Laien wie mich :D.

pampelmuse schrieb:
Mal sehen, ob mit der Larrabee da etwas passiert.
Und hoffentlich kommen schnell CPUs mit mehr Kernen, denn das ist wirklich der einzige Weg zum allgemeinen Raytracing.
Wieso denken alle an CPU´s? Ich würde eher von einer RT-GPU ausgehen. Schliesslich hat Intel ja schon CPU´s mit (ich glaub es waren) 80 Kernen vorgestellt, die leicht als RT-GPU herhalten könnten.
Shader schrieb:
Bei Spiele dagegen wird es noch lang dauern.
Sehe ich anders. Es gibt jetzt schon einige, die mit OpenRT Spiele programmieren und die Engines weiterentwickeln.
Siehe: http://graphics.cs.uni-sb.de/RTGames/

Shader schrieb:
Immerhin gibt es hier einige Fragezeichen, wie wird sich DirectX diesbezueglich verhalten?
Es braucht sich garnicht zu verhalten. Wie bei OpenGL auch, werden Raytracing-Spiele einfach auf OpenRT basieren oder auf einer anderen RT-Grafikschnittstelle. Du kannst ja schliesslich OpenGL auch trotz DirectX spielen ;)

Shader schrieb:
Es ist ja bei diesem Artikel herauszuhoeren das momentan Raytracing auf OpenGL basiert,
Also ich les das nirgens... es wurden nur Vergleiche angestellt.

Shader schrieb:
Dann ist ja noch die Sache wie NVIDIA und ATI sich dazu verhalten.
Diese Frage wird kaum aufkommen. Wenn sich RT für Spiele durchsetzt, dann werden sie RT-GPU´s entwickeln oder untergehn.

wHiTeCaP schrieb:
Ich stelle mir da allerdings die Frage:
Warum sollten nVidia und gerade AMD/ATi diese Entwicklung auch wollen?
Wir sind ja nicht bei "will..., ähm... wünsch dir was". Wichtig ist was die Softwareindustrie unterstützt und der Konsument akzeptiert und kauft nicht was ein GPU-Produzent möchte.

Ev. würden sie sich anfangs wehren und versuchen Spieleschmieden zu "unterstützen" damit sie weiterhin ihre GPU´s verkaufen können, aber der Entwicklung können sie sich irgendwann nicht verschliessen. Ich bin sicher, die arbeiten auch an RT-Lösungen. Da es scheinbar viele Vorteile hat, wäre das die einzig logische Schlussfolgerung.

wHiTeCaP schrieb:
Hört sich hier ja alles danach an, dass die gesamte Berechnung von Grafik dann durch die CPU getätigt wird.
Das ist imho nur deshalb der Fall, weil es billiger ist mit bestehender Technik zu arbeiten, anstatt RT-GPU´s zu entwickeln und eine zum Testen zu produzieren.

wHiTeCaP schrieb:
Oder sind hier vielleicht "Grafikkarten" gemeint, die solche Raytracing-Berechnungen gesondert bearbeiten und dann eine CPU, die normale Berechnungen, wie KI etc. macht?
Das ist wohl eher die Richtung, die da eingeschlagen werden wird. Wenn nicht, dann gibts bald ein Intel-Monopol, das will irgendwie auch keiner :)

Drager schrieb:
Also ich glaub auch das sich Raytracing in Spielen erstmal nicht durchsetzen wird.
Ich bin sicher, dass du falsch liegst. Siehe Link oben bzw. bemühe mal eine Suchmaschine deiner Wahl und suche nach raytracing+gaming oder raytracing+spiele.

Drager schrieb:
Für mich ist das eher so, dass Intel versucht, eine "sinnvolle" Applikation zu finden, die ihre Multicore wirklich nutzt. Also nicht viel mehr als ein Werbegag.
:watt:
Genau! Und für einen Werbegag stellen die extra einen Entwickler ein, der Quake Raytraced programmiert hat! :freak: Deine Logik ist ja so pregnant und fundiert. :evillol:

Im WWW findest du verschiedene Entwickler, die sich mit RT für Spiele beschäftigen. Intel ist da nicht alleine und hat auch nicht damit begonnen ;)
Drager schrieb:
Ich finde der Artikel hebt jetzt nur die positiven Seiten von Raytracing hervor, ich glaube aber sehrwohl , dass es auch Effekte gibt in denen Raytracing benachteiligt ist.
Warum versuchst du eine gute Entwicklung schlecht zu machen? Ist doch logisch, dass es auch Nachteile gibt, sonst wäre RT ja schon lange verbreitete Realität in jedem PC ;).

Drager schrieb:
Auch vergleicht er eine Brute Force Methode (Rasterisierung) mit einer optimierten Methode.
Rasterisierung wird wohl den grossen Anteil bei aktueller Berechnung ausmachen, sonst würde es keinen Sinn machen darauf einzugehen. Stand da nicht, dass aktuelle GPU´s es so berechnen?

Drager schrieb:
Was Raytracing oft das Genick bricht, ist ja nicht die Anzahl der Vertices sondern die Auflösung des Fensters. Da steigt der Rechenaufwand nämlich enorm.
Dafür gibts die Entwicklung, die Probleme einfach löst :rolleyes:

Drager schrieb:
Zudem wird hauptsächlich in Richtung Rasterisierung geforscht und die meisten Paper, beschäftigen sich nur mit der Optimiereung für Rasterisierung. Raytracing spielt hier eine untergeordnete Rolle, also für Spiele Entwickler, die oft Erkenntnisse aus Forschungen übernehmen eher uninteressant.
Wenn aktuelle Spiele darauf beruhen (so hab ich das zumindest verstanden), dann macht es auch Sinn, aufzuzeigen, dass RT da mal Stärken hat. Und diese scheinen gewaltig zu sein.
 
Ansich nen ganz netter Artikel, allerdings würde ich mich auch über eine Gegendarstellung über die Probleme von Raytracing(was nicht nur die benötigte leistung ist) interessieren.
Nur sollte so ein artikel nicht von Herr Pohl kommen,da es in dem fall klar wäre,dass er die Probleme beschöningen würde.
 
Hier ein paar noch nicht im Thread angsprochene Probleme.

1. Antialiasing. Um die Kanten zu glätten sind bisher nur Bastellösungen oder die Erhöhung der Strahlen pro Pixel möglich. Eine praktikable Lösung lässt weiter auf sich warten.

2. Texturfilterungen. Soweit ich das in Erinnerung hab bis vor einem Jahr ebenfalls Forschungsgebiet.

3. Auflösungen. Es ist nicht wie LazyGarfield behauptet eine Frage der Entwicklung (es sei denn er meint Hardwareseitige Lösungen). Jedes Pixel muss einzeln aufgelöst werden, was dann linear zur Anzahl der Pixel den Rechenaufwand steigen lässt.
 
Schön zu wissen das RT doch noch im Kommen ist, hoffe 2010 gibts endlich mal was für Consumer. Und da MultiCore ja eh immer mehr kommt und nächstes Jahr Hexacore da ist, sollte RT ja nicht so ein großes Problem darstellen.
 
Sehr interressanter Artikel *thumbs up*
Hoffentlich gibt es davon in Zukunft noch mehr :)

Eine Frage aber hätte ich noch, wie reagieren ATI und Nvidia auf diese Entwicklung?
Ich denke die werden was dagegen haben^^
 
Nennt mich Haarspalter, aber war Hexa nicht die Vorsilbe für 6? Wer überlegt denn bitte 6-Core-CPU's zu bauen.
 
whynot? schrieb:
Sehr interressanter Artikel *thumbs up*
Hoffentlich gibt es davon in Zukunft noch mehr :)

Eine Frage aber hätte ich noch, wie reagieren ATI und Nvidia auf diese Entwicklung?
Ich denke die werden was dagegen haben^^


Tja, anpassen oder untergehen.

Ich denke Intel wird fuer die Zukunft schon ganz genau geplant haben, v.a. wenn man sich Larrabee ansieht.

Wenn ATI/Nvidia da nicht mitzieht gehen sie halt unter, mein Gott.
 
childinsilence schrieb:
Nennt mich Haarspalter, aber war Hexa nicht die Vorsilbe für 6? Wer überlegt denn bitte 6-Core-CPU's zu bauen.
Wer sagt denn, dass man die Core-Anzahl nur verdoppeln muss?

Was spricht bitte gegen 6 Kerne oder 10 oder 12 usw.?
 
Zurück
Oben