Bericht Bericht: Raytracing in Spielen

Seite 5: ganz oben:

"...Aber die Entwicklung der CPUs geht schnell voran. Verglicht man die verfügbare Rechenleistung für Q3RT im Jahre 2004...."

bitte berichtigen;) (wenn man das bei dem bericht darf, habe keine ahnung.)

Sonnst sehr schöner Bericht.
 
Zuletzt bearbeitet:
na, hat schon Potential, aber ausgereift ist was anderes. Interessant ist find ich die Tatsache, dass der Berechnungsaufwand nur logarythmisch steigt. Bei genug Speicher lässt sich bei jeder verdopplung der leistung von Grakas die Komplexität der Spielegrafik verzehnfachen.

Aber im Moment ist die Rasterisierungstechnik einfach schon so verbreitet und optimiert, dass es RT noch lange schwer haben wird, zumal sich die konventionelle Technik ja rasend schnell weiterentwickelt(siehe DX10). All diese Effekte auf RT zu portieren (wenn überhaupt effizient möglich) allein muss ja eine Ewigkeit dauern und brauch noch dazu ne Menge Entwickler, die es im Moment noch gar nicht gibt.
 
RT ist ausgereift. Diese Art, ein Bild zu erzeugen, ist älter als DirectX, da haben sich schon Generationen von Forschern daran beteiligt. Man kann allerdings an den Algorithmen nicht mehr viel optimieren. Die Hardware ist einfach zu schlapp.


Krass wäre es, wenn so ein Raytracing-Chip zukünftig auf jeder Grafikkarte wäre. Wenn ein 90 MHz Chip so viel Leistung in dem Bereich bringt wie ein P4, dann wäre so ein Chip mit GPU-Takt (400+ MHz) gerade zu wahnsinnig leistungsfähig.
Das Beste an der Sache ist der (relativ) geringe Anstieg des Berechnungsaufwandes bei steigender Polygonzahl.
Angenommen ein RT-Chip schafft 50 fps bei 1 Mio Polygonen. Dann schafft der sicher auch 40 fps bei 2 Mio Polygonen. Der Anstieg an Qualität und Detailreichtum bei der Grafik wäre aber immens!

Ich freu' mich drauf, wenn Raytracing in ~10 Jahren für den Heimnutzer interessant wird (man muss ja realistisch bleiben).
 
Wie sieht es aus mit einer Kombination aus Echtzeit-Raytracing und "traditioneller" Rasterisierung? Denke das ist ein vielversprechender Ansatz und der wahrscheinlichere Weg in naher Zukunft.
 
Um so ein spiel dann spielen zu können braucht man doch dann einen mega guten pc?? oder
 
echt ein guter bericht
ganz hab ich das noch nicht verstanden
muss ich mir wohl nochmal durchlesen

hoffentlch wird das weiter unterstützt
ich freu mich auf die ersten komlpetten spiele :-)
 
Das Bild aus den Herr der Ringe Filmen, welches auf der ersten Seite abgebildet ist , ist allerdings ungünstig gewählt, denn genau diese Szene ist mit Schauspielern und Masken gemacht, und nicht per 3D. Es gibt aber natürlich hunderte anderer Szene aus Herr der Ringe die Tatsächlich mit Raytracing gerendert sind.
 
@e-laurin
Mit "ausgereift" meinte ich nur RT als Echtzeit Rendering Methode, da gibt es anscheinend noch Probleme mit z.B.: sehr dynamischen Szenen, die erst noch effizient gelöst werden müssen, bevor das Verfahren für PC Spiele interessant wird. Und genau deshalb forschen/entwickeln eben noch vergleichsweise wenige an RT Engines für spiele
 
Wenn der Programmieraufwand wirklich so viel geringer ist, dann dürfte die Entwicklungszeit von Engines ins Spielen doch drastich abnehmen, oder?

Bräuchte man denn dann auch demennsprechend weniger Programmierer?
 
das glaube ich nicht!
man muss ja anstatt einfach eine textur zu machen sehr viel modellieren. und wenn das kein aufwand ist, fresse ich einen besen!
 
Wichtig ist, dass die Firmen an sowas drannbleiben, wie sieht das denn aus? Er sucht ja noch nach Firmen, die sich dafür interessieren könnten.

Also ist das Problem nicht in der Technik, sondern mit der Bereitschaft der Firmen auf diese möglichkeit umzusteigen. Da müssen noch viele Verträge abgeschlossen werden.
Denn wenn der Wille seitens der Hw-Hersteller und der Programmierer da ist, sollte das kein Problem mehr sein es in kürze auf dem Markt zu sehen.

Das ist wirklich Zukunftsmusik, die schon sehr bald Realität werden könnte, leider kann sie genauso schnell von der Bildfläche verschwinden..

Cu

HosenStahl
 
Ist sicher ein interessanter Ausblick, allerdings bezweifel ich stark dass wir das in den nächsten 10 Jahren erleben werden. Okay, ich hab zwar hier noch kein Quad-Core, aber eine fertige Szene zu berechnen dauert (bei Auflösungen ab 1280x1024) bei mir mit Cinema allerdings noch einige Minuten/Stunden pro Frame, bei Animationen gern mal ein paar Tage... Aber das sollte man nach Möglichkeit auch nicht auf nem PC machen ;) Dafür gibt es Renderfarmen. Aber es ist klar worauf ich hinaus will? Auf 30 Frames pro Sekunde kommt man auch mit Quad- oder Octa-Core nicht...

Das ist auch mal ein gutes Beispiel für die Leute die sich wundern "wozu es Quad-Cores gibt, wenn kein SPIEL das unterstützt"... Selbst die Jungs von Pixar brauchen mit ihrer wohl kaum zu toppenden Ausstattung teilweise bis zu 90 Stunden für einen Frame. Guter Bericht, aber so schnell wird das nichts. Die meisten hier werden dann vielleicht ganz andere Hobbies haben.

@ Hosenstahl: Nochmal zum besseren Verständnis: Es ist keine Frage von Verträgen oder irgendwelcher Vorhaben, es ist technisch einfach nicht möglich zurzeit, auch nicht "sehr bald". Oder glaubt hier ernsthaft jemand daran, dass die CGI-Spezialisten in der Filmindustrie das dann nicht schon längst gemacht hätten? Nee, die sitzen gern doof in der Gegend rum und gucken beim Rendering zu, kostet ja auch alles kein Geld :freak:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C3LLoX
Wie so schön gesagt wird: "Das Leben ist echt scheisse, aber die Grafik voll geil!" :p

Bisschen Spass am Rande =)
 
Ich seh die Sache auch etwas kritisch.

Warum braucht man für die Ausbuchtungen in der Wand 5k Polygone? Würde es nicht genauso ausschauen wenn man für die platte Front große Dreiecke nimmt?

Das Herr der Ringe Bild, das gezeigt wurde sind Schauspieler, allenfalls wurde im PC nachbearbeitet. Das Bild ist etwas unglücklich gewählt.

Am wichtigsten, die fehlende Hardwareunterstützung. Die Unreal Engine 3.5 http://wiki.beyondunreal.com/wiki?a...l_Engine_Versions/3.5&oldid=Unreal_Engine_3.5 unterstützt zwar angeblich Global ray tracing illumination - aber wann wird das Hardware beschleunigt? Mit Directx 11 Hardware?
 
WOW... da kann ich ja meinen QX6700 endlich mal ausreizen bei 256x256px :)
Nee, war nur Spass, ich weiß schon wofür ich ihn habe.

grüsse
coolfire
 
Klasse bericht

Da schlägt das Zocker herz wider höher ^^

heist dass das man sogar keine grafikakarte mehr brauchen würde für die games da ja alles über den Prozessor berrechnet wird bzw. wenns mal eine Spezielle Hardware die das übernimmt
 
e-Laurin schrieb:
...wenn Raytracing in ~10 Jahren für den Heimnutzer interessant wird (man muss ja realistisch bleiben).


Naja hoffentlich dauert es keine 10 Jahre mehr:D

Mal schaun bis wann die Technik auf den Markt kommt . Freu mich schon tierisch darauf:evillol:
 
Find ich gut, dass es auch mal "solche" Berichte auf CB gibt. Informativ, verständlich und interessant, weiter so!
 
Zurück
Oben