Bericht Bericht: Raytracing in Spielen 2.0

LazyGarfield schrieb:
:watt:
Genau! Und für einen Werbegag stellen die extra einen Entwickler ein, der Quake Raytraced programmiert hat! :freak: Deine Logik ist ja so pregnant und fundiert. :evillol:
Ahja stell dir vor, Intel beauftragt auch extra Leute, um Fernseh-Werbung zu produzieren. Was bestimmt ein vielfaches kostet, als ein paar Entwickler.
Im moment gibt es nunmal für den normalen Anwender kaum Spiele / Applikationen die wirklich mehrere Kerne sinnvoll nutzen / auslasten. Da kommt RT ja wie gerufen... Sicher es ist nicht nur reine Werbung, aber das ist für mich aktuell der einzige Sinn den Intel daraus zieht... Da wir noch weit von Realtime RT entfernt sind..

LazyGarfield schrieb:
Warum versuchst du eine gute Entwicklung schlecht zu machen? Ist doch logisch, dass es auch Nachteile gibt, sonst wäre RT ja schon lange verbreitete Realität in jedem PC ;).

Ich versuche nicht die Entwicklug schlecht zu machen, sondern hervorzuheben, dass der Artikel auch nur die halbe Wahrheit sagt. Wir du eben auch erwähnst, gäbe es das ja sonst schon... und RT gibts schon ne Ewigkeit...

LazyGarfield schrieb:
Rasterisierung wird wohl den grossen Anteil bei aktueller Berechnung ausmachen, sonst würde es keinen Sinn machen darauf einzugehen. Stand da nicht, dass aktuelle GPU´s es so berechnen?

Ich meinte ja auch, dass der Vergleich den er anstellt nicht fair ist. Er vergleicht einen optimierten RT Algorithmus mit der Standard Rasterisierung. Obwohl es auch für Rasterisierungs-optimierungen gibt..

LazyGarfield schrieb:
Wenn aktuelle Spiele darauf beruhen (so hab ich das zumindest verstanden), dann macht es auch Sinn, aufzuzeigen, dass RT da mal Stärken hat. Und diese scheinen gewaltig zu sein.

Naja der Artikel pflückt nur die Rosinen aus den Kuchen...
 
Schöner anschaulicher Artikel, allerdings auch ziemlich einseitig "pro Raytracing":

Ein wesentliches Performance-Problem wurde bisher noch nicht angesprochen: Das effiziente Update der Beschleunigerstruktur(kd-tree o.ä).

Um mal das Beispiel mit der Boing zu bemühen: Wie schnell würde die Szene mit 350Mill Dreiecken noch rendern, wenn alle Dreicke beweglich wären und jedes Frame neu in die Raumhierarchie einsortiert werden müssten?

Ist das nicht auch ein Trend, dass immer grössere Teile der Spielewelt physikalisch simuliert werden und immer weniger rein statische Geometrie in der Szene vorhanden ist?

Während die eigentliche Strahlverfolgung quasi perfekt mit der Core-Anzahl skaliert, ist das Einsortieren von Objekten in eine Raumhierarchie prinzipiell schwer auf mehrere Kerne zu verteilen.

Das könnte immer mehr zum Flaschenhals werden...
 
@Drager: FULL ACK

Wenn man die Veröffentlichungen des Herrn Pohl die letzten Jahre verfolgt hat, weiß man dass er immer erst mal heiße Luft erzeugt :). War mit Quake 3 RT net anders. Die erste Beta sah für RT-Verhältnisse einfach nur sch**** aus. Naja und dann durfte er auf dem IDF in 512x512 auf nem 8-Core Quake spielen :lol:. Fand ich einfach nur witzig, dass er sich von Intel benutzen ließ. Naja er wurde sicher gut dafür entschädigt...

RT ist wirklich alt. 1963! wurde damit das erste Bild erzeugt (siehe Wikipedia).
 
childinsilence schrieb:
RT ist wirklich alt. 1963! wurde damit das erste Bild erzeugt .


Ja und? Vektor/Polygongrafiken z.b. gibts auch schon seit Ewigkeiten, trotzdem konnte das erst Ende der 80er/Anfang der 90er halbwegs brauchbar auf nem normalen Computer umgesetzt werden!

Nur weils ne Technik gibt heissts ja nicht dass sie sofort einsetzbar ist! ;)
 
Klasse Artikel! Finde ich sehr interessant und gut geschrieben.

Die Beispiele haben es auch einem Laien in dem Themengebiet wie mir erklärt.


Jedoch wirft der Artikel bei mir einige Fragen auf:

1) Ist die Gesamtintention des Artikels, dass man in ein paar Jahren nur noch eine CPU braucht, die dann die Aufgaben der heutigen CPU und GPU übernehmen wird? Oder, dass GPUs immer mehr wie CPUs gebaut werden, mit mehreren Kernen also?

2) Heutige Grafikkarten sind afaik rechenkräftiger als Prozessoren. Gibt das dann einen "Wechsel" der Verwendungszwecke? Also CPU für Grafik, "Grafikkarte" für typische CPU-Aufgaben?


P.S.: @childinsilence: Ein bisschen Lesestoff zum Intel-Hexa-Core
 
Zuletzt bearbeitet:
Sowohl Intel (Larrabee), als auch ATI (Fire Stream) als auch NVdia (CUDA) arbeiten and Karten, die auch RayTracing beschleunigen können.
Allerdings nicht alleine für Raytracing und wenn dann meist nur sekundär für Spieler. Die meisten Ambitionen in der Richtung hat Intel.

Gruß, Matthias
 
Der Artikel ist extrem eingefärbt und alles andere als objektiv, pure Augenwischerei. Ich hoffe das seine wissentschaftlichen Arbeit nicht die gleiche Qualtität haben (hat er überhaupt schon einen Abnschluss?) wie dieser argumentativer Flickenteppich. Der Author sollt mal etwas Enerige verwenden sich mit aktuellen Rasterising Techniken auseinander zusetzen und nicht Bilder von 10 Jahre alten Spielen zeigen. Das er mit seinem fundierten Halbwissen eine Anstellung bei Intel gefunden hat ist wohl eher dem Umstand zu verdanken das Intel krampfhat versucht einen Markt für Multicore Prozis zu schaffen. Siehe Intels Simd verriss, gibt keine Anwendung die daraus einen echten Vorteil erziehlt. Wenn überhaupt dann bietet Hybrides Photontracing einen Vorteil in der Bildqualität, die Echtzeitfähigkeit wird wohl frühestzens in 50 Jahren erreicht werden.
Ratracing ist auch nur eine Aproximation für direktes Licht der Renderinggleichung was fehlt ist der Ambiente/ Diffuse Teil, im Gegensatz dazu bekommt man den beim Rasterising dank Shader so langsam in den Griff.
Aber unter den Blinden ist der Einäugige ja König.
 
Enkido schrieb:
Der Artikel ist extrem eingefärbt und alles andere als objektiv, pure Augenwischerei. Ich hoffe das seine wissentschaftlichen Arbeit nicht die gleiche Qualtität haben (hat er überhaupt schon einen Abnschluss?) wie dieser argumentativer Flickenteppich. Der Author sollt mal etwas Enerige verwenden sich mit aktuellen Rasterising Techniken auseinander zusetzen und nicht Bilder von 10 Jahre alten Spielen zeigen. Das er mit seinem fundierten Halbwissen eine Anstellung bei Intel gefunden hat ist wohl eher dem Umstand zu verdanken das Intel krampfhat versucht einen Markt für Multicore Prozis zu schaffen. Siehe Intels Simd verriss, gibt keine Anwendung die daraus einen echten Vorteil erziehlt. Wenn überhaupt dann bietet Hybrides Photontracing einen Vorteil in der Bildqualität, die Echtzeitfähigkeit wird wohl frühestzens in 50 Jahren erreicht werden.
Ratracing ist auch nur eine Aproximation für direktes Licht der Renderinggleichung was fehlt ist der Ambiente/ Diffuse Teil, im Gegensatz dazu bekommt man den beim Rasterising dank Shader so langsam in den Griff.
Aber unter den Blinden ist der Einäugige ja König.

So übertrieben würde ich es nicht darstellen, aber im Grunde stimme ich dir und auch childinsilence sowie drager zu.
Es wird etwas heiß gekocht... im Prinzip ist es noch viel zu früh, von einer Revolution etc. zu sprechen, dafür ist Rasterisierung einfach noch zu weit fortgeschritten.
Ich sage es mal so: Rasterisierung wird an Grenzen stoßen, auch wenn die GPUs immer noch performanter werden und irgendwann lohnt sich dann Raytracing. Aber bis dahin dauert es imho noch wesentlich länger als der Artikel es einem weiß machen will.
Und habt ihr euch Q3RT mal angeschaut? Sieht richtig besch***** aus und frisst Leistung ohne Ende... da ist Crysis n Witz dagegen von den Hardwareanforderungen (klar, kann man nicht vergleichen, eine CPU als Renderer für sowas ist nicht gerade effektiv, aber da es noch keine speziellen Renderer gibt...).

Das Thema ist interessant und es ist gut, dass jemand den Herstellern das auch zeigt, aber immer bedenken: Jeder kocht mit Wasser und manche zu heiß ;)
 
Ich hab schon als 12 jähriger geraytraced, und wer das selber schonmal gemacht hat kennt die vorzüge.
Das gute an der ganzen geschichte ist, dass man keine spezial-grafikkarten mehr brauchen wird, denn paralelismus wird die CPU in zukunft genug haben, und die technik wird sich auch flott durchsetzen sobald es erste hybrid-spiele gibt (da ists auch wurscht ob manche noch mit "normalen" grakas zocken wollen- das ist so wie der unterschied - openGL und direct3D - naja nicht ganz)
Die ganze ambient/diffuse effekte sind nur kleine zusätzliche schritte - schwierig wirds da eher bei Photon tracing - also das darstellen von exakten lichtbrechungen - bzw "sanftes" licht - das heisst dass auch wände licht reflektieren - aber halt nicht spiegeln - und dieses licht wiederum andere objekte beleuchtet.- Die algorithmen kann man leicht implementieren - allerdings ist der rechenaufwand hierzu etwas grösser.

mike;
 
Das Problem ist weniger, dass Rasterisierung "fortschreitet" (in meinen Augen ist das was gemacht wird Gebastel ohne Struktur), sondern die Abwärtskompatibilität. Ich habe feststellen müssen, dass bei den nVidia Grakas immer noch Grenzen für die Shader gesetzt werden (GeForce 8800 - 8192 Befehle Shadergröße). ATI ist davon seit HD weggekommen. Das schränkt ein und macht eine Umsetzung von RT auf Graka-Shader nahezu unmöglich. Daraus entsteht dann das Problem der Abwärtskompatibilität. Wenn ich ein Spiel einer breiten Masse anbieten will muss ich damit rechnen, dass Grakas von vor 3-4 Jahren auch unterstützt werden müssen...
 
ey alter...habt ihr alle informatik studiert? :freak:
 
jenau....siehe crysis!! da reicht auch noch eine 6800 oder was?! :freak:

Ich arbeite in einem Forschungsinstitut unter anderem auch für intel.
und die, die sich auch mit Prozessverfahren beschäftigen, wissen, dass INTEL bereits über Herstellungtechnologie jenseits der 45nm Struktur befindet.

über unsere forschungsergebisse wurde auch schon ein artikel veröffentlicht,
in dem wir 35nm!!!- Prozesstechnologie hergestellt haben.
Patent haben wir schon seit mehreren jahren in dem bereich.

und diese 35nm werden überall ihr dasein finden... egal ob nun in CPU's oder GPU's.

aba sich jetzt schon gedanken darüber machen ob sich spiele so rendern lassen und ob man 1000000 KERNE in der CPU hat ist echt zu früh.

Realistisch ist 2012-2015 da die technologie zur zeit nur in der wissenschaftlichen Forschung
genutzt wird

ansonsten finde ich den artikel informativ, thx
 
Ich finde die Idee der physikalisch korrekten Berechnung von Lichtstahlen und ihrer Reflexion eigentlich super... nur denke ich, dass Raytracing frühstens in 10 Jahren oder noch später im Spielesektor eine entscheidene Rolle spielen wird, da einfach zu hardwareintensiv.... wenn man sich anschaut mit welchen Grafikdetails die Szenen in Quake 4 gerendert wurden wirft das imo schon einen anderen Schatten auf die Sache... auf High Details oder Ultra oder wie die höchste Einstellungsstufe in Quake 4 auch immer heißt, wäre das in dieser Auflösung definitiv nicht möglich gewesen! ^^

Manchmal frage ich mich aber ganz ehrlich wie weit man Grafik verbessern kann... muss es nicht irgendwann so komplex und difizil sein, das bereits dagewesene noch zu übertreffen?
Ist nicht irgendwo Schlusss? Ich denke z.B. an der physikalischen Korrektheit liegt ein Ansatz auf jeden Fall richtig... wenn man sich z.B. die Leichenphysik von Topshootern wie Crysis und Konsorten anschaut dann kann es schon passieren, dass da erhebliche Fehler passieren... Das wiederum führt (zumindest bei mir) zu teilweise vermindertem Spielspaß auch wenn es ab und zu auch lustig sein kann einen Gegner durch die Luft wirbeln zu sehen wenn man ihn nur mit einer Pistole erschossen hat :D.
 
Hallo erstmal :)

Ich muss hier mal zwei Dinge direkt klarstellen:

1. Finde ich es total super, dass CB diese Artikel veröffentlicht und uns alle ein bisschen schlauer macht! Weiter so!

2. Respekt dem Autor! Wer von Intel angefragt wird und einen Job erhält, kann sich wirklich glücklich schätzen etwas ganz Besonderes geschafft zu haben. Und dass dieser Artikel super interessant und einfach zu verstehen ist, verdient ebenso meinen Respekt, denn man wird viel zu oft mit Fachchinesisch vollgemüllt.

Vielen Dank!
 
Wenn du photorealistisch rendern willst, sind die einzigen Grenze dein content (deine Modelle, Texturen und Animationen) sowie deine verfügbare Rechenleistung. Mit genug Rechenleistung kannst du einfach Brute Force mäßig alle erdenklichen Wege des Lichtes absuchen. Mit mehreren Billionen Strahlen pro Bild hast du dann Global Illumination, Kaustiken, alles was es sonst noch gibt.
Ein Problem ist nur noch dass je detailierter etwas sein soll, desto mehr Arbeit muss der Ersteller hineinstecken. Je mehr Arbeit, desto teuerer und zeitaufwändiger ist die Produktion. Daher wird man irgendwann zwangsläufig computergeneriertes content brauchen.
 
Super Artikel! Und für mich - der gerade 3D-Computergrafik im Semester hatte - auch sehr interessant zu lesen. :)
 
HG_Horny schrieb:
jenau....siehe crysis!! da reicht auch noch eine 6800 oder was?! :freak:

Ich arbeite in einem Forschungsinstitut unter anderem auch für intel.
und die, die sich auch mit Prozessverfahren beschäftigen, wissen, dass INTEL bereits über Herstellungtechnologie jenseits der 45nm Struktur befindet.

über unsere forschungsergebisse wurde auch schon ein artikel veröffentlicht,
in dem wir 35nm!!!- Prozesstechnologie hergestellt haben.
Patent haben wir schon seit mehreren jahren in dem bereich.

und diese 35nm werden überall ihr dasein finden... egal ob nun in CPU's oder GPU's.

aba sich jetzt schon gedanken darüber machen ob sich spiele so rendern lassen und ob man 1000000 KERNE in der CPU hat ist echt zu früh.

Realistisch ist 2012-2015 da die technologie zur zeit nur in der wissenschaftlichen Forschung
genutzt wird

ansonsten finde ich den artikel informativ, thx

und warum dauert das noch "so lange"? soll kein vorwurf sein, nur versteh ich nich warum man dann die breite produktion zurück hält, wenn es schon patentiert, getestet und erfolgreich eingesetzt wird? sind die angepeilten taktraten noch nich erreicht? kostets zuviel? hat das marketingtechnische gründe, sprich, das man irgendwann damit aus der ecke springt und alle an die wand spielen will? *vor neugier platz* :freaky:
 
:)

glaub mir, die technologie ist schon viel weiter als alle denken.

wir forschen genau in dem bereich -> taktraten <-
wir haben uns damals immer mit infineon bei den takt-patenten abgewechselt,
aba seit 4 oder 5 jahren haben wir jedes jahr 2-3 patente sichern lassen.

und nochwas zu den TAKTRATEN (BICMOS) -wir sind schon seit 2 jahren über der 1GHz-"Grenze".und es läuft alles mehr als stabil wir waren auch über die Temperaturentwicklung überascht (niedriger als erwatet).
warum das aba nicht beim normalbürger ankommt bzw nicht bereitgestellt wird,
kann ich auch nix dazu sagen, hab eigentlich schon viel zu viel gesagt:rolleyes:

kann nur noch eins sagen, dass nicht nur die PC-Branche davon profitiert, wenn wir wieder ein paar MHz schneller sind als die anderen^^

ich hoff, ich bin jetzt nicht arbeitslos^^
 
ich drück dir die daumen ;) (kannst ja im nachhinein löschen :D)

aber mal interessant zu hören. ^^
 
Zurück
Oben