Crytek zeigt ja, dass man auch mit Rasterisierung sehr weit kommen kann.
Wenn man nun noch in der Lage ist, Raytracing mit bestehenden Engines zu kombinieren, dann kann man langsam umsteigen und die Vorteile beider Techniken ausnutzen. So wird es wohl auch am ehesten aussehen. Es wird wohl so schnell keine reinen Raytracing-Spiele geben, es sei denn Intel kauft ein Entwicklerstudio extra dafür ein. Und dann wird das Ergebnis weit hinter den aktuellen Spielen liegen, die maßgeblich auf Rasterisierung setzen.
naturtalent schrieb:
Und nein Raytracing ist bei Nvidia und AMD nur ueber umwege zu realisieren und ist imho kein richtiges Raytracing.
Was? Ein ziemlich seltsames Argument. Was heißt Umwege? Nur weil man anders programmieren muss, als für x86? Oder meinst du, weil Grafikkarten eigentlich nicht dafür gebaut wurden Raytracing-Berechnungen durchzuführen? Dennoch kann man sie eben dafür programmieren und dann machen sie das ziemlich schnell. Wenn das Ergebnis das gleiche ist und die zugrundeliegende Mathematik dieselbe, wieso ist es dann kein richtiges Raytracing?
Umgekehrt: Wenn Larabee Rasterisierung berechnet (da warte ich immer noch auf Präsentationen), ist das dann keine richtige Rasterisierung?
Das Problem an Larabee ist, dass Raytracing ziemlich schnell sehr komplex wird, wenn man mehrere Strahlen braucht, weil man zum Beispiel weiche Schatten haben will.
Ich will hier nicht falsch verstanden werden, ich finde es sehr, sehr gut, dass Intel in diese Richtung arbeitet, aber man sollte aufpassen, dass man das ganze nicht unkritisch in den Himmel lobt, wie das hier in mehreren Kommentaren zu lesen ist. Echtzeitraytracing für Spiele wird einfach noch einige zeit brauchen, bis es tauglich ist. Bis dahin wird Larabee hoffentlich aber ein großartiger Chip für "klassische"(nicht-Echtzeit) Raytracing-Beschleunigung und die Grafikkarten werden dank ComputeShadern und OpenCL auch taugliche Co-Prozessoren. Dann gibt es satte Rechenleistung und einen netten Konkurrenzkampf.