• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Intels Raytracing-Projekt: Der Stand der Dinge

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.596
Auch wenn in aktuellen Spielmethoden der klassische Rasterizer genutzt wird, um einzelne Pixel darzustellen, ist das Raytracing-Verfahren aufgrund steigender Hardwareleistung immer mehr auf dem Vormarsch. Vor allem Intel gilt diesbezüglich mit dem eigenen Raytracing-Projekt als Vorreiter.

Zur News: Intels Raytracing-Projekt: Der Stand der Dinge
 
ich bin ja mal gespannt wie viel zeit die entwicklung dann noch in anspruch nimmt. es sieht schon sehr realistisch und beeindruckend aus, doch wäre es auch mal interessant ein paar Hardware daten zu wissen, wo sich intel ja immernoch sehr bedeckt hält.. ich denke aber doch das Raytracing in naher zukunft schon gute erfolge bringen wird wenn man die Hardware-entwicklung derzeit bedenkt!
mfg
 
Irre!
Bin echt gespannt, wann unsereins das mal in echt und selber benutzen kann.
Bin immer wieder erstaunt über die Optik.
Wobei ich grad feststellen musste, das Laien da so gut wie nix daraus erkennen können^^
 
Kommt nur mir das so vor oder spiegelt das bei Raytracing immer so übertrieben stark? (Auch bei den Q3 Screenshots war mir das schon etwas zu viel.
 
Ich verstehe diesen Quatsch überhaupt nicht. Im vergleich zu z.B. Cry Engine ist das nicht weit. Wen man bedengt welche Hardware RT Engine benötigt und diese dan in z.b. Cry Engine verwenden würde. Auch hier unnötig und Sinnlos
 
Zuletzt bearbeitet:
Klingt schon mal sehr spannend, bin auch gespannt ob sie das Partikelproblem auch noch hin bekommen.
 
Doeni schrieb:
Kommt nur mir das so vor oder spiegelt das bei Raytracing immer so übertrieben stark? (Auch bei den Q3 Screenshots war mir das schon etwas zu viel.
Das ist mit Absicht so gemacht, um die Leistungsfähigkeit und Einsatzmöglichkeiten zu zeigen.

Das macht man bei quasi jeder Vorstellung einer neuen Engine, wodurch die Bilder dann oftmal sehr, sehr bunt, überladen und unecht wirken.


@IntelCyphe
Die Rasterisierung kommt allmählich an ihre Grenzen. Im Grunde hat man die letzten Jahre nur Dinge hinzugepatched, um die Nachteile zu übertünchen. Allein schon die Erfindung der Shader-Effekte spricht Bände. Ein Großteil dieser Effekte werden Raytracing mal eben nebenbei erzeugt.
 
Zuletzt bearbeitet:
@China

dann klär mich mal bitte auf wo da der Unterschied ist :) Ausser, dass sie nachwievor Probleme mit AA und Partikeleffekten haben, sehe ich da fast nichts was man mit Heutigen Engines nicht selbst basteln könnte.
Obwohl die Lichteffekte bei Raytracing sehr schön rüberkommen, nur das alleine macht das Spiel nicht fett :)
 
@BEnBArka

Laut dem Bericht zu Q3 mit Raytracing kann man einfach ma die Anzahl der Polygone um den Faktor 10 erhöhen ohne einen Leistungseinbruch zu verzeichnen --> wesentlich mehr Details. Um nur ein Beispiel aufzuführen.
 
Intel brauch Raytracing weil das die einzigste Anwendung ist, bei denen ihr neuer toller Larrabee Vorteile gegenüber der Architektur aktueller GPUs von ATI und NV hat.

Bis jetzt ist das ganze weiterhin nur Spielerei. Grafisch anspruchsvolles habe ich mit raytracing noch nicht gesehen, jedenfalls nichts was in HD Auflösung mit ordentlich Frameraten spielbar wäre, ohne ein riesiges CPU cluster sein eigen zu nennen.
 
ja den hab ich auch gelesen, nur ist der für mich im moment nur reines Marketing Geblubber. Bis jetzt sind die Hardwareanforderung nicht wirklich bekannt um zu sagen, dass es so ist. Ich weiß es liegt alles noch in den Kinderschuhe, aber bis das mal "vernüftig" skaliert und brauchbar ist vergehen schon noch ein paar Jahre. Und bis dahin werden wir dann sehn was Stand der Dinge ist.
 
Auf was für einem System lief denn die Demo? Neben der eigentlichen Machbarkeit ist auch der enorme Hardwarehunger ein Problem. Der Artikel ist zwar schon älter, wenn man bedenkt das man mit einem damals rasend schnellen Quadcore gerade einmal 17 FPS bei 256x256 Pixel geschafft hat...Ich bin gespannt was Intel mit Larabee aus dem Hut zaubert.
 
Das ist wirklich völliger Quatsch. Auch bei Raytracing gibt es viele qualitätssteigernde Abstufungen, zum Beispiel wie oft die Rays abprallen (Radiosity) oder welche Biegungs und Brechungseffekte man zulässt, noch dazu in welcher Qualität das alles (Render-Präzision). Irgendwelche fps Angaben sind also mit extremer Vorsicht zu genießen, Raytracing ist nicht gleich Raytracing, da gibt es enorme Unterschiede, wie "scharf" man die Engine vor Inbetriebnahme eingestellt hat.

Nicht umsonst arbeiten alle anderen mit Rasterizing und Shadereffekten, was im Endeffekt nur eine sinnvolle Vereinfachung der Natur darstellt, um die komplexe Realität viel effektiver abzubilden.
 
Im Moment kommt mir das noch wie ein Rückschritt vor. Ein ziemlich verkrampfter noch dazu. Raytracing is schon ne geile Sache, aber was ist mit den Entwicklungen der ganzen Jahre bei den Rasterizern? Also bei den aktuellen "Heavy Rain"-Bildern musste ich schon drei Mal hinsehen, ob das nun reeller Film, gerenderte Sequenz oder Ingame ist. Es war letzteres. Und auch diese Entwicklung bleibt ja nicht stehen und ist noch dazu seit Jahren spielbar. Was ist denn gegen das "Hinbiegen" der Optik Richtung Realität bei den Rasterizern auszusezten? Auf das Ergebnis kommt es doch an.

Unterm Strich wird wohl die vergleichsweise schlechte Energieeffizenz dem Raytracing das Genick brechen. Prognostiziere ich einfach mal ganz naiv.
 
Zuletzt bearbeitet: (do hobbi mi verschriem)
Bis vor kurzem hatte ich auch noch nicht so die ahnung, wie raytracing eigentlich funkitioniert, aber es ist um einiges komplizierter als eine normale grafikenginge. habe es vor kurzem mal erklärt bekommen und es ist einfach eine super menge an daten, die dort verarbeitet werden muss.

man kann mit raytracing im grunde auch heute schon wirklich fotorealistische bilder oder videoszenen entwickeln, allerdings wird man da noch jahrzente brauchen um das in echtzeit darstellen zu können! dieses rendering ist einfach nicht für echtzeitszenen gedacht, weil man dafür die möglichkeiten zu weit runterstellen muss, damit es flüssig läuft und somit nicht mehr gut aussieht.

wenn mir jetzt einer sagt, dass das bild nicht realistisch aussieht, dann weis ich auch nicht mehr.

http://11k2.files.wordpress.com/2009/03/090309raytracing.jpg

sowas wird man aber nie im leben in echtzeit rendern können. selbst für so ein einziges bild braucht man mitunter mehrere minuten. aa und solche geschichten verlängern das gnaze nochmal ungemein, weil jeder prixel mehrfach gerendert werden muss um das verhalten auf den nebenpixel bestimmen zu können.

hier nochmal nen beispiel: http://www.mildlydiverting.com/interactivewriting/images/cgi_face.jpg von wegen die cryengine ist da besser ^^
 
Zuletzt bearbeitet:
Ich stimme ich dir voll zu, nur sieht man mmn, an den Bildern, dass eben Raytracing mit der dort gewählten Einstellung mit aktuellen Titeln vergleichbar ist. Wenn man dann noch schätz was für ne Hardwareanforderung das hat um es Spielbar zu machen ist Raytracing für mich erst in ettlichen Jahren eine Konkurzenz für die Rasterizierung.
 
Naiv, ja ^^

Ab einer gewissen Komplexität der Szenerie ist Raytracing im Vorteil. Wenn man jetzt schaut, wie komplex die Spielgrafik heute schon ist, die dazu auf dedizierte Hardware (Grafikkarte) läuft, kann man sagen, dass Raytracing bald ein ernst zu nehmender Konkurrent für die Rasterisierung darstellen wird.

Man stelle sich, wo wir heute mit dedizierter Raytracing-Hardware wären, hat man dieser Technik vor x Jahren den Vorzug gegeben. Wir würden alle Rasterisierung als eine Ansammlung von unrealistischen Algorithmen ansehen ;)
 
hm, so wie ich das verstehe, je mehr halt berechnet werden muss beim rasterizing, desto mehr verlust in der leistung und alles hängt im speicher, und diesen effekt hat man wohl beim raytracing nicht und was ich auch noch aufgeschnappt hab, bei der technik gibts dann kein texturclipping oder sowas.
 
Zurück
Oben