Bericht Raytracing in Spielen V: Neues aus der Strahlenwelt

Foxel schrieb:
Programmierer sind in der regel auch keine 3D-Artists deshalb erwarte ich auch nicht das es aussehen muss wie Bf3.

Ich finde es gut das sie an diesen Projekt forschen und würde mich auch auf ein 6.0 Artikel freuen, immerhin haben sie schon einiges geleistet!

Das hat nichts damit zu tun. Sondern das es Grundlagenforschung ist. Es dauert vermutlich noch mindestens 5-10 Jahre bis man via Raytraced BF3 in Echtzeit darstellen kann. Und auch dann bräuchte man 4 dieser Intel Hardcorekarten dafür, oder mehr Karten, um FullHD und 30-60 FPS darstellen zu können. Bis dahnin haben wir aber schon Fotorelistische Grafik, vielleicht mit "Tricks" aber wen interressiert der "Betrug" wen er ihn nicht erkennt?

ZB
http://de.wikipedia.org/wiki/REYES_(Computergrafik)
 
@chris233: Das geschieht sogar schon, z.B. beim Environment Mapping
@Sukrim: Globale Beleuchtung erfordert sehr viel mehr Rechenleistung als einfaches Raytracing, weit mehr als aktuell zur Verfügung steht
 
Das ganze wird interessant wenn die restliche Infrastruktur vorhanden ist. D. h. Internetleitungen mit sehr niedrigem Ping.

Dann kann sich jeder eine Atom Mühle inkl. SSD daheim hinstellen und Battlefield 5 in max. Details genießen.

Was bringen mir die Bilder im Rechenzentrum? Daheim stelle ich mir keine Kiste zum Berechnen auf :D
 
Wenn ich bedenke dass mein 25Mhz PC 2 Minuten gebraucht hat um ein in Povray programmiertes Bild darzustellen, und heute wird 1080p gesprochen mit 60fps. Wahnsinn.

Die Technik wird kommen. Soviel steht fest. Fragt sich nur wann. Es muss halt für die Masse bezahlbar werden, solange dauerts also noch.

Wie Carmack schon sagte ist die derzeitige Technik langsam am Ende, große Weiterentwicklungen wirds da nicht mehr geben.

Carmack beschäftigt sich seit Quake 3 Arena ebenfalls mit Raytracing, diese Spiegel in Q3 mit denen man in andere Abschnitte des Levels gucken konnte, ohne spürbare Framerate Einbrüche, das war ebenfalls Raytracing. Mit Rasterisierung wär das nicht möglich gewesen, weil dazu ja der 2. Raum hätte komplett berechnet werden müssen, also ohne Framerate Einbrüche unmöglich.
 
Ich meine, der Artikel ist ein Spiegel seiner Vorgänger. Das Engagement des Autors mag ich loben, das der "Forscher" stelle ich in Frage.

Raytracing ist defacto für den Consumer-Markt eine Sackgasse. Das was hier betrieben wir ist reine Grundlagenforschung und so weit fern jeglicher nutzbaren Realität, dass CB solche Artikel nur mal alle 5 Jahre zu veröffentlichen braucht und selbst dann kommen nur spärliche Neuigkeiten ans Licht.
 
Hi,

@easy.2ci

Bist du dir mit deiner Aussage zu Quake 3 Arena sicher? Daniel Pohl hat in seinen älteren Erklärungen oftmals genau das Beispiel benutzt um zu zeigen, dass Raytracing das eben effektiver kann als die idTech3 Engine, siehe z.B. hier.

Zitat:
Voilà, mit nur drei Zeilen Code hat man sein Kameraportal. Nachfolgend angewendet in Quake 3: Raytraced

Vom normalen Quake 3 lese ich da nichts. Hast du irgendeine Quelle, die das bestätigen kann, was du sagst? Also dass damals schon Raytracing benutzt wird?

Ausserdem meine ich mich an Carmacks Aussage zu erinnern, dass er RayTracing nur mit speziellen Datenstrukturen wie Voxeln (in seinem Fall einem Sparse-Voxel-Octree) bei den neueren idTech-Engines benutzen will / wird, da es seiner Meinung nach nur dadurch überhaupt in nutzbare Regionen in Sachen Performanz kommt.

Quelle

I think that ray tracing in the classical sense, of analytically intersecting rays with conventionally defined geometry, whether they be triangle meshes or higher order primitives, I’m not really bullish on that taking over for primary rendering tasks which is essentially what Intel is pushing.

But, I do think that there is a very strong possibility as we move towards next generation technologies for a ray tracing architecture that uses a specific data structure; rather than just taking triangles like everybody uses and tracing rays against them and being really, really expensive.

VG,
Mad
 
Quantität schrieb:
Aber seis drum, langweilen wir die Generation BF nich tmit technischem Schnickschnack. Im Consumermarkt zählen nur optisch vergleichbare Ergebnisse, und da schneidet Wolfenstein:RT einfach nicht gut ab, und dem Herr Blödgeil ist es auch egal ob das Spiel in Echtzeit physikalisch korrekt berechnet wird - Hauptsache ist doch es gibt nen Granatwerfer!

Ich bin Generation Wolfenstein und mich langweilt es auch. ;)

In einem fiktiven Spiel, welches einen fiktiven Granatwerfer hat, brauche ich weder einen physikalisch korrekten Sonnenstand, noch einen physikalisch korrekten Granateinschlag.

Wenn ich die Realität sehen will, schaue ich aus dem Fenster.
 
Madman1209 schrieb:
Bist du dir mit deiner Aussage zu Quake 3 Arena sicher?

Ne du hast Recht. Ich hab das falsch in Erinnerung gehabt. Die Q3 Version war angepasst, nicht die Standard Version von Q3.

Danke für die Korrektur.
 
öhm.. respekt vor der arbeit. aber ist es das ziel von raytracing jetzt alte DX effekte nachzubilden? ich sehe in dem artikel nichts das mich optisch irgendwie überzeugen würde. soll raytracing eigtl nicht im besonderen realistische beleuchtung bereitstellen können?
 
Hi,

@stoneeh

Es geht hier gar nicht so sehr darum, den großen "Aha!"-Effekt durch bombastische Grafik und Effekte zu erzielen (was es auch wirklich nicht tut, da gebe ich dir 100% Recht) - es geht darum, Raytracing überhaupt in annehmbarer Qualität einigermaßen flüssig darstellen zu können. Wie schon öfter erwähnt, es geht hier um die Grundlagen, nicht um irgendwas Fertiges.

Ich teile auch die Meinung, dass ich es in einem Spiel gar nicht unbedingt brauche (habe z.B. gerade "The Darkness 2" gespielt, diese CellShading-Optik hat in vielen Fällen etwas ganz eigenes, wo ich auch gar nicht mehr Realität möchte, einfach weil es den künstlerischen Character unterstreicht.

Aber mal ehrlich: Keiner hätte doch was dagegen, wenn es in ein paar Jahren auch Spiele gibt die verblüffend realistisch aussehen oder? RayTracing ist dafür sicher ein gangbarer Weg, wenn die Leisungsfähigkeit der Hardware weiterhin so ansteigt. Rasterizing ist irgendwann nicht mehr so effektiv in der Skalierung wie RayTracing, und da die Architektur nunmal in Richtung "massive Parallelisierung" geht... wer weiß...

Ob dafür am Ende Intel mit seiner ManyCore-Architektur und Daniel Pohl verantwortlich ist sei einmal dahingestellt, aber schaden kann es doch nicht, können wir uns darauf einigen? ;)

VG,
Mad
 
Zuletzt bearbeitet:
F.b schrieb:
@Sukrim: Globale Beleuchtung erfordert sehr viel mehr Rechenleistung als einfaches Raytracing, weit mehr als aktuell zur Verfügung steht
Consumern auf jeden Fall, allerdings hat der Autor hier mal eben so Zugriff auf 8*50 Kerne, die in etwa einem Cluster aus ~400 Atom CPUs entsprechen...

Wenn man dann eben ein Rack mit Knights Ferry Karten vollstellen muss um GI live hinzubekommen, dann ist es eben so. Klar wird Daniel auch nicht endlos Ressourcen haben, aber in DER Richtung was weiterzubekommen dürfte weitaus mehr Interesse wecken als Postprocessingeffekte (das potenziell adaptive AA mit MeshIDs mal ausgenommen) auf Knights Ferry, einer Plattform die quasi jeder wollte, die Intel dann aber intern behalten hat und damit OpenCL ins Messer gelaufen ist.
 
Damit RT für den Consumer-Markt interessant wird, müssen alle für den Enduser gewohnten Effekte in irgendeiner Form da sein.
Die Leute kaufen eben lieber Grafik mit HDR, Bloom, AA usw. als etwas, dass das nicht bietet, dafür aber Global Illumination hat. Und darauf zielt die Forschung ja ab: Einen Raytracer schaffen, der gängige Grafik bietet.

Gerade Global Illumination ist ein extremer Hardwarefresser (benötigt ein Vielfaches der Leistung, die die anderen Effekte zusammen verbrauchen). Da wird es noch viele Jahre dauern, bis die Forscher etwas gefunden haben, wie man das einigermaßen flüssig hinbekommt.
 
Zuletzt bearbeitet:
e-Laurin schrieb:
Die Leute kaufen eben lieber Grafik mit HDR, Bloom, AA usw. als etwas, dass das nicht bietet, dafür aber Global Illumination hat. Und darauf zielt die Forschung ja ab: Einen Raytracer schaffen, der gängige Grafik bietet.

Ich persönlich mag ja kein HDR und Bloom, weil es in den meisten Spielen so verdammt übertrieben eingesetzt wird, dass ich mich frage, wann die Entwickler das letzte mal reale Lichtverhältnisse erlebt haben.
 
@e-Laurin: Das einzige, worauf man zur Zeit noch wartet, ist, dass GPUs noch schneller werden. Denn die optimierten Algorithmen, wie z.B. Metropolis Light Transport, existieren schon und wurden teilweise auch schon auf GPUs portiert. Problem ist halt, dass sich diese Algorithmen nur noch minimal, wenn überhaupt, optimieren lassen.
 
wird sich nie durchsetzen glaube ich. war aber interessant zu lesen.
 
Sag niemals nie...
 
Kasmopaya schrieb:
Im Artikel wird ja darüber gesprochen das Intels GPUs das ganze effizient berechnen können, ich hätte da gerne mal einen Beweis wenn man eine HD 7970 oder GTX 580 daneben hin stellt und das gleiche machen lässt. Meine Vermutung ist ja das AMD und NV weit besser Raytracen als Intel und man das ganze nur von Intel CPU v. Intel GPU sagen kann. Ohne massive GPU Power geht mal gar nix, also wo bleibt denn Intels kaufbare dicke GPU um irgend wann mal mitzumachen?

Bin zu 100% Deiner Meinung!

@Artikel: Nett zu lesen, mehr nicht...
@topic: obergähn hoch 2 im Quadrat. Intel braucht für die Steuererklärung wohl eine Abteilung wo extreme Verluste aufweisst damit sie über diese die Bestechungsgelder um AMD zu schikanieren legal abbuchen können:evillol: Dazu mag Ray-Tracing was taugen! Ansonsten???
 
Raytracing interessiert mich sehr, bis jetzt bin ich aber nur auf C-Tutorials zu Raycasting gestoßen. Hat jemand vllt. ein nettes Raytracing-Tutorial das die Basics in C/C++ beibringt?

Im Artikel wird ja darüber gesprochen das Intels GPUs das ganze effizient berechnen können, ich hätte da gerne mal einen Beweis wenn man eine HD 7970 oder GTX 580 daneben hin stellt und das gleiche machen lässt. Meine Vermutung ist ja das AMD und NV weit besser Raytracen als Intel und man das ganze nur von Intel CPU v. Intel GPU sagen kann. Ohne massive GPU Power geht mal gar nix, also wo bleibt denn Intels kaufbare dicke GPU um irgend wann mal mitzumachen?

Das sind doch zwei paar Schuhe ob meine Architektur auf Raytracing optimiert ist oder nicht. Es lassen sich nicht alle Berechnungen auf einer GPU parallelisieren, weil sie nunmal für andere Dinge gebaut wurden. Beim Videoencoding oder der Proteinfaltung klappt das zwar wunderbar, jedoch weiss ich nicht in wie weit man Raytracing mit OpenCL Algorythmen durchführen kann. Aber eine Antwort vom Autor wäre da schon nett :)
 
Zuletzt bearbeitet:
Schade, dass sich der Autor mit mehr oder weniger trivialen Post Processing Effekten beschäftigt. Keiner der gezeigten Effekte ist in irgendeiner Art neu, alles wurde schon x-fach in Spiele implementiert und ist auch z.b. in GPU Gems gut dokumentiert. Das nachzubauen würde ich jetzt nicht als "Forschung" bezeichnen.
 
Das ist schon Forschung, da das darunter liegende Gerüst erst mal überhaupt nichts mit Rasterisierung (wo diese Postprocessing-Effekte herkommen) zu tun hat.

Mir scheint, einige haben keine Ahnung, wie viel Arbeit in so eine Engine investiert werden muss. Gerade dann, wenn man zu den ersten gehört, die das machen. Gerade die Komplexität der Berechnungen ist eine sehr große Herausforderung. Die Komplexitätstheorie ist eine der wichtigsten Bereiche in der Informatik.
 
Zuletzt bearbeitet:
Zurück
Oben