Bericht Bericht: „Quake Wars“ mit Raytracing

1. Frage - 'weiche' Schatten: auf Bild 8 (der einzelne Baum) sieht der Schatten für mich weicher aus als auf den anderen Bildern, wo viel Landschaft zu sehen ist. Wurde da etwas anders berechnet?
2. Frage - Performance: Warum benötigen die Zäune in Bild 9 (rot/blau) so viel Rechenpower? Das ist doch im Prinzip nur eine Ebene die Transparenz hat, im Gegensatz zu den Bäumen. Kenne mich damit nicht aus, deswegen wärs schön, wenn mir das mal jemand erklären könnte.
 
raytracing als technologie für die lichtberechnung hat sicher zukunft. aber imho wird es die konventionelle rasterisierung nur ergänzen, aber nicht ersätzen. dann haben zukünftige grafikkarten neben dx11 und objekt-physik auch raytracing-hardaredekoder...
um eine spiel ausschließlich in raytracing darzustellen, hat raytracing imho in zu vielen bereichen einen performancenachteil, dem kein optischer vorteil gegenüberstehen würde.
 
Am Rande: Hier wird erklärt, wieviel Rechenaufwand bereits ein einfacher trilinearer Texturezugriff benötigt:
http://www.slideshare.net/Mark_Kilgard/sigraph-asia-2008-modern-opengl-presentation
(Dort Slide 146-169)

Good deal of GPU’s superiority at graphics operations over CPUs is attributable to TEX instruction efficiency

Wenn man sich vorstellt, dass die CPU da alles in Software machen muss, während die GPU das in einer Instruktion machen kann(dank seperater Texunits)...
 
Was soll RayTracing im Vergleich zum Shadering den bringen?
Ich verstehe den angeblichen großen Vorteil von RayTracing ggb Rasterierung nicht so ganz.

Klar klingt es gut, aber die Performance ist doch ziemlich unter aller sau, da die CPUs einfach nicht schnell genug sind.
Bisher braucht Raytracing viel mehr Power und sieht nichtmal erkennbar besser aus.

Wenn man diese Power in die Rasterierung pulvern würde, sähe diese nochmals besser aus und würde RayTracing alt aussehen lassen.
 
ich denke auch, dass x86 keine wirkliche zukunft mehr hat, da die architektur denkbar ineffizient ist. sie ist zusammen mit windows "gewachsen" und für heutige windowsrechner unentbehrlich, aber im bereich der supercomputer setzt man nicht umsonst auf risc-prozessoren und andere technologien. durch gpgpu wird intel wieder ein stück ihres monopols genommen. bei reinen rechenprozessen abseits von befehlssätzen ala sse oder mmx sind gpus heute um ein vielfaches schneller. jetzt ist es natürlich intels bestreben, raytracing (vermutlich per befehlssatz für x86-cpus) passend zur eigenen hardware zu entwickeln. nvidia forscht ebenfalls in sachen raytracing, allerdings ist es selbstverständlich in deren interesse, dass der kommende raytracingstandart gpu-optimiert ist.
amd kann sich dabei ganz entspannt zurücklehnen und abwarten, wer von beiden seinen anssatz durchsetzen kann, denn amd verfügt als einziger über beide möglichkeiten und kann entweder einfach abwarten und sich dann anpassen oder sogar selbst für die bevorzugte seite "patei ergreifen" in dem sie dann den jeweiligen standart einfach mit unterstützen. egal für welche lösung sich amd entscheidet, die softwareentwickler werden auf die schnittstelle setzen die entweder von allen cpu oder von allen gpu unterstützt wird. die lösung, die nur von einem hersteller unterstützt wird, ist unweigerlich zum scheitern verurteilt, egal obs die bessere oder schlechtere lösung wäre...
 
Der Artikel ist gut und allgemeinverständlich. Leider fehlen die Formel und ein paar formal ausgedrückte Algorithmen. Bis auf die Bäume finde ich die Grafik nicht besser als die heutige Referenz names Crysis. Gut die Auflösung ist geringer, aber ich glaube, dass das gesehene hier keinen umhaut.
 
es wir auf jeden fall noch sehr lange dauern, bevor raytracing der allg. standart in spielen wird, dazu müssten ja auch kosolen zu raytracing übergehn, ob intel so viel einfluss und geld hat, um gegen AMD/ATI, NVIDIA und die anderen im Grafikgeschäft sowie die Spiele schmieden, die wohl auch nicht von heute auf morgen nur wegen intel die programmierart ändern werden, vorzugehn.
Wenn dann wird es eine langsame entwicklung sein. Wenn man sich die qualitäts und performancesteigerung in den 4 Jahren ansieht und mit rasterisierung vergleicht dann ist das ganze auch nich so überwältigent, 2004 war Farcry inner grafik vorne, die schnellste karte war ne X1950XTX, heute isset FarCry2/Crysis und die schnellste Karte ne HD4870(X2)/GTX280(295), die Grafikqualität hat sich subjektive verdoppelt und die Leistung vervierfacht, solange das ganze für den endkunden das bessere P/L bietet (Performance pro Watt mal aussen vor) setzt sich raytracing nicht durch. 512x512 in quake zu 1280x720 bei fast doppelten frames auf nur halb so vielen cpu kernen lohnt erst, wenn ein cpu kern nich mehr kostet als 10 shadereinheiten einer graka, mal so ganz milchmädchen-mässig gerechnet.
Würde mal tippen das es mindestens noch 10 Jahre dauert, wenn die entwicklung weiterhin solche sprünge macht wie in den letzte 4 Jahren, bis raytracing überhaupt in irgendeiner vorm auf dem consumermarkt eintritt oder ein rolle spielt (und wenn, selbst dann auch nur die 2te Geige).
 
bartio schrieb:
Was soll RayTracing im Vergleich zum Shadering den bringen?
Ich verstehe den angeblichen großen Vorteil von RayTracing ggb Rasterierung nicht so ganz.
Der Vorteil liegt im geringeren Programmieraufwand für eine natürliche Aus/Beleutung.
Man gibt nur an was eine Lichtquelle ist, und wie durchlässig und reflektiertend die Texturen sind. Der Rest wird dann berechnet.

Bei dem Aufwand den heutige Spieleentwickler für Grafikspielereien betreiben müssen, wäre Raytracing sicher eine willkommende Entlastung.
Quake 3 und Quake Wars sind jetzt nicht die Grafikblender (machen aber trotzdem mehr Spaß als so macher ... ), wo auch jedem Ottonormalo sofort ins Auge springt um wieviel besser die Qualität der Beleuchtung ist.

Die Rechenleistung ist noch nicht da, wo man hin muss, für einen praktischen Einsatz, aber kommt schon noch. 2-3 Jahre dann gibts die ersten Spiele die, die Technik unterstützen.
 
bartio schrieb:
Was soll RayTracing im Vergleich zum Shadering den bringen?
[...]
Wenn man diese Power in die Rasterierung pulvern würde, sähe diese nochmals besser aus und würde RayTracing alt aussehen lassen.

27-1080.4152485585.jpg


Man sieht, dass Raytracing (grün) einen gewissen Grundaufwand hat, der bei einer geringen Anzahl an Dreiecken im Vergleich mit der Rasterisierung (rot) hoch ist. Hat man jedoch wesentlich mehr Geometrie in der Szene, so ist es ab dem Schnittpunkt S effizienter, Raytracing anstatt Rasterisierung zum Erzeugen des Bildes zu benutzen.

Am besten du beliest dich vllt. gleich mal mit den verlinkten anderen Artikeln zum Thema (bei genauerem Hinsehen finden diese sich sogar am Ende dieses Artikels -.-). Hoffe geholfen zu haben.
 
Gratulation an Herr'n Daniel Pohl

Sehr Interessant das ganze, und auch leicht Nachvollziehbar.
Da geht ja noch einiges in sachen Optik und Leistung.
In Zukunft, freue ich mich schon auf neue Berichte und Screenshots, von dem ganzen.
 
Interessanter Artikel, auch wenn nicht so viel neues gesagt wird. Interessant fand ich, dass die vermeintliche 2d-Wasseroberflaeche in meinen Augen besser aussah als die 3d. Frag mich aber wie es dann mit realistischem Spiegeln aussieht, ich weiss ja nicht wie ein lichtstrahl der auf eine fake-3d-oberflaeche trifft, reagiert...
Achja - Ist Occlusion mit Raytracing moeglich? Also der wirkt-fast-echt-ist-aber-nur-textur effekt wie in Crysis?
 
Ich weis nicht wie ihr das seht, aber auf der Vorletzten Seite die bilder mit dem Wellengang gefällt mir das obere besser -_-

Edit:@(th): Ich dachte schon ich bin anders ^^
 
dass die vermeintliche 2d-Wasseroberflaeche in meinen Augen besser aussah als die 3d
ditto.
Nicht alles was 3D ist, sieht auch gut aus. Manchmal ist eine gute Atrappe schöner als so manches 3D Objekt.

Der Vorteil liegt im geringeren Programmieraufwand für eine natürliche Aus/Beleutung.
Man gibt nur an was eine Lichtquelle ist, und wie durchlässig und reflektiertend die Texturen sind. Der Rest wird dann berechnet.
Klingt für Entwickler natürlich traumhaft.
Aber in Crysis sieht die Ausleuchtung auch sehr schön und natürlich aus. Zwar schwerer zu verwirklichen, dafür ist die Leistung auch noch um einiges schneller.
Und wie Herr Pohl selbst schreibt, braucht man für Soft-Schatten viel mehr Strahlen, das natürlich nochmals auf die Performance niederschlägt.

Kopi80 schrieb:
27-1080.4152485585.jpg

Am besten du beliest dich vllt. gleich mal mit den verlinkten anderen Artikeln zum Thema
Die anderen Artikel hatte ich damals durchgelesen. Und alles klang (erwartungsgemäß) gut und schön.
Jedoch zeigt die Grafik schon meinen Einwand: Sehr schematisch.

Genau der Schnittpunkt ist doch interessant. Ab wieviel Dreiecken "lohnt" sich Raytracing im Blick auf die Leistung? Ab 2000, 2Millionen oder gar 2 Milliarden?
Ist das immer so, oder nur wenn es optimal läuft?

Man kann natürlich imemr irgendwelche hypotetische Bedingungen aufstellen und entsprechende Grafikskalen justieren um Thesen zu beweisen.

Herr Pohl hat sicherlich mehr auf den Kasten als wir, dennoch bezweifle ich die uneingeschränkte Objektivität.
Er spielt eine entscheidende Rolle bei Intel - einem Unternehmen welches keine richtigen Raster-GPUs im Sortiment hat und gerade einen Raytracing-GPU entwickelt.
Und außerdem ist Raytracing sein Spezialgebiet.
Deshalb wird er es immer so hingestellen, als ob es die Lösung für Grafikprobleme wäre, selbst an Stellen wenn die gute alte Rasterierung sinnvoller wäre.
 
Zuletzt bearbeitet:
Forschung! Forschung! Forschung! Die Welt braucht Forscher!
Das sagt mein Physiklehrer immer.
Ich bin so gespannt darauf auch selber mal in Zukunft mit Raytracing arbeiten und forschen zu können.
Ihr wisst garnicht wie sehr ich das lernen will.
 
Wenn ich noch an meine Amiga Zeiten (1990) denke, da gabs auch schon Raytracing Programme :D aber die reichten nur um in 320x200 oder 640x400 ein Bild zu berechnen und das dauerte glaube ewig...hätte nicht gedacht das das Thema mal wieder so Interessant wird und vielleicht in Zukunft nur noch auf der Basis im Spiele und Grafikbereich gearbeitet wird.
 
Für alle die das für Luftschlösser halten, John Carmack selbst zieht Raytracing für idtech6 in Betracht:
I do think that there is a very strong possibility as we move towards next generation technologies for a ray tracing architecture that uses a specific data structure; rather than just taking triangles like everybody uses and tracing rays against them and being really, really expensive. There is a specific format I have done some research on that I am starting to ramp back up on for some proof of concept work for next generation technologies. It involves ray tracing into a sparse voxel octree which is essentially a geometric evolution of the mega-texture technologies that we're doing today for uniquely texturing entire worlds.
Quelle
 
Performance ist der Hauptgrund, warum Raytracing derzeit noch nicht in kommerziellen Spielen benutzt wird. Verglichen mit einer spezialisierten Rasterisierungshardware (beispielsweise aktuelle GPUs von ATi oder Nvidia) ist Raytracing relativ langsam. Die fehlenden Hardware-Textureinheiten in unserem CPU-basierten Ansatz bringt einen großen Performanceeinbruch beim trilinearen Filtern aller Textursamples. Mit dem neuesten Intel-Quad-Socket-System (ausgestattet mit einem 2.66-GHz-Dunnington-Prozessor (6 Kerne) in jedem Sockel; macht insgesamt 24 Kerne) erreichen wir im Spiel zwischen 20 und 35 Frames pro Sekunde bei einer Auflösung von 1280 x 720 Pixel.

Das ist zwar toll, aber da fehlt was: Wieviele Strahlen wurden denn abgeschossen?
 

Ähnliche Themen

Zurück
Oben