Bericht Raytracing in Spielen V: Neues aus der Strahlenwelt

Es wäre mal Interessant zu wissen, waum man die Raytraycer derzeit nicht auf den Grafikkernen rechnen lassen kann, denn dann hätte jeder Handelsübliche PC (wahrscheinlich) schon genug Leistung......
 
@Miki
@Samurai76

Nein, die Leistung heutiger GPUs reicht eben nicht dafür aus. Deshalb sagte ich das ab einer gewissen Komplexität Raytracing weniger Leistung benötigt. Noch ist diese Komplexität aber nicht erreicht, und Rasterisierung ist noch Resourcenschonender.
 
Bin auch kein Freund dieser Artikelserie, aber was hier in den Kommentaren abgelassen wird ist lächerlich^10.


F_GXdx schrieb:
...
Auch die Entwicklungen im Raytracing hat der Autor teils verschlafen, vielleicht sollte er sich mal ein Tool wie FPrime von Worley anschauen.

Was willst du damit sagen, und welche Entwicklungen? Bei Raytracing gibt es nicht mehr viel zu erforschen, das ist uralt und eigentlich sehr simpel. Man kann nur auf bessere Hardware warten. Und die Erwähnung von FPrime verstehe ich in diesem Kontext sowieso nicht.

mc.emi schrieb:
cloud, cloud, cloud... aber da bezweifle ich, dass man dies zulässt, da man doch an den nutzerdaten interessiert ist...

Kein Kommentar, wieder der typische computerbase Kurzschluss wenn man das Wort Cloud auftaucht. Sie hätten es auch einfach "große Serverinfrastruktur" nennen können, dann wärst du vermutlich zufrieden gewesen.

feldwebel-Chief schrieb:
sorry aber für mich als laie sieht es einfach nur billig aus , die glas brechung ... schrecklich.
in den jahren sieht es immer noch 1:1 gleich (schlecht) aus.

Die Brechung ist real und quasi perfekt, das wird in Zukunft nie besser aussehen und ohne Raytracing auch nicht möglich sein. Du störst dich vielleicht unbewusst an dem groben Model des Glases oder an der altbackenen Grafik der Umgebung, aber das ist hier nicht der Punkt.

MasterWinne schrieb:
auch heute haben wir das eigendlich alle schon (lange), besser und effizienter als es dieses projekt bisher je darbieten konnte. zumal ich auch jetzt wieder entäuscht bin von der gesamtqualität. ob überhaupt mal ein "brauchbarer" und konkurenzfähiger stand erreicht, bezweilfle ich sehr stark. noch 5 jahre vll. dann ist das projekt zu den HEUTIGEN vorzeigeengines vielleicht konkurenzfähig. aber auch dann wieder nur grafik von "vorvorvorgestern".

Wohl der unpassendste Kommentar von allen. Sowas gibt es heute in keinem Spiel, nicht nur nicht besser, sondern überhaupt nicht. Was aber das eigentliche Problem ist, dass du von der Gesamtqualität redest (und dann noch der Vergleich zu Vorzeigeengines, das ist dermaßen am Thema vorbei. Engines in 10-15 Jahren werden hierauf basieren, keine Konkurrenz sein). Das ist ein Proof-of-concept, da geht es nur um ganz bestimmte Teile, und diese gibt es so heute und in naher Zukunft nirgends zu sehen. Wer Raytracing braucht? Naja, wenn man früher oder später wirklich fotorealistische Grafik auf dem PC haben möchte, dann gibt es wohl keinen Weg dran vorbei.


Das war bei dieser Artikelserie schon immer das Problem, die Leute haben gar nicht kapiert, um was es eigentlich geht. Das soll keine Engine werden, sondern etwas, das später mal in allen Engines enthalten sein könnte. Raytracing ist ein Konzept, kein Produkt und auch keine Alternative.

Dieses Bild hier oder dieses kommt aus dem Computer und ist pures Raytracing, anders geht es nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TeeKay und Eremit_
Die Technik dahinter ist ja interessant, keine Frage, aber man versucht seit Jahren diese mit anderen Ausgabemethoden zu etablieren bzw. Möglichkeiten zu geben. Sei es per Cloud auf PCs, als auch seit letzem Jahr auf Tablets. Das kann es ja nicht sein. Mit Teamviewer oder Onlive können das schon in der Praxis.
Unglaublich mehr Rechenleistung oder mehr Optimierungen bei der Bilderstellung brauchen sie. So bleibt es extrem praxisfern und somit uninteressant.
 
Zuletzt bearbeitet:
Ray Tracing ist sicher auch im Echtzeit-Segment langfristig die Zukunft, aber es wird noch viel Wasser die Donau runterfließen, bis man solche Grafiken in Spielen geboten bekommt. ;)


http://www.youtube.com/watch?v=iWE18YjLA8U


Bislang sehen die Ergebnisse in Echtzeit bei annehmbaren Auflösungen und Framerates einfach grottig aus, da ist man mit Rasterisation noch deutlich besser bedient.
 
@estros
Das siehst du etwas falsch. Man versucht nicht, Ray Tracing zu etablieren, man betreibt hier Forschungen, wie man welche Effekte in einer RT-Engine realisieren kann. RT ist wie erwähnt schon sehr alt. Effekte wie HDR und qualitätssteigernde Maßnahmen wie AA gibt dafür nicht bzw. man fing erst vor relativ kurzer Zeit damit an, sie auf RT anzupassen.
Bei Rasterisierungsengines gibt's das schon lange und es haben sich dort auch schon viele Leute darüber den Kopf zerbrochen. Es ist da etwas unfair, die Leute dafür zu kritisieren, wenn sie das nun bei RT tun.

Und bedenkt mal: Laut Danksagung forschen gerade mal 6-7 Leute direkt an der RT-Engine. Die haben in diesem einem Jahr extrem viel erreicht.
An den Engines aktueller AAA-Spiele arbeiten Teams mit bis zu 30 Mann - und die setzen hauptsächlich nur Techniken ein, die bereits vor Jahren ausgeknobelt wurden.
 
Können nicht bereits vorhandene Ray Traying Engines wie Vray oder Octane, die nicht für Echtzeitrendering ausgelegt, sind mit Entsprechender Hardware, nicht viel schönere Ergebnisse erzielen? So eine Engine leicht verändern und mit 4 GTX 580 betreiben oder über OpenCL mit 4 7970. Das müsste doch fast photorealistische Ergebnisse liefern. Hier wird extreme Rechenpower geboten aber das Ergebnis überzeugt mich nicht wirklich.

Wenn die von mir genannten Renderengines kein Ray Tracing engines sind dann tuts mir leid. Ich peil nicht 100% durch bei Ray Tracing, Path Tracing, bi-dir path tracing und was es sonst noch gibt.
 
@Fishlike:
Daran habe ich auch gedacht.
Bei Nvidia gibt es ja auch schon eine Techdemo zu Ray Tracing zum downloaden.
Ich glaube, Intel macht mit diesen Artikel nur Werbung.
 
@Fishlike
Bei diesen Engines ist Geschwindigkeit leider nur zweite Priorität. Man müsste sie von Grund auf neu aufbauen, womit man dann wieder an dem Punkt wäre, wo Intel gerade ist.

Und nicht vergessen, GPUs sind auf Rasterisierung optimiert. Was Nvidia mal als GPU-beschleunigte RT-Demo angepriesen hat, ist nur das unterste Ende, was RT leisten kann und wurde mit Müh' und Not auf die GPUs gepflastert.
 
RT gehört die Zukunft, keine Frage.

Ob es sich durchsetzt, die Berechnungen per Internet in eine Serverfarm auszulagern, ist keine Frage von RT oder Rasterisierung. Man wird sehen, ob Firmen wie Gaikai am Markt Erfolg haben. Gaikai bietet sowas bereits jetzt an, für Leute, die eben keine aktuelle Hardware betreiben wollen.

Die Frage ist, gelingt es intel mit dem Thema in der Zukunft Fuß zu fassen, ohne Tausende Raster-Patente von AMD und NV nutzen zu müssen. Es sieht doch so aus, dass immer weniger die Rechenleistung der aktuellen CPUs benötigt, aber intel von dieser Technologieführerschaft lebt.

RT ist ein noch unberührter Markt, der ganz neue extrem leistungsfähige Hardware benötigt. Womöglich gibt es in 5 Jahren die ersten Systeme für die Gamer und 3 Jahre später haben alle Hersteller sowas im Programm. Dann hat aber intel die Vorarbeiten geleistet und steckt voll im Geschäft.

Jetzt werden eben allerlei Szenarien erkundet, wie man das auf den Markt bringen kann, das besagt der Artikel, das sind die Fortschritte. Es werden die Programmierer eingebunden und Möglichkeiten ausgelotet, die teure Hardware für den Kunden bezahlbar zu gestalten.
 
Für mich sieht es einfach aus als würde man sich in weniger sinnvolle Effekte kümmern als man das Texturen Problem anzugehen. Um Grund ist mir egal ob irgendeine Reflektion Physisch korrekt ist oder nicht, es fällt einfach 90% der Spielern nicht auf...
 
dcobra schrieb:
[...]
Dieses Bild hier oder dieses kommt aus dem Computer und ist pures Raytracing, anders geht es nicht.

Nach dem Lesen der 21 Post vor Dir dachte ich schon das es keiner mehr schreibt, danke du hast meinen Tag gerettet.

Es reden hier viele davon das man in heutigen Games schon viel bessere Ergebnisse hat als hier gezeigt werden, nur das das Ergebnis von verwendendeten Modellen, Shadern, Textures + Materialien und Lights abhängt wird augenscheinlich ignoriert.

In der Außenszene ist deutlich zu erkennen das zB. nur eine Lichtquelle (Sonne), bzw. zwei (+Himmel) für die Beleuchtung und den Schattenwurf verwendet wird, schön wäre es wenn nun noch in Echtzeit berechnete Global Illumination mit einfließen würde, doch dann könnte man derzeit von den 20-30 fps bei 1024x 600 wohl nur träumen :)

Aber seis drum, langweilen wir die Generation BF nich tmit technischem Schnickschnack. Im Consumermarkt zählen nur optisch vergleichbare Ergebnisse, und da schneidet Wolfenstein:RT einfach nicht gut ab, und dem Herr Blödgeil ist es auch egal ob das Spiel in Echtzeit physikalisch korrekt berechnet wird - Hauptsache ist doch es gibt nen Granatwerfer!

Intel hat ja genug in der Kriegskasse um sch ein solches Labor nebenbei zu leisten, und wenn in 10 Jahren dann Raytracing in den AAA Titeln Einzug erhalten hat hat Intel gut daran getan frühzeitig in diese Technik zu investieren.

Fishlike + damn@x
Hehe, lass uns doch mal träumen, ein Battlefield X/TES X powered by "Vray/Iray/Octane Realtime" würde mir optisch wohl auch sehr schmecken ;)

Irgendwann werden wir photorealistische, physikalisch korrekt in Echtzeit berechnete Spielegrafik haben, denn Realität ist das Maximum - mehr geht nicht (+ Special Effects)
Wie lange wir dafür noch brauchen werden, wie unsere Rechner dann aussehen und ob AMD, NVidias oder Intel dann führend in dem Bereich sein wird, darüber können wir heute nur spekulieren - spannend ist es allemal.

Gute Nacht,
Q

Edit:
Nur mal so noch am Rande, wenn man in Echtzeit durch solche Räume hier latschen könnte, würde das wohl auch Max Mustermann auffallen, nur es wäre nicht relevant für seine Kaufentscheidung ob es nun per RT oder per Rasterisierung geschaffen wurde.

http://www.youtube.com/watch?v=S7rHSyXGXZM
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Kasmopaya schrieb:
Im Artikel wird ja darüber gesprochen das Intels GPUs das ganze effizient berechnen können, ich hätte da gerne mal einen Beweis wenn man eine HD 7970 oder GTX 580 daneben hin stellt und das gleiche machen lässt. Meine Vermutung ist ja das AMD und NV weit besser Raytracen
Das kann ich mir nicht wirklich vorstellen.
Vielleicht gibt einige einzel/spezial disziplinen beim berechnen von mit Raytracing gerenderten Szenen, bei denen man auf die Stream Prozessoren der GPUs von AMD/NV setzen könnte(Thema GPGPU).
Aber generell sind diese GPUs schlicht und ergreifend nicht fürs Raytracing ausgelegt, sie wären damit hoffnungslos überfordert.
 
Meiner Meinung nach ein total überflüssiger Artikel.
Das ist die Suppe von gestern neu aufgewärmt. Ich hoffe Ihr müsst dem Author nicht auch noch was dafür zahlen.
Das was er macht ist für meine Begriffe allerhöchsten "Grundlagenforschung". Deswegen gibts auch nur so schlechte Grafik, die aber viel mehr Rechenleistung benötigt.

Und da diese nicht da ist - pffssst.
Es muss erst der Akku da sein, damit man ein Mobiltelephone bauen kann...

Ich glaube auch, dass ich schon den letzten Berich mit: "Das Endprodukt (als das Bild was der Consumer sieht) muss stimmen. Wie es entsteht ist doch egal."
Am Anfang gab es noch so Schätzungen, wann die Herkömmliche Technik mehr Rechenleistung fordert als das Raytracing um die selbe pompöse Bildqualität zu erzeugen.
Und von diesem kritischen Punkt sind wir noch weit, sehr weit entfernt.

Und Cloud-Gaming ist auch nur ein Hirngespinst. Genau so wie Einliterautos es (noch) sind.
Ich komme mir immer verarscht vor, wenn ich darüber lese - mal abgesehen von der völlig unzureichenden Internetleistung in weiten Teilen Deutschlands (von dem Rest der Welt will ich gar nicht reden) ist das nur rentabel, wenn so ein Spiel nicht ~800Watt zieht... naja. Vielleicht bin ich ja nicht "Visionär" genug...
 
F.b schrieb:
der Rechenaufwand bei mehr Polygonen mit Raytracing logarithmisch und mit Rasterization linear skaliert

Das ist Quatsch. Du kannst bei einem Rasterisierer genauso eine Beschleunigungsstruktur verwenden wie bei einem Ray-Tracer, und genau das macht auch jedes Spiel. Doppelte Polygonanzahl bedeutet schon lange nicht doppelte Renderzeit! Der einzige Vorteil bei Raytracing sind pathetische Situationen wo man extrem hohe Tiefenkomplexität hat, weil die Occlusion kostenlos kommt. Das erfordert beim normalen Rasterisieren mehr Hirnschmalz.

Zudem lässt der ganze Artikel außen vor, dass Du beim Raytracer die Beschleunigungsstruktur nur schwer ändern kannst, weil die sehr weit gehen muss (bis auf einzelne Dreiecke) für optimale Performance. Dynamisches Updaten von großen BVH/KD-Bäumen ist immer noch ein Problem. Bei einem Rasteriserer reicht eine gröbere Struktur aus, und das macht Updates in Echtzeit deutlich einfacher. Z.B. machst Du ein zweistufiges Gitter und gut ist, per Frame einmal cullen und fertig.

Lustigerweise hilft Tessellation jetzt der Rasterisierungshardware, macht aber Raytracing komplizierter, weil man da nun erstmal gegen das grobe Mesh tracen muss, dann on-the-fly verfeinern oder gleich das ganze Mesh tesselliert im RAM haben ...

Ach ja: Das tolle an Raytracing sind ja nicht super-kohärente Reflexionen, sondern diffuse Effekte, und da geht Dir die Performance in den Keller, weil Du plötzlich überall im Speicher herumgreifst. Das was wir hier sehen würde mit OptiX und 8 Grafikkarten wahrscheinlich genauso gut oder sogar besser laufen; spannend sind wirklich erst die diffusen Effekte, und sofern da Intel nicht den Stein der Weisen gefunden hat, wird es da wie überall mit der Performance so bergab gehen, dass Echtzeit nix mehr geht. State of the Art ist übrigens Brigade 2, die machen Echtzeit-Pathtracing auf Multi-GPU-System, Video hier: http://www.youtube.com/watch?v=wTJ1cjyVQRU
 
Miki. schrieb:
Eins verstehe ich dann nicht,warum wird sie nicht in spielen eingesetzt,diese Technik sollte doch auch auf einer AMD bzw. Nvidia laufen
Das läuft nicht auf GPUs, weil GPGPU einfach schlecht für RayTracing geeignet ist. Der Code in RayTracing basiert - unter anderem - auf Branching, um so schnell wie möglich die Berechnung zu beenden. Sobald du aber bei GPGPU branched wird dein Code seriell ausgeführt und ist daher langsamer als wenn du gleich auf der CPU bleibst. Intel MIC basiert intern auf "normalen" CPUs und hat daher diesen Nachteil beim Branching nicht…
 
Ich denke, der Cloud-Ansatz geht in die falsche Richtung. Hersteller wie insbesondere Intel wären heute schon in der Lage, abgespeckte "Knights Ferry"-Karten für den Massenmarkt anzubieten. Da dies eine skalierbare Lösung darstellt, könnte der Benutzer selber entscheiden, wie viele er davon verbaut; die Basis-Hardware bestünde bis zu einem gewissen Grad.

Um es vielleicht anders auszudrücken: Cloud-Computing in den eigenen vier Wänden, mit zentralisierten und skalierbaren Rechenmodulen. Diese Module können sich auch anderen Aufgaben wie Bild- oder Videoverarbeitung widmen, oder anderen Berechnungen. Es liegt einmal mehr an den Software-Herstellern.
 
dcobra schrieb:
Bin auch kein Freund dieser Artikelserie, aber was hier in den Kommentaren abgelassen wird ist lächerlich^10.
...
Kein Kommentar, wieder der typische computerbase Kurzschluss wenn man das Wort Cloud auftaucht. Sie hätten es auch einfach "große Serverinfrastruktur" nennen können, dann wärst du vermutlich zufrieden gewesen.

Danke, ich wunderte mich schon über die vielen seltsamen Kommentare vorher. Nur beim wohl unpassensten Kommentar muß ich widersprechen. Der Titel geht ganz klar an die, die sagen Der Autor hätte wohl verschlafen oder keine Ahnunng. Als da mußte ich dann schon lachen, wenn man weiß wer (maßgeblich oder sogar ganz) Raytracing auf den Weg brachte. Das wäre ja, als hätte man damals Karl Benz gesagt, er hätte keine Ahnung von Autos.
 
dcobra schrieb:
Dieses Bild hier oder dieses kommt aus dem Computer und ist pures Raytracing, anders geht es nicht.

Deinen Kommentar hätte man fast ernst nehmen können, nur leider hättest du dir das 2. Bild (den Inhalt deines Geschirrspülers, der mit ner schlechten Handykamera aufgenommen wurde) sparen können um deinem Post doch einen Seriösen Hauch zu verleihen...

@Topic: Ich sehe auch keine wirklichen neuerungen in diesem Segment. Für mich wirkt es als würde ich den selben Bericht wie vor einem Jahr lesen!
 
Zurück
Oben