Bericht Bericht: Raytracing in Spielen

um schon mal die Hoffnungen einiger "juhu"-poster zu zerschlagen > da werden noch einge Jahre
ins Land gehen ...denn >wer sich schon mal mit Raytracing beschäftigt hat >zb mal n paar Scenen
gerandernt hat, weiss wieviel rechenaufwand dahintersteckt und das schon bei stehenden Scenen
bei Animationen dauert sowas schon enorm lange -
die Ideen des Herrn Pohl sind schon sehr interessant und einer weiteren Entwicklung auf jeden Fall
wert - wenn demnächst dann MehrCore-GPU's auf n Markt kämen hätten solche Innovationen mehr
Chancen - denn ich sehe keinen grossen Sinn darin >MehrCore-CPU's mit solchen
Rechenaufwand zu beschäftigen >da die Daten ja eh wieder zum Randern an die GPU übergeben
werden müssen... wenn diese Arbeit aber ne MehrCore-GPU erledigen könnte ständen die Chancen
schon wesentlich besser solche Ideen auch in GameEngines umzusetzen - wenn sich dann
entsprechend Entwickler auf Soft-und Hardware-Basis finden lassen ...
das ist ähnlich der Entwicklung eines Autos ohne Sprit ! - die Ideen sind da -
blos zur Umsetzung vergehen dann doch etliche Jahre - oder Jahrzente
naja trotz alledem >n echt lesenswerter Bericht und viel Erfolg für Daniel Pohl !
 
Zuletzt bearbeitet:
Abwarten und Tee trinken, aber klingt generell schon mal sehr gut
 
es gibt zurzeit ja auch noch gar keine gpu's das hardwareseitig unterstüten, wenns dann ersetmal so nen chip auf der grafikkarte hat, ghet das auch vieil schneller, und solche chips werden entwickler, weil die ja in hollywood benötigt werden.

sehr interessant würde ich meinen, vorallem wenn es gemischt wird mit dem klassischen Rendering.
 
tja wenn da mal die hardware auf der GPU seite vorhanden ist wir das ganz sicher heftig ins rollen kommen. weiters wäre natürlich ein game ala crysis ein cooles startup für diese technologie. also herr pohl...suchen sie sich die besten ( nicht die meistbietenden ) interessenten für ihre technik aus !

tipp: da es schon einen chip(konzept) gibt verkauft dieses an einen anderen grafikkartenhersteller abseits von ati und nvidia, denn die beiden krempeln sicher nicht ihre gesamte produktpalette um.
 
Das jetzige Grafikkonzept der Rasterisierung muß aufgrund des Energiebedarfs mal an Grenzen stoßen. Raytracing könnte (wenn ich den Artikel richtig verstanden habe) den Energiehunger eindämmen. Man bräuchte nur einen Pionier wie seinerzeit 3dFX.

Raytracing auf der CPU zu berechnen finde ich Quatsch. Spezialisierte Chips sind effizienter. Eignet sich der Cell für sowas? Wie sieht es eigentlich mit dem G80 mit seinen Unified Shadern aus? Könnte man den für Raytracing mißbrauchen? Woran fehlt es denn genau? An D3D11?
 
Wow. Super Bericht! Leider hat mich das jetzt noch schärfer auf diese Technologie gemacht... wie soll ich all die Jahre noch überstehen? *g*

Und mal ganz vom Eye-Candy abgesehen: Dieses "OpenRT" wäre ja dann plattformübergreifend - und was soll MS noch ergänzen, wo die Technologie ja quasi schon perfekt funktioniert (da sie ja nicht "schummelt"). :)

Oder stellt euch mal vor man würde das in Google Earth integrieren. In ein paar Jahren ist das wahrscheinlich ohnehin zu grossen Teilen in 3D... das wäre der helle Wahnsinn. Dann könnte man sich theoretisch an jedem Punkt der Erde einen realistischen Sonnenuntergang angucken und was weiss ich noch alles machen/simulieren...

@ Daniel Pohl: ID-Software hat doch gute Kontakte zu nVidia, oder? Versuch doch bei denen unterzukommen. In Kalifornien leben, dickes Gehalt und nebenher die Grakikkartenbranche (mit)revolutionieren. Oder bei AMD/ATi, da könnte man CPU und GPU von vorne herein für die Technologier anpassen. Naja, was auch immer du auch in Zukunft noch für IT-Taten vollbringen wirst, wo auch immer: Ich drück dir die Daumen.

Nur das würde mich noch interessieren: Eine konkrete Stellungnahme von dir zur Industrie bzw. wie die Industrie (speziell eben genannte Firmen) momentan zu RT steht - und deine Prognose, wann man auf einem normalen 1000-Euro-Rechner voraussichtlich Spiele in voller HDTV-Aufösung mit RT-Technologie wird spielen können.
 
Mr. Incredible schrieb:
Ihr stellt Bewerbungen von arbeitssuchenden Informatik-Studenten rein? :rolleyes:

Neidisch? Oder selbst nicht drauf gekommen?
 
sehr gut und dann noch mal 10 Jahre und wir haben unbiased render in echtzeit!

wen es interessiert http://www.indigorenderer.com/joomla/

aber was im artikel leider einwenig unter geht, sind die harten Schatten und um wirklich realistischere bilder zu erzeugen benötigt man noch zusätzlich beleuchtungstechniken...
 
netter Bericht über ein interessantes Thema.
Darüber schreiben die wenigsten Computerseiten!
Weiter so
 
whynot? schrieb:
Auf seiner Website steht aber ausdrücklich er will was in der Gaming Industrie ;)
Oh, überlesen ... ok :) .
Wobei er in der Gamingindustrie wahrscheinlich kaum was in Sachen RT machen kann. Bei Autodesk könnte er sich erstmal einen reichen Fundus an Erfahrung sammeln und das dann zur Gamingindustrie mitnehmen ;) .
 
Danke für den interessanten Bericht! Vielleicht lassen sich jetzt schon Mischformen der bekannten Technologien und Raytracing für z.B. Echtzeitschatten verwirklichen, die Ressourcen schonender mit der vorhandenen Hardware umgehen können. Ich wünsche mir in Zukunft mehr solcher Artikel. Innovationen gibt es nur durch Leute wie Kollege Pohl. Nur wer ausgetretene Pfade verlässt ist wirklich kreativ! ;-)
 
oh yes, so eine Grafik in Echtzeitberechnung wie in Kinofilem wär was feines :) Klasse Bericht, sehr informativ! Volle Punktzahl.....
P.S. Ich bin sicher, dass der Herr Pohl viele Anfragen von Firmen nach dieser publicity bekommen wird.... :) Super Arbeit!
 
Kann mich nur anschliessen, Klasse Bericht, Super Idee, kurz; Genial und Zukunftsträchtig.
 
Klasse Bericht! Sowas freut einen tierisch.

Gabs da nicht einmal ein paar Raytracing Demos für Everyone? Nature Suxx und Nature Still Suxx.

Sofern die Links noch funzen:
DEMO 1
DEMO 2
DEMO 3

Die 3te ist die Beste.

Und natürlich noch die Site: http://www.realstorm.com/ Auf der Site gibt es auch Raytracing Benchmarks für den Rechner unter Downloads!

Liebe Grüße,
Dilandau
 
Zuletzt bearbeitet von einem Moderator:
Mit dieser Technologie wäre so etwas wie DirectX als Grafikschnittstelle überflüssig!
 
Auf sowas warte ich schon seit es DirectX gibt ^^
 
Backslash schrieb:
...Und wenn es dann (hoffentlich) spezielle Karten dafür gibt ist auch die Performance kein Problem mehr.

Wenn sowas wieder ne eigenständige Karte braucht, kann Raytracing lang auf mich warten. Schon die Physik-Karten find ich total unnötig. Soll man das doch in die Grafikkarte einbauen, wozu hat man die denn. :rolleyes:

BTT: Crysis raytraced... *g*. Sieht nach der Zukunft der Spiele aus. Hoffendlich beeilen se sich. :D
 
Zurück
Oben