• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Intels Raytracing-Projekt: Der Stand der Dinge

e-Laurin schrieb:
Nein, es widerspricht sich nicht. Die Grundaussage ist: Die Komplexität aktueller Spiele ist noch nicht hoch genug, als dass RT einen Vorteil bietet.

Der Vorteil von Raytracing ist, dass es mit zunehmenden Polygonzahlen aber einem gewissen Punkt nur noch unwesentlich mehr Leistung benötigt, um das alles zu stemmen. Rasterisierung hingegen aber braucht linear mehr mehr Leistung.


Um es einfacher auzudrücken, hier mal vereinfachtes Beispiel:

Rasterisierung (lineare Skalierung):

1 Mio Polygone -> 100 fps
5 Mio Polygone -> 20 fps
10 Mio Polygone -> 10 fps

Raytracing (logarithmische Skalierung):

1 Mio Polygone -> 75 fps
5 Mio Polygone -> 50 fps
10 Mio Polygone -> 45 fps
[...]

Was man aber bei diesen Berechnungen dann oft vergisst ist der Flaschenhals Speicher, obwohl man es RAM nennt, bei komplett zufälligen Speicherzugriffen geht effektive Bandbreite flöten, und je grösser die Szenen sind, je länger man dem Licht folgt, umso zufälliger werden die Zugriffe. In den letzten Jahren kamen Unmengen an Ideen und Lösungsvorschlägen wie man kohärenteren Speicherzugriff beibehält, aber bis jetzt fehlt dort der Durchbruch - und wer ne Lösung dazu findet wird wohl Milliardär, aber ja, das ist eine andere Geschichte...
 
Man betrachte sich nur mal die Entwicklung beim Energieverbrauch von Grafikkarten, und das trotz immer kleinerer Strukturen. Welches Wunder in der Technologie soll denn plötzlich kommen, dass sich das ändert, noch dazu wenn man's zukünftig sogar geraytracet haben will?

Ich trau' mich heute ja kaum zu Zocken, weil sonst die Bude noch heißer wird... (und das "nur" mit meinem System :D )
 
Die Bodentexturen werden von der orginal Spielwelt so übernommen worden sein. Rein von der Technik durfte sogar egal sein wie hochauflösend die Bodentextur ist. Der Strahl bestimmt den Farbwert an einer Stelle vom Bild, wie die Textur aussieht auf die er trifft dürfte rein von der Rechenzeit her egal sein.

-> Bodentextur ist mit Absicht so gewählt, genau wie der verspoilerte Charakter.

Was Nebel etc angeht wiederhole ich mich ungern ;)
 
hoffi13 schrieb:
Wenn man sich das Wasser anschaut, spätestens dann sollte einem auffallen, was das für ein potenzial hat, auch einem Laien:D
Ich wette, du hast schon vor 2 Jahren vom Wasser in Crysis geschwärmt. ;)

@topic: und wer's noch nicht mitbekommen hat: Die Spielhersteller haben auch schon erkannt, dass der Verbraucher bzgl grafischem Realismus schon fast gesättigt ist. Deswegen stehen zunehmend gute Spielideen im Fokus der Entwicklung.
 
Zuletzt bearbeitet:
wadenbeisser schrieb:
Ja...eine Küste ohne Nebel oder Wind der das bischen Sand mal bewegen könnte......schau dir dann noch die tollen Bodentexturen aus Bild 6 an, zumindest ich bekomme da das Würgen. Von der Landschaft her würde ich es vielleicht noch bestenfalls mit der aus HL2 vergleichen, das einzige was da wirklich gut aussieht sind die Lichtbrechungs- und Spiegellungseffekte vom Glas und dem Wasser.

Wirklich gefallen hat mir da nur Bild 8 aber das ist auch die Paradedisziplin der Technologie.

Physikalisch simulierten, vom Wind bewegten Sand kannst du mit Raytracing genau so - eigentlich wohl nen Tick leichter - implementieren, volumetrischer Nebel geht auch, und wenn dir die Textur nicht gefällt, dann nimm halt eine aus deinem momentanen Lieblingsspiel, das ist nur die Frage welche Textur gemappt wird, das hat nicht mit Raytracing zu tun...
 
Das Spiel, was sie dort verwenden, sieht mir irgendwie schwer nach ET:QW aus, also id Tech4-Engine. Die ist ja nun nicht grade für Texturauflösung berühmt. Zieht man dann noch Partikeleffekte und Shadertricks an, sieht der Boden nunmal so aus.
 
Krautmaster schrieb:
Die Bodentexturen werden von der orginal Spielwelt so übernommen worden sein. Rein von der Technik durfte sogar egal sein wie hochauflösend die Bodentextur ist. Der Strahl bestimmt den Farbwert an einer Stelle vom Bild, wie die Textur aussieht auf die er trifft dürfte rein von der Rechenzeit her egal sein.

-> Bodentextur ist mit Absicht so gewählt, genau wie der verspoilerte Charakter.

Was Nebel etc angeht wiederhole ich mich ungern ;)

Du verstehst den Knackpunkt offenbar nicht......das was da gezeigt wird ist eine absolute Sparausgabe von einer Grafik. Kaum ein Baum der da zu sehen ist, lausige Texturen die verwendet wurden und nichtmal mit heutigen Spielen mithalten können. Es wurde alles vermieden was die Nachteile der Technologie hervorheben könnte. Das die Bodentexturen orginal übernommen wurden kann ich mir kaum vorstellen, es sei denn das die glide Version von ersten Tomb Raider die Vorlage war....
Wenn man dafür einen Lambre brauch prost Mahlzeit...

Das ist nichts anderes als eine Grafikdemo die lediglich auf die Vorteile der Rendertechnologie hinoptimiert wurde und bei der man an allem anderen gespart aht um die Anforderungen in Grenzen zu halten.
Ergänzung ()

pezli schrieb:
Physikalisch simulierten, vom Wind bewegten Sand kannst du mit Raytracing genau so - eigentlich wohl nen Tick leichter - implementieren, volumetrischer Nebel geht auch, und wenn dir die Textur nicht gefällt, dann nimm halt eine aus deinem momentanen Lieblingsspiel, das ist nur die Frage welche Textur gemappt wird, das hat nicht mit Raytracing zu tun...

Du vergisst einen wichtigen Aspekt.....ist das auch mit vergleichbaren Hardwareanforderungen UND vergleichbarer Darstellungsqualität realisierbar?
 
Eigentlich ist es doch ganz einfach:
Raytracing ist im prinzip die selbe methode wie Sehen wirklich funktioniert, jede Lichtquelle gibt strahlen ab und dann berechnet man welche straheln auf welchem weg das auge des betrachters treffen.
Die Rasterisierung ist eher ein Ansatz die realität zu vereinfachen und nur das nötigste darzustellen - mit der Zeit musste man aber immer mehr darstellen und sämtliche effekte die normal eben durch lichtstraheln so entstehen muss man aufwändig künstlich nachbilden. Mittlerweile sind wir dabei eben an einem Punkt angelangt an dem derart viel polygone, texturen, filter und effekte berechnet werden müssen dass es auf absehbare zeit leichter wird es gleich richtig zu machen alles in volumen einheiten (voxel) darzustellen und per raytracing das sichtbare bild zu berechnen.

Nicht umsonst arbeitet id Software bereits mit ihrer idTech6 Engine an einer entsprechenden Voxel/Raytracing Engine.
 
Texturen sind das kleinste Problem, das hat mit dem Raytracingverfahren nun wirklich nichts zu tun.
 
e-Laurin schrieb:
Eine Technologie-Demo soll auch nur zeigen, dass es geht. Schönheit muss es da nicht geben.

Natürlich.....aber wenn ich lese wie die Bilder gehyped werden und anhand dessen die Technologie bereits heute als Allheilsbringer angepriesen wird kommt das Gejubel wohl locker 5 Jahre zu früh.
Natürlich sind Vorteile anhand der Bilder erkennbar aber auch teils extreme Nachteile.
 
Jetzt fehlt ansich nur noch, dass nVidia die eigene Raytracing-Engine für alle CUDA-Karten freigibt... Das würde Intel unter Druck setzen, und wir würden mehr Bewegung in der ganzen Sache sehen.

Ich würd gern mal einen direkten Vergleich sehen. Die selbe Szene mit Rasterizer und mit Raytracing...
 
Der Sinn und Zweck des Ganzen ist auch nicht zu zeigen wie toll Texturen aussehen können. Der Fokus liegt auf den raytracingspezifischen Effekten.
 
richtig. Das was raytracing kann, kannes meist besser und einfach als Rasterisierung. Es geht eben auch um den Programmiertechnischen Aufwand. Wenn ich meine Beleuchtungsengine mittels Raytracing binnen 5 Tagen zusammenbasteln kann und die dabei sauberer und genauer arbeitet wie jede Rasterisierungs Lösung, ist dies auch kein zu unterschätzender Vorteil.

@wadenbeisser

es geht mir auch nicht darum dass von heute auf morgen dank RT bessere Grafik verfügbar ist. Immerhin entwickelt man gerade erste Engines. Aus meiner Sicht die richtige Richtung. Stehen mal die Engines dann kommt die Sache auch erst in Rollen. Die Entwicklung wäre sicher rasend schnell wenn auch nur halbsoviel Energie in sie gesteckt werden würde als in andere neue Game Engines. Man kann fast meinen Daniel Pohl sitzt mit 5 Mitarbeitern in einer Kammer und entwickelt was revolutionäres. Dem mag auch so ein, aber den großteil der Industrie kümmert das wohl kaum solange die alte Technik so gut läuft. Und das tut sie. Intel hofft lediglich irgendwann eine dominate Position beziehen zu können falls Rasterisierung wirklich mal am Ende angekommen ist.

Das Problem ist eher dass Raytracing einen so massiven Umbruch in Hard und Software darstellt, dass sich keiner, außer Intel da ernsthaft rantrauen würde. Nur die ganz Großen können hier mitmischen. Und Nvidia versucht dies ebenfalls.
 
Zuletzt bearbeitet:
e-Laurin schrieb:
Der Vorteil von Raytracing ist, dass es mit zunehmenden Polygonzahlen aber einem gewissen Punkt nur noch unwesentlich mehr Leistung benötigt, um das alles zu stemmen. Rasterisierung hingegen aber braucht linear mehr mehr Leistung.
[...]
Aber da Grafik immer aufwändiger wird, werden wir in ~5 Jahren sicher kurz vor der 5 Mio Polygonmarke hängen.
Es gibt natürlich einen Break-even point bei einer bestimmten Polygonanzahl. Der Vergleich ist aber nur dann fair, wenn du bei beiden Verfahren vom selben Energieeinsatz ausgehst. Da wirst du mit deinem Zeitrahmen bei weitem nicht hinkommen. Außerdem wird der break-even so hoch sein, dass die erforderliche Energie nicht massentauglich ist. Somit wird man unterhalb der Polygonanzahl bleiben müssen und folglich dem Rasterizer dem Vorzug geben, denn bei diese Anzahl ist er dann noch effektiver. Natürlich verschiebt sich das in der Zukunft aufgrund der Miniaturisierung immer mehr hin Richtung Raytracing, aber nur sehr schleppend. Deswegen sprechen wir in 10-15 Jahren nochmal darüber. Bis der erste Hersteller sich bequemt, in die Planung der Hardware für den Massenmarkt zu gehen, dürften nochmal 5-10 Jahre vergehen. Planung selbst dauert. Dann die Produktion. Und dann bzw parallel muss erst mal (funktionierende) Software dafür geschrieben werden.
Ich lasse mich aber auch gerne überraschen.
 
genau den Weg versucht Intel doch schon ansatzweise zu gehen. Die Leistungsfähigkeit lässt sich schwer abschätzen, wie auch ohne die optimierte Hardware. Die gibt und gab es bisher nicht. Zumindest nicht offiziell.

Deswegen lässt sich auch schwer ein zeitlicher Rahmen aufspannen. Maybe setzt Larrabee die Latte ein gutes Stück weiter nach oben was Raytracing Performance angeht.

Angenommen ein Larrabee Kern berechnet Raytracing so fix wie ein Core 2 Quad Kern. Dann haben wir auf einen Schlag ein System mit der Leistungsfähigkeit von 16 Quadcores... und damit lässt sich heute schon etwas in Sachen Raytracing anfangen. In wie fern man Einen übichen X86 Kern mit dem Larrabee kern in seiner Leistungsfähigkeit bei RT vergleich kann weiß wohl keiner von uns. Vielleicht ist es nur halbsoschnell, wieleicht 100 mal schneller.
 
Zuletzt bearbeitet:
wadenbeisser schrieb:
Du vergisst einen wichtigen Aspekt.....ist das auch mit vergleichbaren Hardwareanforderungen UND vergleichbarer Darstellungsqualität realisierbar?

Öhm ja, du kannst wirklich eine deiner Lieblingstexturen reinladen ohne Geschwindigkeitsverlust, wirklich, glaub mir... Da gehst am Ende einen Pixel (oder 4 oder 8 je nach dem ob du und welches Filtering benutzst) nachschlagen, das ist jetzt nicht die Spassbremse... Auf Larrabee wirst auch ne fixed-Filteringeinheit drauf haben, das geht genau so schnell wie auf einer heutigen Grafikkarte... Wirklich, glaubs mir.
 
Zuletzt bearbeitet:
An alle Zweifler die keine Cluster zu Hause haben :-) :Wisst ihr noch wie gross der erste IBM war???
Ich sage in spätestens 5 Jahren spielt jeder 2 mit Raytracing

Nostradamus hat gesprochen *g*
 
das problem an der sache ist, dass es für den enduser nicht wirklich interessant ist. bis raytracing massenmarkt tauglich ist, wird sich rasterizing auch deutlich weiter entwickeln. am ende wird es wohl kaum einen "kinnladen-runter-wow-effekt" geben. raytracing hat gute chancen langfristig die dominante rendertechnik für echzeitanwendungen zu werden. aber wenn es soweit ist, wird es keine "revolution" mehr sein, sondern für den enduser eher wie der "normale nächste schritt - eine evolution" aussehen.

und dort liegt das problem. wenn man mit raytracing und vorsehbarem horizont (weniger als 10 jahre entwicklung) einen deutlichen grafikvorteil (aka marktvoteil) für den enduser schaffen könnte, wäre das für konsolen hersteller interessant. denn nichts wäre besser geeignet raytracing einzuführen als eine massgeschneiderte appliance wie sie eine spielekonsole darstellt.

aber zur zeit ist das schlicht nicht wirtschaftlich. die "next-gen" konsolen sind allerorts schon in der konzept-phase. wenn man jetzt 3-5 weitere jahre für die aktuelle generation rechnet und 8-10 für die nächste generation (welche 99,9% mit rasterizer hardware kommt) hat man schon fast 15 jahre spielezukunft ohne raytracing.

auch wenn es in einem PC forum vielleicht nicht gerne gehört wird. der spiele-massenmarkt ist heute der konsolenmarkt. vereinzelte projekte kommen vielleicht schon vorher mit speziellen pc lösungen. aber bis die grossen entwickler mit dem grossen budget auf raytracing setzen braucht es spielekonsolen welche darauf optimiert sind...

reden wir 2025 nochmal drüber ;)
 
Zuletzt bearbeitet:
wenn die Zeit davon abhängt wieviel Performance wir bei Raytracing erreichen können, können wir eben keine Aussagen darüber treffen da keiner weiß wie schnell Larrabee ist.
 
Zurück
Oben