• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Intels Raytracing-Projekt: Der Stand der Dinge

Krautmaster schrieb:
Wir sind an einem Punkt wo Raytracing schon nahezu der Rasterisierung aufschließen kann, es fehlt lediglich an Rechenleistung. Aber die wird man auf absehbare Zeit haben.
Und wenn man die hat, wird auch Rasterizing noch besser und schneller sein. Aufschließen bzgl was? Realismus oder Energieeinsatz? Das geht ja Hand in Hand. Dein "nahezu" ist deswegen etwas arg realitätsfremd.


Mir geht es darum, ob wir bereit sein werden, für die Leistung, die dafür notwendig sein wird, flüssig mit Raytracing-Grafik agieren zu können, auch bezahlen zu wollen. Selbst wenn uns diese Leistung irgendwann zur Verfügung steht und Optimierungen gegriffen haben, lässt sich nichts daran ändern, dass diese schöne neue Welt ihren Preis hat. Und ich behaupte mal, dass Rasterizing mit relativ kleineren optischen Abstrichen die für die Masse bezahlbarere Methode sein wird. Es sei denn, wir sind gleichzeitig bei 1nm statt 32nm-Techologie angekommen, aber das glaube ich einfach nicht.
 
China schrieb:
Heavy Rain... bei den Bildern musste ich aller höchsten gähnen.
...

Naja, bei BILDERN. Seh dir mal das gepostete (wenn auch qualitativ schlechte) Video an. Da sieht das ganze schon recht "rund" aus. Qualitätsmängel an Screenshots festzustellen ist nun wahrlich keine Leistung.
 
Auch Algorythmen werden weiter entwickelt...
Plötzlich kommt der Durchbruch... und dann?

Ich mach die Grafikgeschichte seit 1986 mit...
Und da dachte man sich auch ständig: Boah... sowas werden wie nie als Spiel sehen können.
Mittlerweile, kommen die Spiele Pixar Filmen verdammt nahe.
 
blöd das die Engine nich für nen 6 Kern 3ghz CPU gebastelt wird sondern für einen 64 Kern hochoptimierten Larrabee GPU Chip. Wenn da die Kerne auch nur gleich start wären hätten wir also nach diener Rechnung schon 10 mal mehr Bildpunkte, oder wegen mir 5 mal so viele bei doppelter Frameanzahl. Genug Puffer um noch mittels normaler Trickserei ala Rasterisierung Partiekeffekte hinzuzufügen.

Die Engine fehlt halt noch. Und genau das ist die Aufgabe von Daniel Pohl und seinem Team.

@WLibero

Und wenn man die hat, wird auch Rasterizing noch besser und schneller sein. Aufschließen bzgl was? Realismus oder Energieeinsatz? Das geht ja Hand in Hand. Dein "nahezu" ist deswegen etwas arg realitätsfremd.


Mir geht es darum, ob wir bereit sein werden, für die Leistung, die dafür notwendig sein wird, flüssig mit Raytracing-Grafik agieren zu können, auch bezahlen zu wollen. Selbst wenn uns diese Leistung irgendwann zur Verfügung steht und Optimierungen gegriffen haben, lässt sich nichts daran ändern, dass diese schöne neue Welt ihren Preis hat. Und ich behaupte mal, dass Rasterizing mit relativ kleineren optischen Abstrichen die für die Masse bezahlbarere Methode sein wird. Es sei denn, wir sind gleichzeitig bei 1nm statt 32nm-Techologie angekommen, aber das glaube ich einfach nicht.

mit dem Realismus hält es sich bei Rasterisierung in Grenzen. Ich behaupte die Grafik wird seit Crysis wie man sieht nur noch mit extremer Steigerung der Rechenleistung der Grafikkarten erkauft. Für ein Quentchen mehr Grafik brauchen wir QuadSLI etc. Das ist das zeichen dass Rasterisierung immer langsamer Fortschritte machen wird. Und genau hier setzt Raytracing an, es wird nicht mehr allzulange dauern dass wir mit selber Rechenleistung via Raytracing das bessere Bild bekommen. So einfach ist das. Den zu diesem Zeitpunkt wird ein großer Umbruch stattfinden.

Und bitte... von realitätsnah sind wie nach wie vor ein gutes Stück entfernt.
 
Zuletzt bearbeitet:
e-Laurin schrieb:
Nein, es widerspricht sich nicht. Die Grundaussage ist: Die Komplexität aktueller Spiele ist noch nicht hoch genug, als dass RT einen Vorteil bietet.
Du sprachst aber von heute. Deswegen sah ich das als Widerspruch. Ok, vllt falsch verstanden.
 
WLibero schrieb:
Und wenn man die hat, wird auch Rasterizing noch besser und schneller sein. Aufschließen bzgl was? Realismus oder Energieeinsatz? Das geht ja Hand in Hand.
Wenn die Hardware schnell genug für RT wird, kann man den ganzen unnötigen Schnickschnack in GPUs weglassen. Shader? Wer braucht sowas schon. Quasi die Hälfte (ein aus der Luft gegriffener Wert) der Funktionen, die heutige GPUs haben, ist bei RT nicht von nöten.
 
raytracing ist superior. da braucht man imo nicht drüber diskutieren..
 
Also einige scheinen mit den Möglichkeiten die Raytracing bietet nichts anfangen zu können. Die Leistungsfähigkeit unserer Computer wird sich nicht nur gleich bleibend Weiterentwickeln, sondern eher exponentiell. Somit wäre es eine Sackgasse weiter mit der Rasterengine zu rechnen, da genügend Leistung für Raytracing zur Verfügung stehen wird und wir mit der Rasterengine Leistung verplempern würden.

Ich versuch mich hier mal an einem Beispiel.

Nehmen wir mal an, wir müssen über Treppen Kartoffeln in den 5 Stock transportieren und als einziges Transportgerät haben wir ne Sackkarre(Rasterengine) und 5 Kilo Säcke(Pixel). Also packen jede menge Leute(Grafikkarte) die Kartoffeln in die Säcke. Die Anzahl der Leute entspricht der Leistung der Grafikkarten.
Da es immer schneller gehen soll, brauch ich immer mehr Leute. Irgendwann sind mal so viele Leute da, das man auch eine Menschenkette die Treppen hoch bis in den 5 Stock bilden könnte und einfach die 5 Kilo Säcke nach oben weiter gibt. Da wäre es doch quatsch das weiterhin mit den Sackkarren zu machen. =)

So jetzt steinigt mich für den Vergleich, ich find ihn toll.
Vielleicht versteht jetzt der Ein oder Andere was das mit dem Raytracing soll.
 
BEnBArka schrieb:
Nur will uns Intel halt allen verkaufen das wir "Otto-Normalverbraucher" es brauchen wie einen Tropfen Wasser in der Wüste, und das stimmt mmn absolut nicht ;)

Ich empfinde es zwar nicht so, das Intel uns was krampfhaft verkaufen will, aber gut, das ist Ansichtssache :D Raytracing wird aber wahrscheinlich bei der Geschwindigkeit irgendwann die Nase vorn haben, wenn die Szenen immer komplexer werden. Und genau dann wird man vielleicht dankbar sein, dass man schon frühzeitig Hardware dafür hat. Ist eigentlich nur ein logischer Schritt von Intel, es ist DIE Chance mal im Grafikmarkt zu trumpfen und nVidia konkurrenz zu machen.
 
Zuletzt bearbeitet:
e-Laurin schrieb:
Wenn die Hardware schnell genug für RT wird, kann man den ganzen unnötigen Schnickschnack in GPUs weglassen. Shader? Wer braucht sowas schon. Quasi die Hälfte (ein aus der Luft gegriffener Wert) der Funktionen, die heutige GPUs haben, ist bei RT nicht von nöten.
Mag sein, aber dafür brauchen wir nochmal eine Vielfaches an anderen, parallelen "Recheneinheiten". Die Entwicklungen der Nanotechnologie werden eher stagnieren, daher sehe ich darin keine baldige Zukunft. Ich mach mir mal nen Termin für 2020, dann können wir ja mal prüfen, wie die Lage ist. :)

(BTW, ich hab nichts gegen Raytracing. Hab selber schon nen Raytracer für mich programmiert.)
 
wadenbeisser schrieb:
Solange die verwendete Hardware nicht bekannt ist bringen uns solche Bilder herzlich wenig.
Was nutzt es wenn eine Maschine dahinter die mehrere KW frisst (ein Hoch auf die gute Parallelisierung) steht und man auf vergleichbare Partikeleffekte, die heute mehr als Standard sind, verzichten muss?

Das spätere Hardware mehr Leistung mitbringt ist ja schön und gut aber das Gleiche gilt auch fürs bisherige Renderverfahren.


Das ist nichts als Marketing bei dem man die Vorteile vervorhebt um Kunden für sein Produkt zu gewinnen aber ein ernsthafter Vergleich beider Rendertechnologien bleibt weiterhin aus.

Das ist mir durchaus klar dass die Hardware nicht bekannt ist. Intel wird aber denke ich nicht versuchen eine Engine zu bauen welche 10 Larrabee Karten vorraussetzt um zu laufen. Und was Partikel angeht sagte ich bereits... Raytracing würde schon allein für Licht eine sehr gute Grundlage bilden. Was dahinter alles getrickst wird ist mal zweitrangig. Heute beißt sich die Rasterisierung eben an Licht und Polygonanzahl die Zähne aus. Warum dann nicht raytracing sinnvoll einsetzen wenn es sich irgendwann sogar aus Sicht der Rechenleistung lohnt.

Wer weiß. Vielleicht läuft Bild 9 bereits in Echtzeit mit einer Larrabeekarte in HD :p

@Hinky
Ich empfinde es zwar nicht so, das Intel uns was krampfhaft verkaufen will, aber gut, das ist Ansichtssache Raytracing wird aber wahrscheinlich bei der Geschwindigkeit irgendwann die Nase vorn haben, wenn die Szenen immer komplexer werden. Und genau dann wird man vielleicht dankbar sein, dass man schon frühzeitig Hardware dafür hat. Ist eigentlich nur ein logischer Schritt von Intel, es ist DIE Chance mal im Grafikmark zu trumpfen und nVidia konkurrenz zu machen.

genauso ist es
 
Ja, auf welcher Hardware läuft das Raytracing wohl. Ist eigentlich wurscht, worauf es läuft, solange es keine dedizierte Hardware ist. Rasterisierung sähe dank des Overheads in Software berechnet auch nicht besser aus. Der Vergleich hinkt also, denn nur, weil hier jeder spezialisierte Rasterizing-Hardware eingebaut hat sehen aktuelle Spiele auch besser aus als Intels Projekt.
Mal sehn was Larrabee damit so anstellt.
 
Zuletzt bearbeitet:
@Steiner_mC
Dann stelle dir mal heutige Spiele mit minderwertigen oder gar fehlenden Partikeleffekten wie Nebel, Rauch und Co vor.....

Natürlich geht die Entwicklung weiter aber es wird erst dann interessant wenn beide Technologien sowohl von der Qualität, als auch vom Kosten/Nutzen Faktor her vergleichbar sind und das wird wohl noch ein paar Jahre dauern.
 
ich erinner mich noch an die News um wieviel 100 mal schneller Hacking mit einer GPU anstelle einer CPU möglich war.

Jetzt übertragen wir das Ganze auf Raytracing. Was wenn eine spezialisierte GPU wie Larrabee bereits 100 mal fixer ista ls ein Core i7 ;)

Man darf überrascht sein.

@Steiner_mC
Dann stelle dir mal heutige Spiele mit minderwertigen oder gar fehlenden Partikeleffekten wie Nebel, Rauch und Co vor.....

Natürlich geht die Entwicklung weiter aber es wird erst dann interessant wenn beide Technologien sowohl von der Qualität, als auch vom Kosten/Nutzen Faktor her vergleichbar sind und das wird wohl noch ein paar Jahre dauern.

Was spricht dagegen diese fehlenden Partikel auf altgediente Rasterisierungsart zu erzeugen, falls man es nicht auf Raytracing Ebene hinbekommt? Sie an der richtigen Stelle zu platzieren dürfte ein kleineres Problem sein.
 
Zuletzt bearbeitet:
Notfalls nimmt man ne Hybrid-Lösung und klatscht die Partikel mit Rasterisierung hin :D
 
Steiner_mC schrieb:
Die Leistungsfähigkeit unserer Computer wird sich nicht nur gleich bleibend Weiterentwickeln, sondern eher exponentiell.
Ich sehe da eher eine Stagnation im Bereich der Miniaturisierung, und die erforderliche Parallelisierung wird ein Vielfaches an Kosten mit sich bringen. Ich zweifle nicht daran, dass es irgendwann pari-pari (Ref. vs. Ray) sein wird, aber das dauert noch seeehr lange, und ob wir den Preis zahlen wollen, zweifle ich mal an. Wenn du mehr bessere Bilder haben willst, dann kommt das nicht von Nichts. Das kostet Leistung, Energie, Euros. Und Energie muss zwangsläufig viel teurer werden, sonst haben wir ne schöne VR aber eine äußerst unschöne (echte) Realität. Wir werden's "sehen".
 
Hab erst einmal was davon gehört*schäm*Wenn man sich das Wasser anschaut, spätestens dann sollte einem auffallen, was das für ein potenzial hat, auch einem Laien:D

MfG
 
Krautmaster schrieb:
Das ist mir durchaus klar dass die Hardware nicht bekannt ist. Intel wird aber denke ich nicht versuchen eine Engine zu bauen welche 10 Larrabee Karten vorraussetzt um zu laufen. Und was Partikel angeht sagte ich bereits... Raytracing würde schon allein für Licht eine sehr gute Grundlage bilden. Was dahinter alles getrickst wird ist mal zweitrangig. Heute beißt sich die Rasterisierung eben an Licht und Polygonanzahl die Zähne aus. Warum dann nicht raytracing sinnvoll einsetzen wenn es sich irgendwann sogar aus Sicht der Rechenleistung lohnt.

Ja...eine Küste ohne Nebel oder Wind der das bischen Sand mal bewegen könnte......schau dir dann noch die tollen Bodentexturen aus Bild 6 an, zumindest ich bekomme da das Würgen. Von der Landschaft her würde ich es vielleicht noch bestenfalls mit der aus HL2 vergleichen, das einzige was da wirklich gut aussieht sind die Lichtbrechungs- und Spiegellungseffekte vom Glas und dem Wasser.

Wirklich gefallen hat mir da nur Bild 8 aber das ist auch die Paradedisziplin der Technologie.
 
Zurück
Oben