Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Intels Entwicklungsabteilung für Grafiklösungen zeigt im Rahmen des heute beginnenden IDF ein neues Projekt. Dabei wurde das Actionspiel „Wolfenstein“ durch den Einsatz von Ray Tracing in Echtzeit optisch aufpoliert. Intel demonstriert nun das Potenzial dieser Technik anhand einiger Bilder und eines Videos.
Na ja,für ein paar Spiegel Effekte so eine Immense Rechenleistung verbraten ?
Ich denke mal das für Spiele Raytraing alleine nicht der Weisheit letzter Schluss
sein wird.Und bis das wirklich mal für den End User interessant werden sollte,
ob jetzt in der Cloud oder zu Hause als Steckkarte im PC oder in der Konsole,
werden noch sehr,sehr viele Jahre ins Land gehen.
Naja ist zwar noch in der Entwicklung, aber bitte ich will doch in Zukunft kein 2D-Feuer...
Der überwachungsraum ist doch mit der source-engine schon sehr einfach realisierbar und die würde mit 4 Servern im Rücken xxk fps bringen.
interessanter ist doch, das es inzwischen überhaupt möglich ist raytracing in echtzeit zu machen ... das ist cool. bisher kenn ich nur gerenderte dinge
noch ein paar jahre und sowas gehört zum gamingalltag.
ein vergleich zu cuda oder stream wär hier mal interessant ... wie stehts dnen mit der theoretischen flop leistung der intelkarte?
Ich finde es echt löblich, was Intel da an Energie aufwendet um Raytracing voranzutreiben. Wenn man mal bedenkt, dass vor nicht allzulanger zeit mit Quake 4 Raytraycing noch auf ganzen Serverclustern lief um einigermaßen akzeptable Frames bei niedrigen Auflösungen zu erreichen, so ist das hier schon ein guter Schritt nach vorne. Klar dauert es noch Jahre, bis da wirklich für uns ein Nutzen bei rauskommt, aber würde Intel das nicht erforschen, dann würde es noch sehr viel länger dauern. Denn das, was nVidia hier in Raytraycing investiert, das dauert ebenfalls noch Jahre. So ist Konkurrenz gegeben und die Entwicklung wird dadruch schneller voranschreiten.
Merkwürdig. Warum ausgerechnet Wolfenstein? Ich finde es charakteristisch gesehen eine sehr schlechte Wahl. Das Spiel hat sich bei mir nur aus einem Grund im Gedächtnis eingebrannt. Die Symbole.
Weils eins der letzten Quake 3 Engine Spiele ist und Intel auf der Basis von Quake 3 ihre raytracing Geschichten macht...
Vielleicht mal nachdenken und nicht gleich wieder sinnlos politisch werden... heutzutage ist wohl alles was mit Deutschland (Vergangenheit, Gegenwart, Itengration) zu tun hat, gleich erstmal grundlegend falsch...
Klar warum tun wir uns nicht eigentlich nahtlos in Frankreich eingliedern, da können wir dann getrost wieder etwas negatives über unser Land verarbeiten bzw. aussprechen...
...Diese „Many Integrated Core“-Architektur (kurz MIC) ist dabei für zukünftige Hochleistungscomputer und nicht für Endkunden wie Computerspieler gedacht
ist ja teilweise echt Bildniveau, Bilder und Filmchen ankucken und losbrabbeln
Auf jeden Fall toll, das jetzt auch Intel hier aufdreht
EDIT: natürlich wird diese Entwicklung irgendwann auch mal im Konsumerbereich ankommen, ob jetzt als eigenständige Lösung in Form einer Karte, oder im Prozessor verbaut, aber ich denke, dass wird noch ein wenig dauern.
Raytracing ohne Global Illumination oä sieht einfach scheisse aus, ob echtzeit oder nicht. Derzeit macht das nur Sinn wenn man es teilweise mit rasterisierten Techniken zusammen porgrammiert. Das shadowing sieht schon toll aus, die Reflektionen sind ok, aber das Lighting ist noch deutlich verbesserungswürdig.
Zitat:
...Diese „Many Integrated Core“-Architektur (kurz MIC) ist dabei für zukünftige Hochleistungscomputer und nicht für Endkunden wie Computerspieler gedacht
ist ja teilweise echt Bildniveau, Bilder und Filmchen ankucken und losbrabbeln
Auf jeden Fall toll, das jetzt auch Intel hier aufdreht
In dieser Form nicht,das ist richtig.Aber Intel hat ja selber angekündigt das die Technik(damals Larrabee)
in anderer Form auch in zukünftige CPU einziehen wird,also ist in positiver Hinsicht
auch der Endkunde irgendwann in der Zukunft mal davon betroffen.
Wie unbeeindruckend... das kam ergo eindeutig nicht von der Intel Marketingabteilung, sondern von deren Geeks/Programmierern, die relativ selten ein Faible für gutes Design haben.
G33k: Schau dir mal die Spiegelungen an!
User: Jo... aber die Grafik sieht mal aus wie vorn vor 10 Jahren.
G33k: Aber alles ist geraytraced!
User: Jo... sieht trotzdem scheisse aus.
Wichtig ist nur, was hinten raus kommt. Und das war jetzt mal absolut nicht beeindruckend.
Ajo und der Typ in dem Vid hat nen "feines" Englisch. Und so schön abgelesen. Am besten noch, dass er die Army-Leuts als "Monsters" bezeichnet hat. Und ich frag mich warum der Crap trotz 38 fps ruckelt...
zum Thema echtzeit Raytracing siehe smallLuxGPU oder smallptGPU, läuft auf Grafikkarten und auch schon sehr schnell, allerdings noch nicht ganz echtzeit mit der derzeitigen Leistung der Grafikkarten.
und btw, das war Lahm, man hätte bei dem Feuer/Rauch doch definitiv was besseres machen können, z.B. volumetrische Rauchwolken, das wäre beeindruckend gewesen
Eine blaue "Grafikkarte" mit Intel-Logo - auch wenn es das nicht für Endkunden geben wird - der Anblick ist geil .
Dafür dass daran gleich 4 Server-Systeme arbeiten, beeindruckt mich die Optik eher weniger. Physikalisch korrekte Spiegelungen sind ja nett, aber bei dem Aufwand?