News Intel zeigt Projekt „Wolfenstein: Ray Traced“

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.907
Intels Entwicklungsabteilung für Grafiklösungen zeigt im Rahmen des heute beginnenden IDF ein neues Projekt. Dabei wurde das Actionspiel „Wolfenstein“ durch den Einsatz von Ray Tracing in Echtzeit optisch aufpoliert. Intel demonstriert nun das Potenzial dieser Technik anhand einiger Bilder und eines Videos.

Zur News: Intel zeigt Projekt „Wolfenstein: Ray Traced“
 
  • Gefällt mir
Reaktionen: andi_sco und Trimipramin
Die Graka im Intel Design ist hammer. :)

Der Rest interessiert mich z.Z. noch nicht.
 
Na ja,für ein paar Spiegel Effekte so eine Immense Rechenleistung verbraten ?
Ich denke mal das für Spiele Raytraing alleine nicht der Weisheit letzter Schluss
sein wird.Und bis das wirklich mal für den End User interessant werden sollte,
ob jetzt in der Cloud oder zu Hause als Steckkarte im PC oder in der Konsole,
werden noch sehr,sehr viele Jahre ins Land gehen.
 
Naja ist zwar noch in der Entwicklung, aber bitte ich will doch in Zukunft kein 2D-Feuer...
Der überwachungsraum ist doch mit der source-engine schon sehr einfach realisierbar und die würde mit 4 Servern im Rücken xxk fps bringen.
 
Wir müssen uns eher die Frage stellen, ob wir das brauchen...
Für Games ist es momentan kaum von grosser Bedeutung.

Vielleicht hat man in ein paar Jahren die nötige Performance.
Dann kann man das machen, was mit Polygonen nicht / kaum möglich ist.
 
interessanter ist doch, das es inzwischen überhaupt möglich ist raytracing in echtzeit zu machen ... das ist cool. bisher kenn ich nur gerenderte dinge :)

noch ein paar jahre und sowas gehört zum gamingalltag.

ein vergleich zu cuda oder stream wär hier mal interessant ... wie stehts dnen mit der theoretischen flop leistung der intelkarte?
 
so einfache games wie cs1.6 oder css als raytracing-version in ein paar jahren wär ma echt geil^^
 
Ich finde es echt löblich, was Intel da an Energie aufwendet um Raytracing voranzutreiben. Wenn man mal bedenkt, dass vor nicht allzulanger zeit mit Quake 4 Raytraycing noch auf ganzen Serverclustern lief um einigermaßen akzeptable Frames bei niedrigen Auflösungen zu erreichen, so ist das hier schon ein guter Schritt nach vorne. Klar dauert es noch Jahre, bis da wirklich für uns ein Nutzen bei rauskommt, aber würde Intel das nicht erforschen, dann würde es noch sehr viel länger dauern. Denn das, was nVidia hier in Raytraycing investiert, das dauert ebenfalls noch Jahre. So ist Konkurrenz gegeben und die Entwicklung wird dadruch schneller voranschreiten.
 
Merkwürdig. Warum ausgerechnet Wolfenstein? Ich finde es charakteristisch gesehen eine sehr schlechte Wahl. Das Spiel hat sich bei mir nur aus einem Grund im Gedächtnis eingebrannt. Die Symbole.
 
Weils eins der letzten Quake 3 Engine Spiele ist und Intel auf der Basis von Quake 3 ihre raytracing Geschichten macht...

Vielleicht mal nachdenken und nicht gleich wieder sinnlos politisch werden... heutzutage ist wohl alles was mit Deutschland (Vergangenheit, Gegenwart, Itengration) zu tun hat, gleich erstmal grundlegend falsch...

Klar warum tun wir uns nicht eigentlich nahtlos in Frankreich eingliedern, da können wir dann getrost wieder etwas negatives über unser Land verarbeiten bzw. aussprechen...
 
auch komplett gelesen?!

...Diese „Many Integrated Core“-Architektur (kurz MIC) ist dabei für zukünftige Hochleistungscomputer und nicht für Endkunden wie Computerspieler gedacht

ist ja teilweise echt Bildniveau, Bilder und Filmchen ankucken und losbrabbeln :rolleyes:

Auf jeden Fall toll, das jetzt auch Intel hier aufdreht :)


EDIT: natürlich wird diese Entwicklung irgendwann auch mal im Konsumerbereich ankommen, ob jetzt als eigenständige Lösung in Form einer Karte, oder im Prozessor verbaut, aber ich denke, dass wird noch ein wenig dauern.
 
Zuletzt bearbeitet:
Raytracing ohne Global Illumination oä sieht einfach scheisse aus, ob echtzeit oder nicht. Derzeit macht das nur Sinn wenn man es teilweise mit rasterisierten Techniken zusammen porgrammiert. Das shadowing sieht schon toll aus, die Reflektionen sind ok, aber das Lighting ist noch deutlich verbesserungswürdig.
 
uch komplett gelesen?!

Zitat:
...Diese „Many Integrated Core“-Architektur (kurz MIC) ist dabei für zukünftige Hochleistungscomputer und nicht für Endkunden wie Computerspieler gedacht
ist ja teilweise echt Bildniveau, Bilder und Filmchen ankucken und losbrabbeln

Auf jeden Fall toll, das jetzt auch Intel hier aufdreht




In dieser Form nicht,das ist richtig.Aber Intel hat ja selber angekündigt das die Technik(damals Larrabee)
in anderer Form auch in zukünftige CPU einziehen wird,also ist in positiver Hinsicht
auch der Endkunde irgendwann in der Zukunft mal davon betroffen. :)
 
Wie unbeeindruckend... das kam ergo eindeutig nicht von der Intel Marketingabteilung, sondern von deren Geeks/Programmierern, die relativ selten ein Faible für gutes Design haben.

G33k: Schau dir mal die Spiegelungen an!
User: Jo... aber die Grafik sieht mal aus wie vorn vor 10 Jahren.
G33k: Aber alles ist geraytraced!
User: Jo... sieht trotzdem scheisse aus.

Wichtig ist nur, was hinten raus kommt. Und das war jetzt mal absolut nicht beeindruckend.

Ajo und der Typ in dem Vid hat nen "feines" Englisch. Und so schön abgelesen. Am besten noch, dass er die Army-Leuts als "Monsters" bezeichnet hat. Und ich frag mich warum der Crap trotz 38 fps ruckelt...
 
zum Thema echtzeit Raytracing siehe smallLuxGPU oder smallptGPU, läuft auf Grafikkarten und auch schon sehr schnell, allerdings noch nicht ganz echtzeit mit der derzeitigen Leistung der Grafikkarten.

und btw, das war Lahm, man hätte bei dem Feuer/Rauch doch definitiv was besseres machen können, z.B. volumetrische Rauchwolken, das wäre beeindruckend gewesen
 
Zuletzt bearbeitet:
Eine blaue "Grafikkarte" mit Intel-Logo - auch wenn es das nicht für Endkunden geben wird - der Anblick ist geil :D.
Dafür dass daran gleich 4 Server-Systeme arbeiten, beeindruckt mich die Optik eher weniger. Physikalisch korrekte Spiegelungen sind ja nett, aber bei dem Aufwand?
 
Zurück
Oben