Bericht Bericht: Raytracing in Spielen 2.0

wahrlich einer der am besten und interessantesten geschrieben Artikel überhaupt!

glückwunsch! =)
 
Sehr toller Artikel, da kann man sich doch garnicht sattlesen. Ich wünsche Daniel Pohl eine erfolgreiche Zukunft bei Intel!
 
Habe ehrlich gesagt etwas mehr von dem Artikel erwartet. Vor allem, da der Verfasser jetzt bei Intel arbeitet. Sieht aber eher so aus, als wäre er da noch in der Einarbeitungsphase oder neuere Erkentnisse hier nicht schreiben darf...
Auf die Möglichkeiten von Larrabe wurde auch nicht eingegangen, stattdessen nur altbekannte gute Skalierbarkeit mit der Core-Anzahl:(

Die Bilder aus Quake nerven auch langsam. Hoffe mal nächstes Jahr Bilder aus einem modernen Spiel zu sehen. Aus "Alan Wake" oder "Crysis" oder irgend einem Spiel, dass einfach etwas realitätsnäher aussieht.

Als Ergänzung zum ersten Arikel aber durchaus akzeptabel.
 
Toller Artikel Daniel. Ich finde es toll, dass Du die deutschen Leser mit solchen Ausführungen versorgst und die nahende Realität "Raytracing in Spielen" für uns auf den neusten Stand hältst. Ich bin sehr gespannt, wann das erste kommerzielle Spiel mit reiner RT-Renderengine erscheinen wird. :)
 
Also ich finde das Thema RayTracing auf jeden Fall sehr interessant, aber irgendwie konnte ich dem Beitrag nicht sehr viel abgewinnen. Wow - Ein Spiegel, ich kann den Feind um die Ecke laufen sehen, wow - ein Portal. Wow - ich kann mehr als 30 Kisten (oder wie viele das waren) mit Raytracing darstellen, was für ein übler Vorteil...

Es ist doch klar, dass das Rasterverfahren an Grenzen gelangt, aber solange Realtime-Raytracing zu noch sowenig in der Lage ist, lohnt sich die Aufmerksamkeit nur wenig.

Und irgendwie muss ich xp_home zustimmen. Dass sich die Performance RT linear mit steigender Core-Anzahl erhöht, wurde auch schonmal gesagt und die Quake-Bilder scheinen auch nichts revolutionäres zu zeigen.

Ansonsten finde ich den Artikel gut geschrieben und als Fortsetzung schon geeignet, aber für den nächsten erhoffe ich mir doch mehr.

Ansonsten wünsche ich dem Autor viel Erfolg bei Intel, soll das RTRT (Realtime Raytracing :freak:) sich durchsetzen!

@xp_home: Alter Schwede, der Forumwitz in deiner Signatur ist echt mal übelst nice! :)
 
Übrigens: Die nächste id Software Engine (nicht idtech5 für Rage sondern die Nachfolge-Engine) soll laut John Carmack Raytracing verwenden :). Quelle.
 
ich find die strategie von intel sehr interessant die neue software ( neue rendertechnik) + neue hardware zugleich auf den markt zu implementieren.

zu diesem zeitpunkt wird der breakeven zum herkömmlichen raster verfahren geschafft sein und ab da an sollten sich die laut diagramm gezeigten vorteile als sehr nutzbar erweisen.

keine bange NV und ATI werden auch ihren teil daran haben. bloß steckt da INTEL nun mehr energie in neue techniken denn in aktuell verwendete. das scheint zum weitblick zu zeugen.

bin gespannt wie sich das weiterentwickelt !
 
Bereits der erste Artikel fand ich sehr interessant.
Trotzdem bleiben einige Unklarheiten offen. Aktuell werden ja "Soft-Shadows" immer wichtiger. Wie verhält sich dies bei RT? Wird der Rechenaufwand auch soviel höher bei Soft-Shadows gegenüber den "normalen Schatten"
Zudem würde ich mich interessieren wie leistungsfähig die 7 Cores einer PS3 für RT sind. Unmöglich oder einfach geringe Auflösung/Framerate?
 
IgG schrieb:
Übrigens: Die nächste id Software Engine (nicht idtech5 für Rage sondern die Nachfolge-Engine) soll laut John Carmack Raytracing verwenden :). Quelle.

wow danke für den Artikel, dass nenn ich mal einen guten Artikel!

Carmack ist mal einer der nicht sagt : "das ist der richtige weg, kommt lemminge folgt mir in den tot..." sondern er diskutiert das von allen Seiten.. TOP!


@igG : ja aber nicht das Raytracing von dem Intel spricht.. er meint das das was Intel macht keine Zukunft hat.. Sondern man anders an die Sache rangehen muss.

Bezogen auf diesen Artikel sagt Carmack : " They’ve certainly been hacking on the Quake code bases to at least give them something that is not an ivory tower toy, but they’re working with something that is previous generation technology and trying to make it look like something that is going to a next-gen technology. You really can’t stretch media over two generational gaps like that, so they’re stuck. "

ich finde gut das er das von allen Seiten beleuchtet und nicht behauptet es gibt nur den einen weg..
 
Raytracing gehört die Zukunft, daran führt kein Weg vorbei. Und wenn die ersten 64-Core PCs daheim stehen, wird sich Raytracing auch für den Desktop-Markt etabliert haben.

LG
Ganeagon

PS: Ausführlicher Artikel, den ich mit gefallen gelesen habe.
 
HG_Horny schrieb:
Ich arbeite in einem Forschungsinstitut unter anderem auch für intel.

Hm... dann sollte das hier ein Klacks für dich sein:

Zeige dass die n stellige Paritätsfunktion, dargestellt in KNF bzw. DNF, mindestens 2^(n-1) Terme besitzt.
 
Sehr informativer Artikel, der sich IMHO dadurch auszeichnet eben nicht zu sehr in die Mathewelt abzuschweifen, denn das ist für die meisten (auch Programmierer, die irgendwann so eine Engine nutzen) unerheblich. Bleibt abzuwarten, wie Nvidia + ATI/AMD auf diese Entwicklung reagieren, denn man benötigt ja sagen wir bei etwa 24 Kernen in 3 Jahren keine hochgezüchteten Grafikkarten mehr. Man könnte mutmassen, dass ATI diese Entwicklung bei der Fusion vorausgesehen hat - Nvidia muss sich wohl irgendwas einfallen lassen. Voraussetzung wird jedoch die Implementation in DirectX sein. Nutznießer welcher Entwicklung auch immer ist somit wie gehabt MS ;-)

LG Alex
 
ph_glitsch schrieb:
Bereits der erste Artikel fand ich sehr interessant.
Trotzdem bleiben einige Unklarheiten offen. Aktuell werden ja "Soft-Shadows" immer wichtiger. Wie verhält sich dies bei RT?

Natürlich ist er nicht auf Schatten bei RT eingegangen, allgemein wurde nichts über die Nachteile von RT geschrieben , wo die schatten mit rein fallen . Ich finde es auch traurig von CB das ein solch einseitiger Artikel einer breiten masse von meist unwissender Leute vorgesetzt wird. Resultat kann man an den Kommentaren erkennen.

Und nein Intel wird RT kaum alleine durchboxen können, und warum sollten sich ATI/AMD und Nvidia darauf einlassen ? Die beiden haben massig Know How im Rasterizing wo intel nichtmal ansatzweise auf Aufgenhöhe ist.
Klar hat RT Vorteile ... nur das sachen wie Kollisionsmodelle in Spielen unbedeuten sind, da doch lieber gefaktes Rasterizing.
Naja in einer dekade kann man sich ja nochmal über RT unterhalten.

mfg
 
Zuletzt bearbeitet:
Drager schrieb:
Bezogen auf diesen Artikel sagt Carmack : " They’ve certainly been hacking on the Quake code bases to at least give them something that is not an ivory tower toy, but they’re working with something that is previous generation technology and trying to make it look like something that is going to a next-gen technology. You really can’t stretch media over two generational gaps like that, so they’re stuck. "

Crysis zu raytracen wäre auch etwas zu viel für die heutige Technik :freak: Ich nehme an, Crysis hat noch nicht den BreakEven Punkt erreicht wo Raytracing schneller ist als Rasterisierung, bzw. eine heutige CPU im Raytracen von Crysis schneller ist als eine heutige GPU im Rasterisieren von Crysis.

Und alle 2 Jahre ein neues Game umcoden auf Raytracing ist doch ein bisschen Overhead.

Aber Recht hat er mit seiner Aussage schon.
 
ChilliConCarne schrieb:
Hm... dann sollte das hier ein Klacks für dich sein:

Zeige dass die n stellige Paritätsfunktion, dargestellt in KNF bzw. DNF, mindestens 2^(n-1) Terme besitzt.

lol, hab ich erwähnt, das ich professor wär oder ähnliches??
Hau ma nich hier auf die Kagge!
ich arbeite an einem CD-Messgerät (critical dimension)
und bin dafür zuständig, das die zuständigen Technologen, die deine frage aus dem linken handgelenk beantworten könnten, ihre testergebnisse bekommen. ich selber mach mir kein kopf.

Wenn deine Frgae ernst gemeint war, wovon ich nicht ausgehe,
dann empfehle ich dir diese seite: www.elektroniknet.de
sehr informativ für Leute, die sich wirklich etwas damit beschäftigen wollen, wie weit die
heutige technologie ist.
 
Wie können einige Personen bloß darauf kommen, dass man in Zukunft wirklich RT Spiele auf den CPUs laufen lässt?
Wenn, dann werden das höchstens auf RT spezialisierte CPUs sein, oder noch besser (womit ATI/nvidia auch leben könnten), die heutigen GPUs entwickeln sich so weit, dass auch RT darauf läuft. (Letzteres nur Mutmaßung.)
 
Deinorius schrieb:
Wie können einige Personen bloß darauf kommen, dass man in Zukunft wirklich RT Spiele auf den CPUs laufen lässt?
Wenn, dann werden das höchstens auf RT spezialisierte CPUs sein, oder noch besser (womit ATI/nvidia auch leben könnten), die heutigen GPUs entwickeln sich so weit, dass auch RT darauf läuft. (Letzteres nur Mutmaßung.)

hab die frage schonmal gestellt: liese sich auf CUDA basierend eine RT bibliothek realisieren?

danke für fundierte antworten
 
Heelix schrieb:
... nur das sachen wie Kollisionsmodelle in Spielen unbedeuten sind, da doch lieber gefaktes Rasterizing.

Ehm, Quelle, Grund, irgendeine Ausführung?
RT ist in meinen Augen gerade wegen einfacher Kollisionsabfrage im Vorteil.
 
Wusste garnicht, dass ihr Werbung als Artikel tarnt? Der Artikel ist dermaßen schlecht - vielleicht hätte man besser den von jemandem verfassen lassen, der weniger voreingenommen ist und auch auf die Nachteile (z.B. Sterilität) hinweisen kann...
RT ist wirtschaftlich komplett uninteressant und wird sich im Spielemarkt nie durchsetzen. Hier geben NV und AMD den Ton an, nicht Intel. Und die werden weiter Chips bauen, die vornehmlich als Rasterizer konzipiert sind. RT ist da höchstens ein Nebeneffekt.
Wer denkt, RT ist die Zukunft ist für mich einfach nur ein Traumtänzer...
 
Zuletzt bearbeitet:
Zurück
Oben