News Video zum Cloud-Raytracing auf dem Tablet

Raytracing ist nur ein Oberbegriff. Raytracing hat mit Fotoraelismus erst mal wenig zu tun, und Raytracing ist auch gar nicht das Ziel. Das eigentliche Ziel kann nur eine glaubwürdige Simulation echten Lichtverhaltens sein, und dieser Ansatz von Intel hat damit so wenig am Hut, das er weder in 10, 20 oder sonst wie viel Jahren in der Lage sein wird, eine Szenerie realistisch wirken zu lassen.

Das einzige was Intel präsentiert, ist ein Art Plugin für eine 10 Jahre alte Spieleengine, welches das Spiel in die Lage versetzt, reflektierende und refraktierende Flächen nach genau den optischen Gesetzen zu berechnen, die man in der neunten Klasse in der Realschule lernt(Einfallswinkel=Ausfallswinkel sowie Ausfallswinkel=Einfallswinkel x Refraktionsindex).

Wer jetzt hofft, dass bei ausreichender Hardwarebestückung und Performance irgendwann ein Foto dabei raus kommt, der hat das Prinzip nicht verstanden. Selbst bei einer illusorischen Zahl, wegen mir 100 Billionen Rechenoperationen/pro sec., erhällt man schließlich wieder genau die selbe krummelige Wolfensteingrafik, zwar flüssiger und in noch höherer Auflösung, aber keinen Deut realistischer.

Wenn loben, dann also die schnelle und flüssige Verteilung der Berechnung über die Cloud. Vielleicht geht es ja auch nur darum.
 
Zuletzt bearbeitet:
miagi schrieb:
Moment mal das es keine fortschritt bei raytracing gibt ist sicherlich falsch aber auf einem anderen gebiet.

Du hast recht, ich war zu unpräzise. Ich meinte natürlich Echtzeitraytracing und den damit gefühlten Innovationsstillstand.

Das Intel jetzt mit riesen Tamtam erzählt was die Cloud so alles kann, wow. Ist irgendjemand übrerascht, dass in der Cloud Rechenleistung zur verfügung gestellt wird, die von mobilen Geräten abgerufen werden kann? Ist das die neue Sensation?! Wenn man zynisch wäre, könnte man auch sagen, Intel hat ihrem bisherigen Server (woraus auch immer der besteht) einfach Wireless-Display verpasst und dafür haben sie jetzt 4 Monate gebraucht (letzte News zu RT 4.0 im Februar). Hut ab!

Erinnert sich noch jemand an diesen 3D-Haus-/Raum-/Wohn-Designer, der auch auf RT basierte? Dort wurden über x-NVIDIA Grakas Architekturänderungen berechnet. Natürlich zentral und die Daten wurden dem Berater vor Ort (beim Kunden) interaktiv und in Echtzeit zur Verfügung gestellt. DAS war wenigstens mal ne sinnvolle Anwendung und Innovation. Hab den Link leider nicht mehr parat, vllt. ein anderer User?


Was hätte man also von Intel erwarten können? Man hätte sich mal abseits von Wolfenstein bewegen können. Z.B. hätte man einen Raum aus dunklen Marmorwänden designen können an dem Wasser herunter läuft. Dabei hätte man das Wasser aus x-Millionen Dreiecken gestalten können. Dazu variable Lichtverhältnisse z.B. eine wackelnde Lampe und ein paar Gegenstände die sich durch den Raum bewegen. Eine unheimlich schwebende Glaskugel meinetwegen (tausendfache Lichtbrechung vom Licht-reflektierenden Wasser inklusive). Der Fantasie wären keine Grenzen gesetzt (siehe dem 3D-Designer) aber Intel zeigt uns seit zwei Jahren das immer gleiche STILL-Leben. Dafür kann ich mich leider schon lange nicht mehr begeistern (so toll RT eines Tages auch aussehen könnte).
 
Zuletzt bearbeitet:
Eyefinity schrieb:
Ich verstehe nicht warum alle dieses bescheuerte Ray Tracing so interessant finden?!

Nunja.
Im gegensatz zum 'üblichen' rendern der Bilder wie man es aus Spielen her kennt, wo gefaked wird bis die Scheue Brennt, wird beim Raytracing(wie name sagt) der weg des Lichtstrahls physikalisch korrekt berechnet. Das schließt die beschaffenheit und eigenschaft von unterschiedlichen Materialien und deren einfluss auf das Licht mit ein. Je höher dabei die anzahl der mit in diese berechnung einflissenden beachteten reflexionen umso höher der rechenaufwand. Und der kennt nach oben hin kaum grenzen. Es macht natürlich keinen sinn in einer Szene Einflüsse mit ein zu beziehen die nicht sichtbar sind.

Beim Darstellen einer 3D Szene mit den 'üblichen' Mitteln wie man sie aus Spielen kennt, wird nur versucht eine Szene realistisch aussehen zu lassen. Mit dem korrekten Weg des Lichts hat das wenig zu tun.

Beim Raytracing wird die Szene Realitätsgetreu berechnet. - Ohne Tricks wie Bumpmapping, Stencilshadows, DoF, Tesselation, Lightmaps...ect.
 
Ich finde Intel sollte das nicht an Spielen demonstrieren, sondern an anderen Dingen, die wirklich von Raytracing profitieren können...

Also mir ist eigentlich egal, ob das Spiel nun physikalisch korrekt dargestellt wird...
Hauptsache die Grafik ist ansprechend und natürlich auch in einem bestimmten Maß realistisch....

Für die reine Wissenschaft ist das für Simulationen sicherlich sehr interessant...

und ein Vergleich zw. Knights Ferry und einer GTX 580/HD6970 ist ziemlich unnötig...
 
WIE GEIL IST DENN DIESE Tastatur ????
Weis wer von euch welcher Hersteller bzw. wos sowas zu kaufen gibt ????

RayTracing ist eine tolle Sache um Lichteffekte korrekt zu rendern...
Gewiss gut für Kinofilme und vorgerenderte Scenen in Games, aber für Spiele ist dass alles reinster schwachsinn... warum das Rad neu Erfinden, wenn es schon längst Autos gibt ???

Gruß
 
@ Eyefinity

Wegen dem Cloud-Computing bei Intel... vielleicht fasse ich das ja falsch auf, aber ich sehe bei Intel in der ganzen Sache nur eine Beispielanwendung für ihre MIC Architektur. Intel bietet die Technologie fürs Cloud-Computing an, aber was die Kunden damit machen ist eine anderes Thema.

Deswegen gibt es auch keinen Grund im Falle von Intel sich darüber aufzuregen.
 
Zuletzt bearbeitet:
Eyefinity schrieb:
Volkommen falsch! Die einzige Firma ausser Intel welche mal Raytracing änliche Ansätze verfolgte was Videologic mit ihrer Kyro II. Natürlich läuft das Designe Garage Demo auf einer GTX400/500 ist ja auch von nVidia und soll Cuda bewerben. Ansonsten gibt es keine Raytracing Engines in Spielen oder Techdemos!

Dann erkläre den Usern hier doch mal was Ambient Oclussion im Nvidia Treiber für ein Algorithmus ist:freak:

Diese Grafikoption Umgebungsverdeckung wird auch in Spielen aktiv genutzt und nun in die Ecke und schäm dich für deine falsche Behauptung

Alle selbst AMD und Nvidia arbeiten an der Weiterentwicklung solcher Algorithmen nicht nur Intel und setzen sie bereits schon aktiv ein zur Bildverbesserung bei der Wiedergabe von autentischen natürlichen Schatten/Reflektionen

Natürlich kostet das ganze z.Zt noch eine mörder Rechenleistung je mehr Strahlen vorhanden sind/berechnet werden müssen.Trotzdem ists nicht sinnlos nur weil du es nicht verstehst wozu eine fotorealistische Abbildung/Berechnung ohne simmulierte Reflektionen oder auch Schattenwurf gut sein soll


Alle wollen sie immer realistisch wirkendere Games aber wenn sie was nicht verstehen wird sowas für negativ befunden auch wenns für die Entwicklung kontraproduktiv ist
 
Zuletzt bearbeitet:
scully1234 schrieb:
Dann erkläre den Usern hier doch mal was Ambient Oclussion im Nvidia Treiber für ein Algorithmus ist:freak:

Aus Wikipedia: Umgebungsverdeckung (englisch Ambient Occlusion, AO) ist eine Shading-Methode, die in der 3D-Computergrafik verwendet wird, um mit relativ kurzer Renderzeit eine realistische Verschattung von Szenen zu erreichen. Das Ergebnis ist zwar nicht physikalisch korrekt, reicht jedoch in seinem Realismus oft aus, um auf rechenintensive globale Beleuchtung verzichten zu können.
LINK: http://de.wikipedia.org/wiki/Umgebungsverdeckung
Was bitte soll das mit Raytracing zu tun haben (Raytracing ist ja eine rechenintensive globale Beleuchtung, auf die wie beschrieben verzichtet werden kann)? :freak: Und wenn es auch ähnlich wäre, dies (AO) ist eine zusätzliche Berechnung des Bildes, Raytracing ist eine grundlegende Technik wie z. B Rasterisierung eben eine ist. Ein Hybrid Auto ist auch kein Elektromobil;)

Über Computergrafik: http://de.wikipedia.org/wiki/Computergrafik
Was mit Rasterisierung und einer normalen Game Engine möglich ist:
http://www.pcgameshardware.de/aid,8...ue-Werke-Artikel-der-Woche/Action-Spiel/News/
 
Eyefinity schrieb:
LINK: http://de.wikipedia.org/wiki/Umgebungsverdeckung
Was bitte soll das mit Raytracing zu tun haben (Raytracing ist ja eine rechenintensive globale Beleuchtung, auf die wie beschrieben verzichtet werden kann)? :freak:

K.A was das schon wieder für ein Stuss sein soll,aber Raytracing ist nichts weiter als das Verfolgen von Strahlen und ihrer Reflektionen/Streuungen von ihrem Ausganspunkt über Körper im Raum bis zum Verlassen des sichtbaren Bildes

Ums mal ganz simpel für dich auszudrücken

Damit bin ich zum Einen in der Lage Reflektionen physikalisch korrekt abzubilden,ich bin aber ebenso in der Lage vorherzusagen wo sich im Raum aufgrund eines lichtundurchlässigen Körpers oder auch nicht ein Schatten bildet und wie intensiv dieser ist(diesen Weg geht Nvidia), hier kommt AO(Umgebungsverdeckung) ins Spiel

Dort ist herkömmliche Rastergrafik deffinitiv unterlegen auch wenn der Rechenaufwand z.Zt noch immens ist

Also entweder du glänzt nun mal nicht nur mit deinen kopierten Wiki Links oder ließt dich mal in die Materie ein bevor du etwas negativ bewertest dessen Bedeutung dir gar nicht klar ist
 
Zuletzt bearbeitet:
Eyefinity schrieb:
Raytracing ist ja eine rechenintensive globale Beleuchtung, auf die wie beschrieben verzichtet werden kann

Ich weiß nicht ob das so stimmt. Wiki sagt es gibt verschiedene RT-Verfahren. Es muss nicht zwangsläufig Global Illumination angewandt werden. Kenne mich damit aber zugegebenermaßen zu wenig aus.
 
@scully1234: Du solltest mal ein richtig informieren um es mal simpel für Dich auszudrücken;)

Ein weiterer Link über AO: https://www.computerbase.de/news/grafikkarten/geforce-185-66-bringt-ambient-occlusion.24586/
Hier noch'n Link (der selbe wie von Kopi80) damit Du ev lernst was Raytracing ist: http://de.wikipedia.org/wiki/Raytracing

Wenn Du Glaubst Dein nVidia Grafikkarte verschönert Deine Spiele mit Raytracing (welches laut Deiner Aussage der Grundstein für AO sein soll) bekomme ich feuchte Augen vom lachen!

Und was hast Du gegen Links? Leute gibts....
Ach ja, ich kann meine Beiträge in Deinen Zitaten auch ganz gut ohne fette Schrift lesen, aber mach nur...
 
Eyefinity schrieb:
@scully1234: Du solltest mal ein richtig informieren um es mal simpel für Dich auszudrücken;)

Ein weiterer Link über AO: https://www.computerbase.de/news/grafikkarten/geforce-185-66-bringt-ambient-occlusion.24586/
Hier noch'n Link (der selbe wie von Kopi80) damit Du ev lernst was Raytracing ist: http://de.wikipedia.org/wiki/Raytracing


...

Du kommst ja schon wieder mit deinem schnöden Wiki Link ohne dich über die technische Basis von AO bei Nvidia informiert zu haben:rolleyes:

Und der CB Link erklärt zwar was AO ist nicht aber wie es technisch umgesetzt wird

Eyefinity schrieb:
Wenn Du Glaubst Dein nVidia Grafikkarte verschönert Deine Spiele mit Raytracing (welches laut Deiner Aussage der Grundstein für AO sein soll) bekomme ich feuchte Augen vom lachen!

...

Falsch ich glaub nicht nur ich kann es sogar in einer technische Abhandlung belegen das es so ist


Ambient Occlusion ist in der Lage, sowohl das Inside-Out- als auch das Outside-In-Verfahren zu nutzen. Ersteres baut stark auf dem bekannten Raytracing auf, findet jedoch fast nur im Offline-Rendering Anwendung, letzteres betrachtet jedes Objekt an sich und dreht dieses um zufällige Raumwinkel. Die gemittelten Werte ergeben einen ähnlich aussehenden Ambient-Occlusion-Effekt
 
Zuletzt bearbeitet:
Nun, eventuell weisst Du ja wirklich von was Du sprichst und ich bin im Unrecht, mag sein oder auch nicht;) Ich klinke mich an dieser Stelle aus und übergebe die Bühne und das Micro an Dich:daumen:

Aber warum schreibst Du immer nVidia in Deinen Beiträgen. Glaubst Du etwa AMD bietet kein AO?
Link::stacheln: http://www.hardwareluxx.de/index.ph...on-hd-5870-the-game-has-changed.html?start=10
"Ein weiteres wichtiges Feature ist High Definition Ambient Occlusion (HDAO). Die Grafikkarte soll dabei erkennen, wo in der jeweiligen Szene der Lichteinfall reduziert wird oder gänzlich ausfällt und dunkelt diese Bereiche dann ab "

Mal keinen Wiki Link :D:D:D

Back to topic: Raytracing ist unausgereift, eignet sich momentan nur wirklich für vorgerenderte Szenen (Animationsfilme). Leistung steht in Echtzeit (Games) in keinem Verhältnis zur Rasterisierungstechnik. Cloudcomputing is so was von derbe für'n Ar*** (totale Abhängigkeit).
Es scheinen Bildnachverbesserungsverfahren (AO/HDAO) zu exisitieren welche irgendwie (ich seh den Zusammenhang aber nicht) was mit Raytracing zu tun haben?! Last but not least: Intel sucks:mussweg:
 
Raytracing ist schon ausgereift. Immerhin existierte es bereits vor (!) der Erfindung der Rasterisierung.

Die Vorteile von Raytracing sind:
- exakte Lichtberechnung (mehr oder weniger, kommt drauf an, wie komplex man es machen will. siehe AO)
- quasi unbegrenzt viele Polygone/extrem hoher Detailgrad bei gleichzeitig nur logarithmisch zunehmender Performanceeinfluss

Nachteile:
- Komplexität der Berechnungen (1900x1200 Primärstrahlen + sagen wir mal 10 Sekundär-, Tertiär-, usw. Strahlen müssen berechnet werden = 22,5 Mio Strahlen. Da ächzt jeder Rechner)


Die Rasterisierung ist nur deshalb so schnell, weil immer nur Näherungsverfahren und viele Tricks verwendet werden. Dadurch leidet die Bildqualität und der Detailgrad (irgendwo muss ja gespart werden).


Aber seht es positiv. Allmählich kommt die Hardware in die Leistungssphären, Raytracing in annehmbaren Auflösungen flüssig berechnen zu können. Ich bleibe bei meiner Prognose: In 10 Jahren ist Raytracing ein echter Konkurrent zur Rasterisierung im Consumer-Markt (Spiele, etc.).
 
e-Laurin schrieb:
Aber seht es positiv. Allmählich kommt die Hardware in die Leistungssphären, Raytracing in annehmbaren Auflösungen flüssig berechnen zu können. Ich bleibe bei meiner Prognose: In 10 Jahren ist Raytracing ein echter Konkurrent zur Rasterisierung im Consumer-Markt (Spiele, etc.).

Nun wenn die Jungens von Caustic Graphics mal endlich in die Puschen kommen könnte das mit einem Minimum an Hardwareperformance und durchdachten Softwarealgorithmen vielleicht schon frühere geschehen:)

klick

Das interessante daran sind vor allem die Hardwarevorgaben(Steckkarte) mit der diese Szenen mit diesem Detailgrad berechnet wurden (2x100MHZ Chips)

Da beißen sich Intel/AMD/Nvidia die Zähne dran aus mit ihren High Performance Chips

Allerdings ist Caustic Graphics mittlerweile geschluckt worden von Imagination Technologies und wer ist einer der größten Lizenznehmer dieser Firma:D

Viele namhafte Firmen der Halbleiterindustrie gehören zu den Lizenznehmern von ImgTec. Dies sind unter anderem Centrality, Digital One, Freescale, Frontier Silicon, Future Waves, Intel, Mavrix, NEC, NXP, Renesas, Samsung, SEGA, Sharp, Sunplus, Texas Instruments und Apple.

1+1=

Klick
 
Zuletzt bearbeitet:
Zurück
Oben