News Video zum Cloud-Raytracing auf dem Tablet

Eyefinity schrieb:
Ich verstehe nicht warum alle dieses bescheuerte Ray Tracing so interessant finden?!
Wenn du es nicht verstehst, warum liest du dann nicht einfach nach? Beispiele:

  • Mehrfach festgestellt wurde, dass die asymptotische Laufzeit von Raytracing in Abhängigkeit von der Anzahl der Primitiven logarithmisch ist.

  • Weiterhin ist es möglich, den gesamten Raytracing-Vorgang zu parallelisieren.
Bloß weil du Anfangs den möglichen Nutzen nicht erkennst, muss doch nicht sämtliche Forschung dazu eingestellt werden. Dann würden wir nicht mehr vorankommen.
 
EiRoGGe schrieb:
Ist das nicht der von dem auch die Raytracing-Artikel zur Weihnachtszeit hier auf CB immer kommen?

Jup, da isser wieder, der Daniel.

naturtalent schrieb:
Was ist da jetzt so besonders dran?

Man brauchst jetzt weniger Hardware ... für weniger Auflösung, versteht sich. :lol:

@topic

Das klang anfangs alles mal ganz spannend, aber ich seh da seit einiger Zeit irgendwie keine Fortschritte mehr. Als ob sämtliche Optimierungen bereits ausgereizt sind und die Hardware nach wie vor zu langsam ist.
 
In 3 Jahren kann jedes Tablet das Bild direkt am Gerät rendern und in 6 Jahren kann das jedes bessere Smartphone. Wozu all der Aufwand ?

Ein modernes Smartphone hat mehr Rechen- und Grafikleistung als ein alter P4.

Viel Lärm um nix.
 
Nö, bis das wirklich so auf nem Tablet berechnet werden kann, wird es noch ein wenig länger dauern als nur 3-6 Jahre.

Leider jedoch eher unspektakulär, bis die auf Reflektionen (okay, DER Vorteil von Raytracing) ist es halt trotzdem nur die olle Doom 3 Engine.

Was ich aber recht geil fand, war sein Kommentar, "it's not running on the device but on the cloud - which is over here.

Das erinnert doch stark an den genialen XKCD-Comic "The Cloud"

the_cloud.png
 
Tumbleweed schrieb:
Wenn du es nicht verstehst, warum liest du dann nicht einfach nach?
Bloß weil du Anfangs den möglichen Nutzen nicht erkennst, muss doch nicht sämtliche Forschung dazu eingestellt werden. Dann würden wir nicht mehr vorankommen.

Hast Du auch wirklich GELESEN was ich geschrieben habe? Ich verstehe durchaus wie diese Technik funktioniert, ich sehe auch, dass die Technik grundsätzlich Potential hat. Aber erklähre mir doch bitte wo der Vorteil liegen soll wen ein 5 Einheiten hoher (wie ein HP Proliant DL 580 G7 Server) Serverkübel voller dieser verblöd... Intel "Grafikkarten" benötigt wird, um optisch das selbe Resultat zu erziehlt wie eine einzelne HD6970 oder GF580:freak: Da Intel dieser Schuss gewaltig im Ofenrohr detoniert ist, wollen sie nun das ganze als Cloud Dienst aufziehen und uns weiss machen dass dies mit herkömmlichen GPU's so nicht möglich währe.

Ich finde es einfach saukomisch wie das halbe Forum in sektenähnlicher Euphorie versinkt wenn Intel mal wieder irgend ein absolut unspektakuläres Raytracing Video präsentiert. DAS VERSTEHE ICH NICHT!!!
 
Das Glas sieht trotzdem unecht aus ... merkwürdig :(
 
Eyefinity schrieb:
Ich verstehe nicht warum alle dieses bescheuerte Ray Tracing so interessant finden?!

Auch wenn es die "bessere" Technik wäre, Intel schlägt damit einen komplett falschen Weg (in unsere 100% Abhängigkeit an Sie) ein:kotz:
Wer auf einem Tablet daddeln will soll sich Tegra 2 oder 3 (was auch immer) anschaffen. Das letzte was ich in meinem Leben tun werde ist mich an einen so bescheuerten Cloud Dienst von Intel anzumelden!
Prozessor mit Softwareupdate Funktion, Cloud Dienste von Intel, läuten da nur bei mir sämtliche Alarmglocken?

Mhh unwissenheit?! Raytracing ist ein Globales Beleuchtungsmodell.. vollig unabhängig von Intel... es geht dabei darum das ein Primärstrahl vom Augpunkt(Betrachter) zu einem Objekt geht, dieser wird dann aufgeteilt in Reflexions,Transmissions usw. Strahlen.. diese werden weiter Verfolgt und diehnen dann dazu auf dem 1. Objekt z.b. Spiegelungen darzustellen... daher heißt es "Raytracing" Strahlenverfolung... Es ist dabei lediglich ein Algorithmus... es hat NIX mit Intel zu tun... Wenn ich es noch richtig weiß, geht es darum das man diesen Algorithmus auch auf reinen CPU Systemen laufen lassen kann da z.b. kein Z-Buffer (wie beim Z-Buffer Algorithmus) verwendet wird... (Vergleich hinkt etwas da ich grade Beleuchtungsrechnung und nen Visibilitätsalgorithmus vergleiche)

btw. : Raytracing dient IMHO nicht zur Berechnung von Objekten... dafür werden andere Algorithmen verwendet -> es ist ein REINER Beleuchtungs/Transmissions/Reflexionsalgorithmus.... -> Natürrlich kann dieser auch erweitert werden... vondaher kann es bei Intel natürrlich auch noch anders laufen...


edit: Leute... selbst ne Nvidia oder ATI Grafikkarte berechnet eure Spiele mit Raytracing.. es richtet sich dannach wie das Spiel programmiert ist!

es geht hier um einen ALGORITHMUS! ebenso gut könnte man Raycasting verwenden... gnah...
 
Zuletzt bearbeitet:
Eyefinity schrieb:
Ich finde es einfach saukomisch wie das halbe Forum in sektenähnlicher Euphorie versinkt wenn Intel mal wieder irgend ein absolut unspektakuläres Raytracing Video präsentiert. DAS VERSTEHE ICH NICHT!!!
Was für ein Unsinn...

Wie PUNK2018 schon erwähnte hat das überhaupt nichts mit Intel oder Nicht-Intel zu tun. Die Technik ist nicht abhängig von irgendwelchen Marken. Man muss selbst schon sehr verblendet sein, wenn man bei jedem Thema nur noch auf die Marken-Konkurrenz-Keule setzt.

Nicht immer von sich selbst auf andere schließen, Mister Eyefinity mit ATI Avatar, AMD CPU und ATI Grafikkarte. Ein Schelm wer Böses dabei denkt...
 
Zuletzt bearbeitet:
Kopi80 schrieb:
@topic
Das klang anfangs alles mal ganz spannend, aber ich seh da seit einiger Zeit irgendwie keine Fortschritte mehr. Als ob sämtliche Optimierungen bereits ausgereizt sind und die Hardware nach wie vor zu langsam ist.
Moment mal das es keine fortschritt bei raytracing gibt ist sicherlich falsch aber auf einem anderen gebiet. soweit ich weiss werden animierte filme mit der raytracing technologie realisiert. da gibt es bestimmt jede menge fortschritt, wenn es aber um, ich nenne es mal, echtzeit-raytracing geht kannst du vll druchaus recht haben aber der grund muesste doch klar sein oder?

Es gibt keine privatkunden und wohl kaum entwickler die fuer echtzeit-raytracing in irgend einer form geld bezahlen und so ist es doch logisch das der fortschritt besonders gegenueber einem milliarde schweren DirectX-Markt mickrig aussieht.

Ausserdem solltest du bedenken das games in 'echtzeit-raytracing' auf ueblicher consumer-hardware bei gleichen fps werten wohl deutlich schlechter aussieht als ein herkömmlich programmiertes games. (also das licht in dem fall, nicht das ganze game, is klar oder?)

Steigt die hardware-leistung rasant weiter und wird mit herkömmlichen methoden immer hoehre qualitaet angestrebt, ist aber auch klar das raytracing immer attraktiver wird. Besodners weil man sich mit reflexionen wie bei wasser schon immer schwer getan hat in games etc.
Der ansatz von Valve ist z.B. das man erstmal die umgebung ohne wasser rendert, dann das wasser rendert(also die eingeschraenkte sichtweite und verschmutzung etc) und dann die reflexionen berechnet und das ganze dann uebereinander legt, letztendlich 3-facher auffand gegenueber einem wasserfreien areal :P
 
Zuletzt bearbeitet:
es ruckelt immernoch....
 
Was sich hier einige so aufregen. Sobald irgendwo Intel oder AMD in einer News steht, versuchen die Fanboys beider Seiten sofort einen Flamewar anzuzetteln. Vor allem fallen in letzter Zeit sehr die militanten AMD Fans auf. Diese sind oft besonders dreist und werfen mit immer wieder den selben Unwahrheiten um sich. Die Intel Fanboys haben sich immer noch nicht verändert "AMD ist was für arme Menschen und Hippies. Nur Intel ist das einzig wahre - die sind 700% schneller als AMD und ich bin der absolute Oberchecker, weil ich einen Gulftown drin hab."
Bei der AMD Fraktion hat sich eine Radikalisierung eingestellt -was auch daran liegen mag, dass mit Sandy Bridge viele ehem. AMD rational denkende Sympathisanten abgesprungen sindm weil der Sandy eben mittlerweile beim selben Preis das AMD Paket schlägt. Der i5 2100er Dualcore mit HT versägt die kleinen AMD 6 Kernen :freak: und braucht dabei nur ein viertel so viel Leistung.
Ich bevorzuge ja auch AMD - aber ich werde mir sicher nicht, nur aus Sympathie das schlechtere Produkt kaufen.
So jetzt dürft ihr auf mich einprügeln.

Endlich zum Thema
Ich sehe leider kaum Fortschritt bei Raytracing. Diese Techdemo haben die schon vor 3 Jahren gezeigt. Und es sieht nicht so toll aus. Wenn man 2 Knights Ferry Karten braucht, um diese Demo auf Desktopauflösung mit 25-30fps laufen zu lassen, läuft irgendwas falsch.

Aber das ist okay. Die Raytracing Hardware ist noch am Anfang ihrer Entwicklung. Knights Ferry ist erst die 2. Generation der MIC Chips und noch nicht einmal käuflich zu erwerben. Knigts Corner wird einiges draufsetzen und vermutlich die doppelte Leistung bringen (deutlich mehr Kerne, Architekturüberarbeitung und 22nm Fertigung sind angestrebt). Wie lange hat es denn gedauert, von den ersten (also wirkliuch die ersten, die kaum bezahlbar waren oder gar nicht erwerbbar) 3D Karten, bis hin zu akzeptablen Framraten bei moderaten Preisen? Das dürften auch locker 5-7 Jahre gewesen sein. Außerdem muss Raytracing nicht zwangsläufig auf den Intel Karten oder den CPUs laufen. Die Programmiersprache ist superskalar (ist das das richtige Wort?) und läuft theoretisch auf unendlich vielen Rechenwerken, während Rasterisierung ja schon bei 2GPUs oder 5D Shadern Probleme bereitet. Ich denke mit leichten Architekturanpassungen bei AMD und nVidia wird das auch ohne Probleme auf den Shadern laufen. Und da hat man bis dahin sicher eben mal 1000 (1D) auf einer Karte.
Dazu kommen die immer schnelleren CPUs, mit mehr Kernen. Wer sagt denn nicht, dass, wenn es in einfach mal geraten 8 Jahren Marktreif ist, nicht die Kerne 6-12 nur für Raytracing freigehalten werden und die GPU auch noch damit arbeiten kann?

Außerdem ist Raytracing die Lösung für Multi GPU. Wenn man die Sprache verwendet, gibt es keine Mikroruckler - also ist es denkbar, dass die Graka Schmieden nicht mehr ihre Superchips bauen, sondern einfach eine kleine Armee von Chips mit meinetwegen 100 Shadern auf ein PCB werfen, ohne dass es Probleme gibt. Das war ja auch schon angedacht oder von 3dFx auch so praktiziert. Die Vodoo mit 8 GPUs lässt grüßen und die Dual Voodoo war ja schon fast gehobener Consumermarkt.

Ich vermute mal, dass es am Ende auf eine Mischung von Raytracing und Rasterisierung hinausläuft. Letztere macht ja auch Forschritte - oder wird sie machen, wenn die neuen Konsolen da sind, nur um dann wieder zu verharren. Dann hat man die guten Texturen und effekte der Rasterisierung und die genialen Lichteffekte aus Raytracing. Lichteffekte machen viel aus. Selbige haben etwa bei der Stalker Reihe dafür gesorgt, dass die Innenareale trotz durchschnittlicher Grafik extrem geil und gruselig aussahen (wer kennt noch das Level mit der geheimen Bunkereinrichtung mit den Poltergeistern drin, wo einem immer Ziegel entgegen geflogen kamen? Man ich hab mir fast in die Hose gemacht!).

Aber es ist immer sehr schwer schätzungen für den PC Markt abzugeben. Das ist so schnelllebig.

PS: Ich könnte wetten, dass bei den neuen Konsolen wieder so wird, dass sie nur auf DX11 setzen, obwohl zum Release Zeitpunkt DX12 schon ne Weile auf dem Markt ist. War ja bei der X360 und PS3 auch so - DX10 gab es da schon lange. Dann haben wir wieder ein DX, dass in 10-20 Spielen verwendet wird und nur nachträglich billigst aufgesetzt wird und dann dürfen wir uns schon darauf einstellen, dass wir wieder 5-6 Jahre bei DX11 stehen bleiben. Das ist zwar eine Steigerung aber trotzdem schade.
 
Zuletzt bearbeitet:
PUNK2018 schrieb:
edit: Leute... selbst ne Nvidia oder ATI Grafikkarte berechnet eure Spiele mit Raytracing.. es richtet sich dannach wie das Spiel programmiert ist!

es geht hier um einen ALGORITHMUS! ebenso gut könnte man Raycasting verwenden... gnah...

Volkommen falsch! Die einzige Firma ausser Intel welche mal Raytracing änliche Ansätze verfolgte was Videologic mit ihrer Kyro II. Natürlich läuft das Designe Garage Demo auf einer GTX400/500 ist ja auch von nVidia und soll Cuda bewerben. Ansonsten gibt es keine Raytracing Engines in Spielen oder Techdemos!

Tumbleweed schrieb:
Was für ein Unsinn...

Wie PUNK2018 schon erwähnte hat das überhaupt nichts mit Intel oder Nicht-Intel zu tun. Die Technik ist nicht abhängig von irgendwelchen Marken. Man muss selbst schon sehr verblendet sein, wenn man bei jedem Thema nur noch auf die Marken-Konkurrenz-Keule setzt.

Nicht immer von sich selbst auf andere schließen, Mister Eyefinity mit ATI Avatar, AMD CPU und ATI Grafikkarte. Ein Schelm wer Böses dabei denkt...

Nenne mir weitere Marken ausser dem blauen Riesen welche den Raytracing Plunder verfolgen! (und komme mir jetzt nicht mit John Carmack und id-Software, jemand muss ja den Ferrari und die Raketenforschung bezahlen die Mister DOOM betreibt:rolleyes:)

Nvidia wollte mit ihrem Designgarage Techdemo nur zeigen was CUDA alles könnte, dies verfolgen oder in diese Richtung forschen tun die nicht (hab keine solche News gelesen).

P.S: Ich kann Intel nicht mögen und trotzdem objektiv sein, "Mister Raytracing ist so supidupiglossycool" :freak::freak::freak:
 
Volkommen falsch! Die einzige Firma ausser Intel welche mal Raytracing änliche Ansätze verfolgte was Videologic mit ihrer Kyro II. Natürlich läuft das Designe Garage Demo auf einer GTX400/500 ist ja auch von nVidia und soll Cuda bewerben. Ansonsten gibt es keine Raytracing Engines in Spielen oder Techdemos!

Es ging darum, dass sie es können...
 
Wenn diese Technik weiter verbessert wird, dann werden Tablets immer interessanter. Ich würde gerne auch eine Technik haben, bei der mein Desktoprechner arbeitet und nur das Bildsignal an das Tablet geht. Mittels Teamviewer ist es ja leider zu langsam.

lordosiris schrieb:
Davon abgesehen: Könnte dem Menschen BITTE, BITTE endlich jemand Englisch beibringen? Er arbeitet bei Intel und spricht "si" aus statt the..

Warum? Schau Dich doch einfach mal im Forum hier um. Da sind Deutsch-Muttersprachler nicht mal in der Lage vernünftig zu schreiben bzw. plappern oft unnötige Anglizismen nach (es gibt auch sinnvolle). In jeder Branche, in der es Fachleute mit hohem Fähigkeitsgrad gibt, ist das wichtigste lediglich sich verständigen zu können.
 
Eyefinity schrieb:
Ich kann Intel nicht mögen und trotzdem objektiv sein
NEIN! einfach nein! Kein mensch ist wirklich objektiv. und jemand der etwas nicht mag oder so wie du es hasst... ist eben nicht objektiv. aber das ist auch in ordnung wenn du militanter amd fan sein moechtest kein problem(an intel genau so wie nVidia aber auch AMD und ATi gibt es viel hassenswertes wenn man die wahl der pc-hardware als religion ansieht) mach doch was du willst, aber hoer auf dir einen in die tasche zu luegen :P

Nachdem offtopic schreib ich in diesem post schnell noch was zum thema.
ich glaube das man sich auf einem stark umkaempften markt wie dem cpu/gpu/apu... markt ohnehin nicht leisten kann raytracing oder andere technologien einfach nicht zu beachten und darauf zu hoffen das sie unbedeutend bleiben.
 
Nvidia wollte mit ihrem Designgarage Techdemo nur zeigen was CUDA alles könnte, dies verfolgen oder in diese Richtung forschen tun die nicht (hab keine solche News gelesen).

Genau, es existiert nur, was man durch die Presse wahrnehmen kann. ;-)
 
Cloud-Raytracing ist der einzige Weg um fotorealistische Grafik auf ALLE Geräte, auch mobil, zu bringen, da es nicht mehr vom Endgerät abhängt.

Das ist das spannende daran, nicht Raytracing an sich.
 
Schon lustig. Auf der einen Seite wird bei der Einführung neuer Hardware immer gerätselt, wer denn diese Leistung brauchen soll (Quad/Hexacore-Diskussion) und nun ist da mal was, meckert man wieder.

Raytracing ist die Zukunft. In 10 Jahren (meine Schätzung) kommt Raytracing für den Consumer-Bereich und wird die alt bekannte Rasterisierung langsam ersetzen. Die Hardware dürfte dann bei jedem potent genug sein. Und dann werden auch die Leute sabbern, wenn sie merken, wie genial diese Technik bzw. der Algorithmus ist.
Raytracing hat das Potenzial das uncanny valley mit einem Satz zu überspringen, zumindest was die Grafik betrifft.
 
Tumbleweed schrieb:
mental ray (NVIDIA), um mal ein Beispiel zu nennen.

Es gibt eine Welt jenseits von Spielen! :rolleyes:

Du meinst wohl www.mentalimages.com ;) Die Welt jenseits der Spiele kenne ich noch von früher als ich 5-Achsen CAD Fräsmaschienenprogramme auf Mastercam X 3D Software programmiert habe (hab 5 Jahre lang nix anderes gemacht:cool_alt:)!

Ev, werden ja mal alle Computerspiele und Animationsfilme auf Raytracing basieren, wenn es dann sogar auf einer Hardware läuft welche lokal vor Ort zu einem erschwinglichen Preis mit moderater Lestungsaufnahme läuft, na toll, finde ich ja auch schön!

Aber momentan finde ICH es einfach nichts weiter als kalter Kaffee. Was für mich ein riesen KO Kriterium ist, ist der Umstand dass Intel dies von nun als Cloud Dienst hochziehen will. Zuerst haben sie vollmundig behauptet wie toll Larrabee sein wird, nach dem dies ein riesen Flop war, kommmt der selbe Mist als Knight Ferry in einer Cloud Verpackung daher. Und genau die selben Menschen welche Bei anderen Cloud Diensten (Facebook, etc...) *BUUUU* Rufen, versinken nun in Euphorie (Intel ist ja soo lieb und will nicht anderes als den Weltfrieden:freak: und alles was die machen muss einfach gut sein).

Mag sein dass ich paranoid bin, aber es kommt mir vor wie Intel und Google auch dem besten Weg dazu sind die (IT-) Weltherrschaft an sich zu reissen. Und mit jedem besch.... Cloud Dienst den Ihr dankend entgegend nehmt und Euch einloggt kommt es genau dazu!

Wahrscheinlich sind wir schweizer tendeziell eher Leute die etwas nicht im WWW sondern auf der heimischen Festplatte haben wollen und ich gehöre hier (und nur hier, bin kein "militanter AMD FAN" *so ein riesen Bullshit*) zu den extremen. Ach ja, Kühler wechseln, Übertakten, Case modden, als das könnt Ihr bei Knight Ferry knicken:(

Jetzt kommen die ersten Smartphones mit Dual CPU und ach weiss was (Tripple?) GPU auf den Markt, wer benötigt da einen Cloud Dienst um im Zug zu daddlen? Dass hierbei umwelttechnisch genau des schlechteste vonstatten geht, Der Knight Ferry Kübel säuft ja in dem Moment schön Strom und die Mobilfunknetzantenne sendet/empfängt ja auch nonstop, wird wohl auch nicht bedacht?! Naja, wird zum Glück wohl noch lange dauern und sich hoffentlich nur langsam auf den Markt drängen können.

So, und nun wieder ein wenig runter mit dem Puls:D Liebe Grüsse aus Bern, bleibt geschmeidig...
 
Zuletzt bearbeitet:
Zurück
Oben