Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Mehrfach haben wir in der Vergangenheit von der Raytracing-Forschung berichtet, die Daniel Pohl bei Intel betreibt. Ende Februar gab es zuletzt einen großen Überblick in Artikelform, der sich insbesondere mit Raytracing in der Cloud und dem Streamen auf Thin-Clients beschäftigte. Mittlerweile funktioniert dies auch mit Tablets.
Sorry, aber ein Server mit 4x KnightsFerry nur um das in Raytracing darzustellen mit 20-30FPS? Irre ich mich, oder gibt es da bereits effizientere ansätze?
Ich muss zwar zugeben, dass mir diese ganze "ab in die Cloud" Suppe nicht wirklich schmeckt, aber anderseits finde ich es klasse. Wenn man dieses Konzept auf ein kleineres System bezieht (eigener PC /Workstation + eigene mobile devices) wird daraus wieder etwas brauchbares.
-> Diese ganze Multi/Manycore Entwicklung begrüße ich sehr. Gerade wo APIs wie OpenCL, oder Pendants von AMD und nVidia (CUDA) existieren, lassen sich sehr potente Systeme bauen, die diesen kleinen Devices zu Rechenleistung verhelfen. Die Wireless Technologie ist mittlerweile unter Idealbedingungen auch so gut, dass die Datenraten reichen, um derartige Streams zu übertragen.
Also unterm Strich finde ich das faszinierend. Ich habe einige Tests mit OpenCL auf einer GTX 260 selbst programmiert, aber eine echte Knights Ferry, oder eine Tesla würde mich gerade für Performanceanalysen sehr interessieren. Zumal die OpenCL API über C++ wirklich einfach zu bedienen ist.
Viele Grüße
BTW: Wolfenstein Raytraced ^^ (nicht so meins - Mario Kart, das wäre was )
Mich würde interessieren, ob es in Zukunft (2014+) auch echte Raytracing spiele geben wird. Und was dann aus Nvidia und AMD wird. Oder ob das nur für Labore geeignet sein wird.
@Krautmaster
Ichn weiß was RayTracing ist. Rasterisierung ist nicht wirklich effizienter, ab einem gewissen Grad braucht Rasterisierung mehr Aufwand als Raytracing. Hatte NVIDIA nicht eine Bugatti Demo in welcher Raytracing in Echtzeit mit nur einer Karte in HD Auflösung flüssig ging?
Also ich verstehe echt nicht was Intel da macht. Die können auf ihren Karten nichts was nicht auch anders besser ginge. Gerade beim "GPU"-basiertem Raytracing selbst ist noch soviel Grundlagenforschung zu betreiben. Und dann kommt so eine News, in der darüber berichtet wird, dass Intel es schafft mit nur einem Server ein Bild flüssig auf ein Pad zu streamen. Wen wollen sie den bitte damit beeindrucken.
Die Wolfenstein-Demo ist dafür optisch keinen Meter weiter als Quake 3 oder Quake 4 - Raytraced.
Soll das ein Witz sein? Da gehts um Einzelbilder! Wie man im Video sehr wird bei Transformationen die Qualität so runtergeschraubt dass das GameBoy-Grafik ist. Hat nichts mit Echtzeit zu tun. Aber schön auf die Werbung reingefallen.
@bu.llet
Hast Du im Video mal auf das Auto geschaut welches mit aktivierten polygonen und textur gedreht wird.
Warscheinlich nicht, du wirst auch nie an einer Workstation mit 3dsmax oder Maya gesessen und versucht haben so ein Modell flüssig zu drehen.
Soll das ein Witz sein? Da gehts um Einzelbilder! Wie man im Video sehr wird bei Transformationen die Qualität so runtergeschraubt dass das GameBoy-Grafik ist. Hat nichts mit Echtzeit zu tun. Aber schön auf die Werbung reingefallen.
Du weisst aber schon, dass bei der Einzelbildrechnung trotzdem Raytracing betrieben wird. Außerdem ist das schon ein Produkt, das auf dem Markt ist und die Produktivität der 3D-Graphiker deutlich steigert, da man ziemlich schnell erkennen kann wie in etwa das Resultat sein wird. In sofern: Ein gewaltiger Schritt in die (meiner Meinung nach) richtige Richtung.
Euch ist schon klar, dass die Knights Family eigentlich für HPC gedacht ist und dort GPGPU Lösungen ordentlich Konkurrenz machen soll. Wenn man sich Hybrid Cluster der Chinesen, wie z.B. den momentan führenden der TOP500 Tianhe-1A, anschaut und sieht, dass diese selbst im hochoptimierten Linpack Benchmark höchstens 2/3 ihrer theoretischen Peak Performance errreichen, ist das einfach nur traurig. GPGPUs lassen sich nur bei embarrassingly parallel Algorithems sinnvoll einsetzten und haben selbst da ihre Probleme. Knights Produkte haben eine 512bit Vektoreinheit, im Vergleich zu 256bit AVX bei Sandy Bridge, womit eine Warp Size von 16 möglich sein sollte im Vergleich zu 32 bei Fermi und 64 bei Northern Islands. Damit dürfte die Branch Performance wesentlich höher ausfallen und somit eine sinnvolle Anwendung bei einer größeren Klasse von Algorithmen möglich sein. Nebenbei sollte die Entwicklung performanten Codes auf Knights Produkten um einiges einfacher sein als heute z.B. mit CUDA.
Wenn Knights Corner 2012 mit sagen wir mal 64 Cores und 2TFLOPS+ auf den Markt kommt, fehlt dann "nur" noch ein passender Grafiktreiber. Leider hat sich Intel auf dem Feld der Grafiktreiber in den letzten Jahren nicht wirklich mit Ruhm bekleckert... Letztendlich ist die Frage, ob sich jemand die Mühe macht eine Engine zu entwickeln, die direkt auf Knights läuft und nicht auf irgendwelche APIs wie DirectX zurückgreift und damit von Intels Grafiktreibern abhängt. Ob diese Engine dann Rasterisierung, Ray Tracing oder beides implementiert, ist dabei nebensächlich, solange sie von einer kritischen Masse an Studios genutzt wird und damit einen genügend hohen Anreiz zum Kauf einer Intel Karte bildet.
Verstehe auch den Sinn nicht recht. Der Rechenaufwand ist noch immer deutlich zu hoch um so jemals irgendwie irgendwas auf wasauchimmer für ein Tablet zu streamen. Ich meine schön dass Herr Pohl einen Job bei Intel bekommen hat, aber die Technik ist noch immer kaum zu gebrauchen, auch wenn die gelegentlichen News etwas anderes suggerieren.