News Cloud-Raytracing: Wolfenstein auf dem Tablet

Wäre mal interessant zu wissen, wie sich diese Intel Grafikkarte gegen die von Nvidia und Amd schlägt.
 
Sorry, aber ein Server mit 4x KnightsFerry nur um das in Raytracing darzustellen mit 20-30FPS? Irre ich mich, oder gibt es da bereits effizientere ansätze?
 
ja Rasterisierung o.O

Aufgrund der geringeren Bildschirmauflösung reiche bereits ein Hardwaresetup bestehend aus einem Server und einer Knights-Ferry-Karte pro Client aus

ich lese übrigens ganz klar eine Karte....

Ich empfehle dir dich mal mit Raytracing auseinander zu setzen.

@Killermandarine

auch dieser Vergleich ist mehr als sinnfrei.
 
Ich muss zwar zugeben, dass mir diese ganze "ab in die Cloud" Suppe nicht wirklich schmeckt, aber anderseits finde ich es klasse. Wenn man dieses Konzept auf ein kleineres System bezieht (eigener PC /Workstation + eigene mobile devices) wird daraus wieder etwas brauchbares.

-> Diese ganze Multi/Manycore Entwicklung begrüße ich sehr. Gerade wo APIs wie OpenCL, oder Pendants von AMD und nVidia (CUDA) existieren, lassen sich sehr potente Systeme bauen, die diesen kleinen Devices zu Rechenleistung verhelfen. Die Wireless Technologie ist mittlerweile unter Idealbedingungen auch so gut, dass die Datenraten reichen, um derartige Streams zu übertragen.

Also unterm Strich finde ich das faszinierend. Ich habe einige Tests mit OpenCL auf einer GTX 260 selbst programmiert, aber eine echte Knights Ferry, oder eine Tesla würde mich gerade für Performanceanalysen sehr interessieren. Zumal die OpenCL API über C++ wirklich einfach zu bedienen ist.

Viele Grüße :)

BTW: Wolfenstein Raytraced ^^ (nicht so meins - Mario Kart, das wäre was :p)
 
Mich würde interessieren, ob es in Zukunft (2014+) auch echte Raytracing spiele geben wird. Und was dann aus Nvidia und AMD wird. Oder ob das nur für Labore geeignet sein wird.
 
@Krautmaster
Ichn weiß was RayTracing ist. Rasterisierung ist nicht wirklich effizienter, ab einem gewissen Grad braucht Rasterisierung mehr Aufwand als Raytracing. Hatte NVIDIA nicht eine Bugatti Demo in welcher Raytracing in Echtzeit mit nur einer Karte in HD Auflösung flüssig ging?
 
Bin ich der einzige, der bei der Idee von Guardian an die neue Wii denkt??

Im Prinzip ist das genau das Prinzip was du beschreibst. Handheld mit Bildschirm Rechenleistung lokal und ohne Kabel ausgelagert :-)

Also alle die Gestern so hart gegen Nintendo gehated haben nochmal drüber nachdenken :-)

Alle Ideen sollen ihre Chance haben, vor allem die die am Anfang komisch klingen :-P

Aber nach wie vor will ich meine Daten lieber bei mir haben.
 
Raytracing...lange nicht gehört. Erinnert mich noch an die gute alte "Amigazeit". ;)
 
Also ich verstehe echt nicht was Intel da macht. Die können auf ihren Karten nichts was nicht auch anders besser ginge. Gerade beim "GPU"-basiertem Raytracing selbst ist noch soviel Grundlagenforschung zu betreiben. Und dann kommt so eine News, in der darüber berichtet wird, dass Intel es schafft mit nur einem Server ein Bild flüssig auf ein Pad zu streamen. Wen wollen sie den bitte damit beeindrucken.

Die Wolfenstein-Demo ist dafür optisch keinen Meter weiter als Quake 3 oder Quake 4 - Raytraced.
 
Besser nicht, aber höher Aufgelöst und mit mehr FPS. Schlechtes Raytracing gibt es nicht. Raytracing ist Raytracing.
 
DVD_ schrieb:
Auf Fermi GPUs kann man heute schon per iray arbeiten.
Am eigenen Rechner oder auch per Cloud.
http://www.youtube.com/watch?v=A1hB4yKjBt0

Soll das ein Witz sein? Da gehts um Einzelbilder! Wie man im Video sehr wird bei Transformationen die Qualität so runtergeschraubt dass das GameBoy-Grafik ist. Hat nichts mit Echtzeit zu tun. Aber schön auf die Werbung reingefallen.
 
@bu.llet
Hast Du im Video mal auf das Auto geschaut welches mit aktivierten polygonen und textur gedreht wird.
Warscheinlich nicht, du wirst auch nie an einer Workstation mit 3dsmax oder Maya gesessen und versucht haben so ein Modell flüssig zu drehen.
 
bu.llet schrieb:
Soll das ein Witz sein? Da gehts um Einzelbilder! Wie man im Video sehr wird bei Transformationen die Qualität so runtergeschraubt dass das GameBoy-Grafik ist. Hat nichts mit Echtzeit zu tun. Aber schön auf die Werbung reingefallen.

Du weisst aber schon, dass bei der Einzelbildrechnung trotzdem Raytracing betrieben wird. Außerdem ist das schon ein Produkt, das auf dem Markt ist und die Produktivität der 3D-Graphiker deutlich steigert, da man ziemlich schnell erkennen kann wie in etwa das Resultat sein wird. In sofern: Ein gewaltiger Schritt in die (meiner Meinung nach) richtige Richtung.
 
Zuletzt bearbeitet:
Euch ist schon klar, dass die Knights Family eigentlich für HPC gedacht ist und dort GPGPU Lösungen ordentlich Konkurrenz machen soll. Wenn man sich Hybrid Cluster der Chinesen, wie z.B. den momentan führenden der TOP500 Tianhe-1A, anschaut und sieht, dass diese selbst im hochoptimierten Linpack Benchmark höchstens 2/3 ihrer theoretischen Peak Performance errreichen, ist das einfach nur traurig. GPGPUs lassen sich nur bei embarrassingly parallel Algorithems sinnvoll einsetzten und haben selbst da ihre Probleme. Knights Produkte haben eine 512bit Vektoreinheit, im Vergleich zu 256bit AVX bei Sandy Bridge, womit eine Warp Size von 16 möglich sein sollte im Vergleich zu 32 bei Fermi und 64 bei Northern Islands. Damit dürfte die Branch Performance wesentlich höher ausfallen und somit eine sinnvolle Anwendung bei einer größeren Klasse von Algorithmen möglich sein. Nebenbei sollte die Entwicklung performanten Codes auf Knights Produkten um einiges einfacher sein als heute z.B. mit CUDA.
Wenn Knights Corner 2012 mit sagen wir mal 64 Cores und 2TFLOPS+ auf den Markt kommt, fehlt dann "nur" noch ein passender Grafiktreiber. Leider hat sich Intel auf dem Feld der Grafiktreiber in den letzten Jahren nicht wirklich mit Ruhm bekleckert... ;) Letztendlich ist die Frage, ob sich jemand die Mühe macht eine Engine zu entwickeln, die direkt auf Knights läuft und nicht auf irgendwelche APIs wie DirectX zurückgreift und damit von Intels Grafiktreibern abhängt. Ob diese Engine dann Rasterisierung, Ray Tracing oder beides implementiert, ist dabei nebensächlich, solange sie von einer kritischen Masse an Studios genutzt wird und damit einen genügend hohen Anreiz zum Kauf einer Intel Karte bildet.
 
Ich mag diesen ganzen Cloud Scheiss so gar nicht.
 
Verstehe auch den Sinn nicht recht. Der Rechenaufwand ist noch immer deutlich zu hoch um so jemals irgendwie irgendwas auf wasauchimmer für ein Tablet zu streamen. Ich meine schön dass Herr Pohl einen Job bei Intel bekommen hat, aber die Technik ist noch immer kaum zu gebrauchen, auch wenn die gelegentlichen News etwas anderes suggerieren.

ich lese übrigens ganz klar eine Karte....

Als wenn das noch einen Unterschied machen würde... :rolleyes:
 
Zurück
Oben