News Weitere Impressionen von „Larrabee“

@pezli: ich denke eher nicht. es geht um parallelisierbare berechnungen ein gt300 kann 512 berechnungen synchron durchführen, der larrabee kann mit ht(!) grade mal 160 berechnungen parallel durchführen. die komplexen befehlssatzerweiterungen der cpu-kerne sind bei den aktuellen grafikberechnungsmethoden weitestgehend nutzlos. x86-erweiterungen und der gleichen liegen schlicht brach. anders siehts dagegen beim rt aus, aber das ist, wie schon geschrieben, aktuelle noch nutzlos und in der zukunft haben ati und nvidia zeit genug, hierfür eigene technische lösungen zu finden, um sich von der rt-leistung der gtx285 z. b. deutlich zu steigern. ob intel dann immernoch am larrabee entwickelt oder diesen längst aufgegeben hat, werden wir erst in einigen jahren wissen...
 
@digitalangel

ach übrigens Crysis benutz Voxel um das Gelande zu erstellen.

http://en.wikipedia.org/wiki/Voxel#Computer_gaming

aber prinzipiell gebe ich dir 100% Recht und ich denke Raytracing sollte jetzt schon auf aktueller Hardware möglich sein. Da bin ich mir nicht so ganz sicher, aber nVidia zeigte doch Raytracing Demos auf aktuellen Quardos, welche doch im Chip identisch zur GTX260 sind. Oder irre ich da vollkommen?
 
@Lübke: Stimmt nicht, lies deren Paper zu ihrem Rasterizer auf dem Larrabee, die nutzen (logisch!) alle Möglichkeiten aus - eben auch die Vektor-ALUs...
Zu den parallelisierbaren Berechnungen: ein Larrabee-Core kann halt 16 Berechnungen gleichzeitig ausführen, und du hast 32 Kerne auf dem Chip, da komm ich eben auf 512.
HT hat nicht viel mit "parallel" zu tun, eher mit seriell und mit Memorylatency verstecken. Aber wenn du das in deine Rechnung reinnehmen willst darfst gerne *4 rechnen, weil Larrabee pro Core 4 Threads unterstützt, nur tut das jetzt dann noch weniger zum Vergleich, weil das die theoretische Rechenleistung nicht beeinflusst.
 
Hoffe es geht dir nur so.
Lass dir mal kurz Hyperthreading erklären: Für jeden Thread sind im Kern alle Register die benötigt werden mehrfach vorhanden, sprich in diesem Fall vierfach, beim Larrabee schaltet der Kern nach jedem Takt einfach zum nächsten Thread - ausser dieser wartet eh schon auf Daten aus dem Speicher, sprich jeder Thread kommt ca. alle 4 Takte einmal dran. Das ist eben nicht parallel, sondern seriell - für den Benutzer wirkt es trotzdem parallel, weils so schnell passiert.

Das hat rein gar nichts mit 16-weiten ALUs zu tun, die die gleiche Operation gleichzeitig (also parallel) mit den 16 Werte ausführen können.
 
Netter Versuch. Aber Intel muss erstmal in der Realität also mit verfügbaren Spielen beweisen, dass sie mit AMD und nV mithalten können. Ich sehe da besonders softwareseitig einen erheblichen Nachteil für Intel. So schnell verdrängt man die alt eingesessenen Hasen eher nicht, denn Intel betritt quasi Neuland.
 
Dass Raytracing einige optische und technische Vorteile gegenüber rasterizing hat, ist mir ja klar. Die Wasserspiegelungen usw. sehen bei Raytracing definitv auch hervorragend aus.

Aber welcher Publisher wird nur für Larrabee auf eine Raytracing Engine setzen?
Dazu kommt, dass Intel bisher im Support seiner IGP´s nur Mist gebaut hat.
Deswegen bin ich erstmal noch seeeeehr skeptisch.
 
das klassemzimmer ist eindeutig mit ambient occlusion und radiosity / global illumination gerendert.
davon können real time renderer die nächsten jahre erstmal nur träumen.
ausserdem sind aufwändige flächenschatten am werk sowie antialiasing im spiel.
ohne all das würde das klassenzimmer sehr "steril" und nicht so erstaunlich photorealistisch aussehen.

das abschalten von z.b. nur ambient occlusion würde dem bild sofort den photorealismus rauben.
ambient occlusion erzeugt realistische schatten, beinflusst durch naheliegende geometrische umgebung.
radiosity gibt den effekt der natürlichen diffusen ausleuchtung.
flächenschatten sorgen für sehr weiche (im gegensatz zu harten raytraced schatten) und geometrisch korrekte (im gegensatz zu shadow maps) und damit absolut pefekte shatten, ergänzt durch ambient occlusion natürlich.

am wichtigsten für photorealismus von obengenannten betrachte ich ambient occlusion. von ambient occlusion in GPUs wurde bereits berichtet, aber wenn ich mir deren qualität anschaue ist das müll.

das problem an ambien occlusion ist, dass man es richtig nur auf per pixel berechnung hinbekommt. und das ist wie geschafft für raytracing. normale rasterisierungs GPUs werden wohl niemals echtes ambient occlusion aus sich rausspucken können. der dafür notwendige shader code wäre mit der aktuellen technik nicht machbar, da zugriff auf geometrie notwendig ist, und insbesondere der geometrie bezug zu den frame und w-puffern fehlt. man könnte versuchen AO shadow maps dynamisch oder statisch zu generieren (aufwendig), aber alle dreiecke mit zusätzlichen AO shadow mapps voll zu pflastern ist noch ressourcen und speicherfressender.

Alexclass.jpg
 
Zuletzt bearbeitet:
@pezli: ich weis zwar was du meinst, aber ich bezweifle dass du recht hast. ein cpu kern kann so weit ich weis ungeachtet der zahl der alus nicht mehrere berechnungen separat anstellen, da die alus nur ein teil des gesamtkonstrukts sind und andere komponenten des kerns eben nicht rendundant und daher bestimmte funktionen eben nur einmalig pro takt durchgeführt werden können. wären alle komponenten des kerns 16 fach rendundant, dann hätte man nicht mehr einen kern sondern 16 kerne... von daher bin ich überzeugt, dass diese architektur in diesem bereich der "primitiven" shaderarchitektur der gpu klar unterlegen ist...
 
karamba schrieb:
Netter Versuch. Aber Intel muss erstmal in der Realität also mit verfügbaren Spielen beweisen, dass sie mit AMD und nV mithalten können. Ich sehe da besonders softwareseitig einen erheblichen Nachteil für Intel. So schnell verdrängt man die alt eingesessenen Hasen eher nicht, denn Intel betritt quasi Neuland.

Intel ist game developer geworden, um genau das zu beweisen......... siehe google und dann Projekt Offset.
 
Prodigal Son schrieb:
@digitalangel

ach übrigens Crysis benutz Voxel um das Gelande zu erstellen.

http://en.wikipedia.org/wiki/Voxel#Computer_gaming

aber prinzipiell gebe ich dir 100% Recht und ich denke Raytracing sollte jetzt schon auf aktueller Hardware möglich sein. Da bin ich mir nicht so ganz sicher, aber nVidia zeigte doch Raytracing Demos auf aktuellen Quardos, welche doch im Chip identisch zur GTX260 sind. Oder irre ich da vollkommen?

Naja nur ein "wenig".. Damit kannst du Zerstörungen im Gelände, Berge etc darstellen,Durchbrüche, Höhlen usw - wie bei Crysis gemacht wurde. Im Editor gibs dazu ne wunderbare Funktion.

Für alle die hier rumweinen, "das sieht aber kacke aus"... ladet, oder kauft euch selber Renderprogramme (Maya,Cinema, Freewareprog etc.) stellt die Szene selber nach und versucht sie in Echtzeit mit allen Parametern wie SoftShadow oder besser Flächenschatten, mehrfache Reflektion, Oberflächen und Volumencaustic, Volume Light , 8-16xAA, Radiosity, Transparenzen mit Lichtbrechung, Noise, Displacment Mapping etc etc..

Viel Spass beim Warten..
Hier gehts nur darum, das Raytracing in Echtzeit ohne Renderfarm möglich ist. Auch wenn das Ergebnis noch nicht 100% Echt aussieht, wie der Screenshot über mir. Wobei ein anderes Tonemapping mit etwas Tiefenunschärfe, das Zimmer noch ein Tick wärmer wirken lassen würde :) Ansonsten HDR usw is ja bei. Sieht schon cool aus.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Nennen schon, wissen obs stimmt nicht.
Ich geh mal davon aus, dass sie an ne HD4870 1GB durchaus rankommen werden.
Intel hat Geld Geld und nochmals Geld,das darf man nicht vergessen.

... Geld alleine reicht aber nicht - und was nützt die beste Hardware, wenn die Treiber "bescheiden" sind. ;)



yurij schrieb:
das klassemzimmer ist eindeutig mit ambient occlusion und radiosity / global illumination gerendert.
davon können real time renderer die nächsten jahre erstmal nur träumen.
...

Und trotzdem sieht man immer noch auf den ersten Blick, dass das kein Foto ist ...
 
Zuletzt bearbeitet:
@project: stimmt, ich habe mir auch gedacht bei dem klassenzimmer fehlt noch etwas ;)
geschickt eingesetzte tiefenunschärfe... und der "oho" effekt ist garantiert.

@thaquan: man könnte die szene etwas chaotischer gestalten, damit die stühle z.b. nicht so in reih und glied stehen, paar objekte dazu, paar kratzer auf dem boden, paar flecken an der wand

auf den ersten tisch gehärt "Moritz war hier!" eingekratzt ;).

auf die tisch oberfläche gehört etwas reliefigere textur mit etwas rausch, vielleicht ganz leichte reflexion und ein paar abnutzungsspuren.

schatten stärker wirken lassen, so dass dunkle stellen auch richtig abgedunkelt, fast nur noch schwart, aussehen. die tiefenunschärfe würde die überflüssigen details vor und hinter dem fokus verstecken. das bild würde dann wie aus einer DSLR kamera geschossen aussehen.
 
Zuletzt bearbeitet:
@Lübke: Ich lass es bleiben, will nicht mit dir durch alle Funktionen einer CPU durchgehen, damit du das verstehst. Aber glaub mir, genau darum gehts bei SIMD - und die "primitive Shaderarchitektur" handiert ständig mit 3 bis 4 Werten gleichzeitig, seien es Berechnungen mit 3D-Koordinaten (bzw 4D in homogenen Koordinaten) oder auch mal gern im RGBA-Farbraum... auch in den aktuellen Grafikkarten werden die einzelnen Shader genau deswegen in Gruppen zusammengefasst, weil man sie eben praktisch nie einzeln braucht.

Aber wie gesagt, ich will jetzt nicht alles durchkauen.
 
Lübke schrieb:
...
ergo reichen vermutlich 50% marktanteil der rt-spiele nichtmal, um den markt rumzureißen...
Zu dem Zeitpunkt, an dem Raytracing signifikante Qualitätsvorteile hat, wird deutlich weniger reichen - 3Dfx kam mit ich glaube 5 Spielen aus um eine 600 D-Mark Grafikkarte zu verkaufen und wurde von Nvidia mit der Geforce beerdigt, weil die Geforce Shader hatte, die von keinem verfügbaren Spiel und genau einem angekündigten Spiel (Quake III) verwendet wurden.

yurij schrieb:
... aber alle dreiecke mit zusätzlichen AO shadow mapps voll zu pflastern ist noch ressourcen und speicherfressender.
...
Eben, und damit erübrigt sich auch die von Lübke auf Seite 1 angedeutete Kritik Rasterizing. Verfahren würden sich nicht einholen lassen wollen - Raytracing hat sich im Nicht-Echtzeit-Rendering durchgesetzt, weil es für diese Qualität die rechenzeitschonenste Methode ist.

Die Frage ist nur, ob außer id tech und Unreal überhaupt jemand plausible Schatten haben will - Oblivion wurde für angeblich tolle Grafik gerühmt, dabei sind seine Schatten auf dem Niveau des Nvidia-Schatten-Patches für Unreal 1, was glaube ich der erste Versuch überhaupt war, Charakterschatten, die das Polygoncharaktermodell abbilden, in einem Echtzeit-3D-Spiel umzusetzen. Da werden Schatten von Leuten angezeigt, die in anderen Hausetagen stehen und weil die Engine nur einen Schatten pro Charakter anzeigen mag, kann sich der Schatten nicht entscheiden, von welcher Lichtquelle er geworfen wird und wenn man sich den Schattenverlauf ansieht, steht die Quelle des Schattenwurfs Meilen von allen Lichtquellen entfernt - und die Spielefachpresse bejubelt das als hervorragende Grafik. Die dafür verantwortliche Gamebryo-Engine ist weiter verbreitet als Unreal oder id tech.
 
Zuletzt bearbeitet:
Hier ist mal ein Beispiel was aktuell auf Nvidia-Grafikkarten an Raytracing schon lauffähig als Demo vorhanden ist:
Nvidia Optix
Nur dass nicht immer wieder behauptet wird, Larabee sei eben so außergewöhlich, weil er Raytracing beherrscht. Die Demos kann mit einem kleinen Hack jeder auf seiner Nvidia-Grafikkarte (wahrscheinlich ab der 8000er Reihe, vielleicht aber auch erst ab gt200) ausprobieren. Das was da so seltsam in en Videos wackelt ist übrigens die Berechnung mehrerer Samples für die Tiefenunschärfe

@yurij
Bei der gezeigten Klassenzimmerszene handelt es sich wahrscheinlich eher um Global Illumination(siehe hierzu auch Path Tracing und Photon Mapping), statt um Ambient Occlusion. Global Illumination ist zwar deutlich aufwendiger, wird aber in modernen Render-APIs häufiger eingesetzt, weil es physikalisch korrekt ist. Ambient Occlusion ist dagegen nur eine grobe Näherung, die deutlich schneller ist, dafür aber eben nicht genau und eigentlich nicht farbig. Macht aber eigentlich nicht so viel aus, wenn man nicht Wert auf größtmögliche Realitätsnähe legt. Ambient Occlusion sieht man übrigens hier in dem zweiten Video im Hintergrund
 
Zuletzt bearbeitet von einem Moderator: (Lexikon-Link korrigiert)
@pezli: ich glaube wir reden grade ein wenig aneinander vorbei. ich stelle einfach mal die frage in den raum, wie viele threads ein core2duo gleichzeitig rechnen kann.

@MountWalker: dass die geforce ddr die voodoo verdrängt hat, hatte sicher nichts mit quake zu tun, sondern schlicht damit, dass sie etwas schneller war (und 3dfx da schon vom markt verschwunden soweit ich weis) zu dem sind die voodoo und die geforce beides grafikkarten im klassischen sinne. der larrabee ist aber etwas völlig anderes. wenn er bei den "normalen" spielen hinterherhengt und nur bei einigen titeln punkten kann, werden die meisten wohl weiter auf ati und nvidia bauen, die im performancerating dann eben vorne liegen würden...
 
Zurück
Oben