News Weitere Impressionen von „Larrabee“

Ich bete das der Trend dahin geht, dass in Zukunft wieder komplett eigene Renderer Implementiert werden. Wie damals die selbstgeschriebenen Software-Renderer, nur das diese dann auf der GPU mittels GPGPU laufen. Komplett unabhängig von einer API wie OpenGL/Direct3D
 
@digitalangel
Ja das ist möglich und sowohl Nvidia als auch AMD/Ati arbeiten schon an Raytracing Engines.
Hier ein Beispiel von Nvidia Grafisch auf ähnlichem Niveau wie ET:QW
INzwischen hat man hier auch eine Eigene Entwicklungsumgebung, die auf CUDA basiert

@markox
Das ist teilweise richtig und Intel scheint nun selbst kleinere Brötchen zu backen. Aber Pat Gelsinger hat immer einen etwas arroganten Ton gegenüber Nvidia und ATI angeschalgen, weshalb diese Präsentation eben etwas dürftig wirkt. Zumal Daniel Pohl auf zwei Nehalem-Quads schon eine bessere Grafik mit mehr Effekten und einer dynmischeren Szenerie gezeigt hat. Allgemein hat Intel selbst für die hohen Erwartungen gesorgt, die sie jetzt enttäuscht haben.
Daniel Pohl leistet übrigens eine großartige Arbeit mit ET:QW-Raytraced. Er hat da wirklich inzwischen sehr viel optimiert.
 
Zuletzt bearbeitet:
@isigrim: Intel hat noch niemanden entteuscht und kleine Brötchen backen sie jetzt auch nicht. Warum nicht mehr zu sehen war? Das hat mehrere Gründe.
- Pat Gelsinger sollte ursprünglich die Keynote halten und Larrabee zeigen, ist aber wenige Tage zuvor abgespungen, alles musste umorganisiert werden
- Larrabee ist eine komplette Neuentwicklung, sowas aus dem Boden zu stampfen braucht Zeit, erst vor etwas vor einem Monat hatte das B0 Stepping sein Tapeout, Die AX Steppings waren noch zu verbuckt für Vorführungen, die Zeit war einfach so knapp, dass es erstaunlich ist, dass Intel überhaupt schon etwas lauffähiges zeigen konnte
- Daniel Pohl hatte damal nur seine Raytracing optimierung der Engin vorgestellt, diesmal stand die Hardware im Vordergrund, die verwendeten Systeme kann man so nicht vergleichen
 
Falsch!

Intel sagt selbst, das sie im HighEnd Grafikkartenmarkt einsteigen und mitmischen wollen!!!
beispiel auf CB:
"Der Larrabee-Chip soll es richten, der voraussichtlich gleich in allen wichtigen Marktsegmenten, inklusive den High-End-Karten, aufschlagen soll."


Na da bin ich ja mal gespann:-)



"Man habe einen »Krieg mit Nvidia« vom Zaun gebrochen, ohne ein Konkurrenzprodukt zu haben, die Hardware sei nicht funktionsfähig, ebenso die Software, und die Kosten für das gesamte Projekt seien so hoch, dass ohne Intel ohne die bisher guten Verkäufe der Core 2-Prozessoren ernsthafte Probleme bekäme, weiterhin konkurrenzfähig zu bleiben. Larrabee sei das »Baby« von Gelsinger gewesen und daher habe er nun die Konsequenzen aus der Lage ziehen müssen."


Intel noch nie jemand enttäuscht?

Itanium? WiMax? BTX?
 
Zuletzt bearbeitet:
Also bisher scheint das Ganze ja noch nicht zu überzeugen, das Wasser ist vielleicht technisch auf der Höhe, sieht aber optisch wie ein Quecksilber-See aus.
Allgemein hätte man sich bei einem Vorführvideo mehr Mühe geben können und ganz flüssig läuft das Ganze auch nicht, was wohl weniger am Video und viel mehr an Larrabee liegt, welche einfach nicht dieser Meilenstein wird den sich Intel wohl vorgestellt hat.
Intel steht, bei einem Launch 2010, noch einer Menge Arbeit gegenüber.
Da sind die derzeitigen Grafikkarten Larrabee einfach noch Generationen voraus, schon alleine, weil sie einfach schon so lange supportet werden und die Entwickler die Spiele auf Sie optimiert haben.
Also Raytracing hin, Raytracing her, wenn die Grafik nicht stimmt oder Raytracing nicht unterstützt wird, nützt mir die beste Berechnung von Elementen nichts.
Bisher ist meines Wissen als einziger bekannter Supporter nur ID Soft bekannt.
 
Das tolle an Raytracing ist, dass es von der Theorie her so bestechend simpel ist. Aber gerade wenn ich dieses Video sehe: Welche Vorteile hat es bei der tatsächlichen Spieleentwicklung? Ich meine wann braucht man in nem Spiel schon mathematisch perfekte Spiegelungen zum Beispiel? So ziemlich jeden Fall, wo Raytracing besser sein soll als Rasterizing, hat man heutzutrage doch ganz gut im Griff, siehe zum Beispiel Schatten und Spiegelungen. Und der Performance Vorteil von Raytracing bei extrem viel Polygonen gilt auch nur für rein statische Szenen. Vielleicht führt diese Entwicklung ja zu schönen Hybridlösungen, doch gerade dieses Video zeigt, dass Echtzeit Raytracing noch einen langen Weg vor sich hat.
 
Markox schrieb:
Intel hat noch niemanden entteuscht]Intel hat noch niemanden entteuscht
Da sagt der Presseüberblick, den Cokebei3Grad gepostet hat aber etwas anderes.

Larabee ist toll und ich hätte gerne einen fertigen Chip in meinem PC fürs Rendern, weil die GPGPU-Implementierungen wohl noch ein bisschen auf sich warten lassen werden. (Es gibt allerdings auch hier deutliche Beispiele, die zeigen, dass auch Grafikkarten dazu taugen z.B. Vray auf CUDA) Hier wäre allerdings momentan die x86-Kompatibilität des Larabee sehr von Nutzen, weil das Portieren auf Larabee nur wenig Codeeingriffe erfordert. Und genau darin liegt ja eigentlich der große Vorteil von Larabee, nämlich dass er weitgehend kompatibel zu bestehendem Code ist und damit einene sehr guten Co-Prozessor abgeben würde.
Dieser Vorteil entfällt allerdings mit der breiteren Verfügbarkeit von OpenCL und den DX11 Compute Shaders, weil damit immer mehr Entwickler auch GPUs als Co-Prozessoren unterstützen.
 
Zuletzt bearbeitet:
wasserreflexion ist sehr sanft, reflexionen geometrisch korrekt. entweder interpoliert die engine dreiecke, oder es verwendet spline basierte surfaces. anders in der effekt nicht zu erreichen. leider hat hier wasser einfach 100% reflexion, mehr nicht. ich habe um meilen bessere, wenn auch optisch nicht ganz korrekte, wasserdarstellungen mit stinknormalen pixelshadern gesehen. die raytracinng engine wirkt für mich sehr steril. die harten raytracing schatten sind nett müssen aber auf jeden fall mit sanften shadow maps kombiniert werden, sonst ist das ergebnis richtig öde. area shadows, die aus raytracing bekannt sind, kommen bei real time rendering nicht in frage, da werden selbst 10 zusammengeschaltete larrabees nicht mal 1fps abliefern. richtig schicke effekte wie ambient occlusion oder global illumination / radiosity könnt ihr erstmal bei realtime vergessen.

raytracing an sich kann richtig photorealistische ergebnisse liefern, das problem ist, dass dann techniken zum einsatz kommen, welche den leistungsbedarf exponentiell nach oben treiben. wir erleben derzeit den geburt einer neuen grafikära: real time raytracing, mit allen seinen schwächen und nachteilen.

über echte raytracing computerspiele, welche den rasterisierten spielen optisch konkurrenz machen können reden wir in vielleicht 5-10 jahren. in dieser zeit werden aber rasterisierungsverfahren sicherlich auch nicht darauf warten, vom raytracing eingeholt zu werden.

zwar meinen viele raytracing bewirkt wunder, die mit normalen rasterisierern nicht oder nur schwer machbar sind. ihr vergisst aber gern auch dass raytracing auch kinderkrankheiten hat, welche bei rasterisierung es garnicht gibt.
z.b. antialiasing. was rasterisierungs grafikkarten mit ausreichend vielen ROPs quasi zum nulltarif abliefern, würde beim raytracing zum linearen leistungseinbruch führen.
 
Zuletzt bearbeitet:
markox schrieb:
Ihr habts leider alle nicht verstanden QUOTE]


Kann Markox auch nur zustimmen..der Larrabee ist eine vollkommen neue Generation von GFX Chips

Die erste Generation wird evtl. noch nicht an die neuen Nvideas/Amd Chips herankommen...aber in 1-2 Jahren...mit dem Geld was Intel hat für Forschung und Entwicklung.....da wird ein mächtiger Player im Grafikmarkt entstehen...gut für uns alle...schnellere Entwicklung, sinkende Preise
 
Niemand hats verstanden, außer Euch. Na ist doch wenigstens was:D

Quecksilber-See, genau so sieht das aus...
@ Resonator:
Schon mal draußen gewesen, also in der Natur... und auf richtiges Wasser geschaut? Crysis ist mittlerweile 2 Jahre alt und das Wasser sieht um Welten besser aus, flüssig läuft es mittlerweile auch, spätestens seit heute:D

"..der Larrabee ist eine vollkommen neue Generation von GFX Chips"

Die Frage ist, wer braucht sowas?
ATI und Nvidia machen kaum Gewinn. Wer braucht bzw. was will da Intel?
 
Lübke schrieb:
und gegen 512 nvidia shader oder 1600 (bzw 320 5d) ati shader sehen 80 intel-kerne doch recht arm aus...

Wenn du die 512 bzw 1600 skalaren ALUs gegen die Intel-Kerne mit 16-fachen SIMD ALUS vergleichst, musst du die Intel-Kernanzahl aber mind. noch mit 16 multiplizieren damit die Rechnung auch nur annähernd Sinn macht und mit 32*16 ist man dann nicht schlecht mit dabei, wenn man den Vergleich wirklich so ziehen will (ich find ihn ziemlich nichtsaussagend weil die Architekturen sich dann doch einbisschen sehr stark voneinander unterscheiden...)
 
Die größte Vaporware seit dem Duke!

Mit viiiiel Glück kommt am Schluß eine Lowend Notebookgrafikkarte dabei raus, die dann wieder 10 Jahre lang halten muss. Lächerlich hoch zehn.
 
Resonator schrieb:
Die erste Generation wird evtl. noch nicht an die neuen Nvideas/Amd Chips herankommen...aber in 1-2 Jahren...mit dem Geld was Intel hat für Forschung und Entwicklung.....da wird ein mächtiger Player im Grafikmarkt entstehen...gut für uns alle...schnellere Entwicklung, sinkende Preise
Ob eine noch schnellere Entwicklung sinnvoll ist? Wie wäre es mal die aktuelle Hardware ausnutzen (HD5870: Cry-Engine 2 ca. 30 fps @1920x1200, Cry-Engine 3 angeblich (ich glaubs ja nicht wirklich, da waren mindestens 2x Karten am werken, was aber auch nicht schlecht wäre) 60 fps @5760x1200)!

Cokebei3Grad schrieb:
Niemand hats verstanden, außer Euch. Na ist doch wenigstens was:D

Quecksilber-See, genau so sieht das aus...
@ Resonator:
Schon mal draußen gewesen, also in der Natur... und auf richtiges Wasser geschaut? Crysis ist mittlerweile 2 Jahre alt und das Wasser sieht um Welten besser aus, flüssig läuft es mittlerweile auch, spätestens seit heute:D
Wenn man Crysis als Beispiel nimmt, ist RayTracing doch die optimale Technik! Einfach drauf los entwickeln, die passende Hardware wird schon noch kommen ^^ !
 
Zuletzt bearbeitet:
Marius schrieb:

Das Klassenzimmer in der Anleitung sieht viel mehr nach Radiosity als nach Raytracing aus. Da es sich um Mental Ray handelt ist es zwar nicht ganz Radiosity, dennoch nicht mit reinem Raytracing zu vergleichen. Es existieren halt neben den schärferen Kanten vom Sonnenschein ebenfalls sehr sanfte Schatten an den Wänden. Bis soetwas mit Larrabee erreicht wird, werden noch zwei, drei Generationen vergehen.
 
Zuletzt bearbeitet von einem Moderator: (Lexikon-Link korrigiert)
@octacore
Das war Voxelgrafik für die Landschaft. Die FIguren waren aber auch Polygone. Nach Outcast hatte das aber glaube ich kein Spiel mehr
 
@Cokebei3Grad: Wie schon gesagt, wie die Demo aussieht ist zu 100% uninteressant für die Larrabee Demo. Es ging darum zu zeigen, dass Larrabee zu diesem Zeitpunkt schon so weit lauffähig und leistungsfähig ist um zu raytracen.

Und was Intel da eigendlich will? Für Intel ist die erste Larrabee Generation ein großer Fadein und Betatest für die Verwendung als IGP mit der Hoffnung auf dem Weg zwecks Finnanzierung noch ein paar zusätzliche Marktanteile zu sichern. Die jetzigen IGPs sind einfach so überholt, dass der Tron wackelt, siehe ION. Intel hatte Angst als AMD ATI geschluckt hat. Wenn dann endlich der Fusion kommt ist AMD durch ATI deutlich im Vorteil, da Grafik dann mit der CPU verschmilzt werden Intels CPUs deulich abgewertet, wenn AMD mit der Grafik deutlich vorne liegen würde,... es läuft daruf hinnaus, IGP ist das big Business.
 
Zurück
Oben