News Weitere Impressionen von „Larrabee“

dass die geforce ddr die voodoo verdrängt hat, hatte sicher nichts mit quake zu tun, sondern schlicht damit, dass sie etwas schneller war (und 3dfx da schon vom markt verschwunden soweit ich weis)

Nicht ganz, die V4 und V5 hat noch die Geforce 2 miterlebt, da pfiff 3dfx aber schon sein Grabeslied.
 
Nachdem Konsolen allesamt noch mit Rasterizern arbeiten, wird sich Ray-Tracing wohl kaum so schnell durchsetzen. Soweit ich das sehe, lässt DirectX11 auch keine Wünsche mehr offen, auch wenn etwas zusätzliche Konkurrenz durch Intel wünschenswert ist, denke ich nicht, dass sich die Grafiklandschaft in den nächsten fünf Jahren verändern wird, ausser bei den IGPs halt.
 
captain carot schrieb:
Aber welcher Publisher wird nur für Larrabee auf eine Raytracing Engine setzen?

Da wollt ich einfach noch anmerken, dass Intel Larrabee als DirectX/OpenGL-Karte vermarktet. Raytracing in Spiele wollen sie damit sicherlich nicht direkt einführen, Gründe dagegen gibts ja genug hier im Thread.

@Lübke: Was hat die Frage jetzt damit zu tun, bin mir ziemlich sicher, dass wir nicht aneinander vorbei reden. Du meinst einfach HT bedeutet gleichzeitig ausführen, ich sage es stimmt nicht und habs versucht zu erklären und schaff es wohl nicht es dir verständlich zu machen, genausowenig dass SIMD sehr viel damit zu tun, Sachen gleichzeitig zu tun, und dass Intel in ihrem Softwarerasterizer sehr wohl praktisch nur SIMD-Code drin haben weil das Ganze ohne das kaum schneller wäre als auf einer heutigen CPU. Ich bin ein furchtbar schlechter Erklärer, deswegen lass ichs von meiner Seite.

Aber vielleicht tuts das hier:
http://software.intel.com/file/18198/

Oder auch hier, brauchst nicht mal lesen, guck dir die Bilder an und frag dich, warum es immer 16er-Blöcke oder mehrfache von 16 sind. Bestimmt alles Zufall:
http://software.intel.com/en-us/articles/rasterization-on-larrabee/

Aber du kannst weiterhin behaupten, dass
die komplexen befehlssatzerweiterungen der cpu-kerne sind bei den aktuellen grafikberechnungsmethoden weitestgehend nutzlos. x86-erweiterungen und der gleichen liegen schlicht brach.
 
konsolen sind ein gutes stichwort. die meisten spiele werden ja heute auch portiert. auch das ist ein grund, warum rt sich nicht wirklich auf absehbare zeit dursetzen kann. da ersteinmal rt-spieleengines entwickelt werden müssen (sobald die entsprechende hardware dazu verfügbar ist) wird es auch lange noch keine reien rt-spiele geben können...
ich sehe larrabee kurz- bis mittelfristig eher als eine randerscheinung auf dem massenmarkt.
im gpgpu-bereich wird es da anders aussehn, aber davon bekommen hier wohl die wenigsten was mit und das dürfte für ati und nvidia kaum eine ernste bedrohung sein...

@pezli: damit fängt es schon an: ich rede gar nicht von ht, sondern von der verwendung der alus. das ht nur "scheinsynchron" ist, hab ich ja verstanden...
 
Zuletzt bearbeitet:
Lübke schrieb:
konsolen sind ein gutes stichwort. die meisten spiele werden ja heute auch portiert.

Sicher sind es viele, aber die meisten bestimmt nicht.Es gibt auch viele die für den PC entwickelt werden, dann für die XBox (die dem PC ja ähnlich ist) und dann erst für die PS3. Aber das ist ein ganz anderes Thema... ;)
 
Viele hier haben hier einfach keinen Plan.

Schaut euch mal an wie neue Pixar Filme aussehen - das ist Raytracing - jedoch rechnet ein handelsueblicher CPU fuer nur ein Frame da mehrere Tage.

Ich finde es schon der hammer dass das gezeigte bei intel in Realtime laeuft - das is hammer.
Und nein Raytracing ist bei Nvidia und AMD nur ueber umwege zu realisieren und ist imho kein richtiges Raytracing.

Der vorteil von rayracing ist - das keine Engine im eigentlichen sinn mehr zum einsatz kommtwelche ueber umwege versucht ne realistische grafik zu erzeugen.
Bei raytracing gibts nur objekte und lichtquellen. Den Objekten werden materialien zugewiesen. That's it.
Kein gefummel mit shadows ..... alles wird durch objekte licht und material realistisch berechnet.
Das hat nen riesen vorteil auch fuer spieleentwicklung - es entfaellt die eigentliche arbeit an der Grafik und die Gamedesigner koennten sich wieder mehr auf Inhalt konzentrieren.

Der Nachteil ist die benoetigte Leistung.

Larabee wir alleine schon dadurch interessant das auf ihm die meisten Rederplatformen laufen duerften (3d max, Vray, Mental ray, Maxwell) ganz im gegensatz zu GPGPU.
Hier zeigen sich auch die Probleme von ATI und NVIDIA mit Raytracing. Zur zeit kann keine professionell renderapplikation die grafikpower nutzen - nicht einmal zur einzelbildberechnung. Dies liegt an der zu einfachen architektur der shader und dem zu geringen und zu langsamen gemeinsamen speicher.

Bei raytracing beeinfussen sich die einzelnen berechnungen fuer jedes pixel gegenseitig, was einen zugriff von jedem rechenkern auf die gesamtberechnung bedeutet. Eine paralellisierung im sinne von grafikpipelines ist deshalb nur eingeschraenkt moeglich.

Ich hoffe hierran aendert larabee etwas. wenn dies zutrifft wird es ein renner unter professionellen grafikern, renderfirmen und visualisierern.
 
also 2 Dinge sollten uns bei der Diskussion um Larrabee bitte bewusst sein:

1. Die Stärke liegt im Raytracing mit speziellen darauf zugeschnittenen Renderpfaden

2. Zu Beginn ist die effektivität der DirectX und OGL treiber entscheidend, da es kaum spiele mit raytracing grafik geben wird

@Naturtalent: was du über raytracing sagst ist min grunde richtig, trifft jedoch NICHT auf echtzeitraytracing zu, da hier auch bei larrabee ein erheblicher optimiierungsaufwand durch eine engine nötig ist, um flüssige bildraten zu schaffen.
 
naja ... schönes vorhaben aber es ruckelt ja doch noch :D

wie schön abgehackt der heli da rumgfliegt XD ... beim wasser fällts kaum auf ... gute ablenkung soviel wasser zu zeigen Xd
Ergänzung ()

dass die geforce ddr die voodoo verdrängt hat, hatte sicher nichts mit quake zu tun, sondern schlicht damit, dass sie etwas schneller war (und 3dfx da schon vom markt verschwunden soweit ich weis)

Nicht ganz, die V4 und V5 hat noch die Geforce 2 miterlebt, da pfiff 3dfx aber schon sein Grabeslied.

die erst aussage stimmt mal garnicht ...
[...],dass 3df unterging hat damit zu tun, dass die neusten karten nicht über test-samples hinauskamen und dann nVidia 3dfx aufgekauft hat ...

im leistungsvergleich waren die karten garnet so scheisse am ende ...
 
Zuletzt bearbeitet:
Lübke schrieb:
... dass die geforce ddr die voodoo verdrängt hat, hatte sicher nichts mit quake zu tun, sondern schlicht damit, dass sie etwas schneller war ...
Erst mit dem Einsatz von Hardware Texturing & Lighting und Vertex Shading ab Quake III und erst sehr viel später in anderen Spielen, konnte die Geforce 3Dfx abhängen. Das waren völlig neue Techniken dieo "extra" neugemacht werden mussten. Und wie gesagt, die erste Voodoo brauchte nur ca. fünf Spiele um die Welt auf Rasterizing umzuschwenken - einschließlich Nvidia, die bis dahin keinen Rasterizing-Chip hatten.
 
Zuletzt bearbeitet:
die erst aussage stimmt mal garnicht ...
[...],dass 3df unterging hat damit zu tun, dass die neusten karten nicht über test-samples hinauskamen und dann nVidia 3dfx aufgekauft hat ...

Doch tut sie, 3dfx war finanziell dank diverser Fehlentscheidungen und Produktverzögerungen zu Geforce 1 zeiten schwer angeschlagen und als die Geforce 2 rauskam finanziell praktisch ruiniert.
Die V4 und V5 waren weder langsam noch verkauften sie sich schlecht. Nur das hat auch niemand bestritten.
Es reichte nicht um die enormen Verluste der vergangenen Quartale auszugleichen und das wars. Dann kam nV und schnappte sich das Tafelsilber.
 
wie dem auch sei, der grund, warum nvidia sich durchsetzte gegenüber 3dfx ist sicher nicht in einem wandel der spieleengines zu suchen. und der siegeszug der rasterisierung ist ganz leicht mit dem fehlen sinnvoller alternativen zu erklären. (die 3d-fähigkeiten von riva128 und s3 trio/virge waren einfach schwach)

hier geht es aber darum ein erfolgreich etabliertes system vom markt zu verdrängen. und zwar gegen den wiederstand der beiden marktführer (igp mal außen vor gelassen). soetwas hat es imho noch nicht in der geschichte der gpu gegeben.
 
Zuletzt bearbeitet:
wie dem auch sei, der grund, warum nvidia sich durchsetzte gegenüber 3dfx ist sicher nicht in einem wandel der spieleengines zu suchen.

Full ACK.

und der siegeszug der rasterisierung ist ganz leicht mit dem fehlen sinnvoller alternativen zu erklären. (die 3d-fähigkeiten von riva128 und s3 trio/virge waren einfach schwach)

Der Riva 128 war ja ganz okay, im Vergleich zum NV1. :D

hier geht es aber darum ein erfolgreich etabliertes system vom markt zu verdrängen. und zwar gegen den wiederstand der beiden marktführer (igp mal außen vor gelassen). soetwas hat es imho noch nicht in der geschichte der gpu gegeben.

Glaubt man den Gerüchten, musste Gelsinger seinen Platz wegen Larrabee räumen.
Ich glaube auch kaum, das Intel damit groß Erfolg haben wird.
 
Na dann möcte ich mal aran erinnern, dass Mr. John Carmack zu Doom-Zeiten schwadronierte, 3D-Chips würden sich nie durchsetzen, weil ihre Fähigkeiten zu eingeschränkt seien (damals waren programmierbare Shadetr noch nicht abzusehen) und das bestehende System einfach zu gut funktioniere. Es gibt einen Qualitätsgrad der mit Raytracing weniger Rechenzeit benötigt, als mit Rasterisierung, die Frage ist also ncht, ob Raytracing gegen Rasterisierung gewinnen kann, sondern nur wann - das kann möglicherweise noch zehn Jahre dauern, hängt uch davon ab, was den Spielekunden wichtiger ist, hochdetaillierte Texturen oder Licht- und Schatten, wie mein Beispiel Oblivion zeigt, ist eher zu erwarten, dass korrektes Licht und korrekte Schatten die Mehrheit der Kundschaft gar nicht interessiert und deshalb der Siegeszug von Raytracing im Echtzeitarkt noch zehn jahre brauhen wird - bis eben die Rechenleistung der Compute-Shader- und Larrabee-Chips so groß ist, dass wir einen Qualitätsgrad haben, bei dem selbst das Rendern der Modelle und Levels in Raytracing weniger Rechenzeit brauchen wird.

Ich würde zwar lieber ein Spiel in 1024*576 mit korrekten Schatten und korrektem Licht spielen, als Hypermegatexturen in einem Renderbild mit 1920*1080 zu bewundern, aber die Mehrheit der Kundschaft sieht das eben anders. Es gab doch mal ein Adventure ich glaube so um 1999 oder 2000 herum in Raycasting-Grafik (sehr sehr viel hübscher als Heretic und Hexen) mit einer Maximalauflösung von 512*384, das auf den meisten üblichen Rechnern gerademal in 320*240 halbwegs flüssig lief - ich fands geil.
 
Zuletzt bearbeitet:
wenn ich die Kommentare von wegen "absolut lächerlich, immer noch Quake wars" und "hässliche Grafik" hier lese, dann weiß ich was für ein lächerlich dummes Fußvolk hier im Fond die Beiträge schreibt!

Hampelmänner, die sowas schreiben wissen 1. nicht was Raytraycing ist und was es leisten kann und 2. kapieren sie nicht, dass die Beispielrechnung total egal ist um die Mächtigkeit der Sache zu demonstrieren.
Larrabee wird viel mehr leisten können als ihr euch ausmalen könnt. Das wird die neue Grafik, Physik und FPU CPU, ein Coprozessor wie es ihn noch nicht gab. In zwei Jahren wird das ganze dann auch in klein mit auf dem CPU Die erscheinen, da bin ich echt mal gespannt, was NVidia dann macht...
 
Crytek zeigt ja, dass man auch mit Rasterisierung sehr weit kommen kann.
Wenn man nun noch in der Lage ist, Raytracing mit bestehenden Engines zu kombinieren, dann kann man langsam umsteigen und die Vorteile beider Techniken ausnutzen. So wird es wohl auch am ehesten aussehen. Es wird wohl so schnell keine reinen Raytracing-Spiele geben, es sei denn Intel kauft ein Entwicklerstudio extra dafür ein. Und dann wird das Ergebnis weit hinter den aktuellen Spielen liegen, die maßgeblich auf Rasterisierung setzen.

naturtalent schrieb:
Und nein Raytracing ist bei Nvidia und AMD nur ueber umwege zu realisieren und ist imho kein richtiges Raytracing.
Was? Ein ziemlich seltsames Argument. Was heißt Umwege? Nur weil man anders programmieren muss, als für x86? Oder meinst du, weil Grafikkarten eigentlich nicht dafür gebaut wurden Raytracing-Berechnungen durchzuführen? Dennoch kann man sie eben dafür programmieren und dann machen sie das ziemlich schnell. Wenn das Ergebnis das gleiche ist und die zugrundeliegende Mathematik dieselbe, wieso ist es dann kein richtiges Raytracing?
Umgekehrt: Wenn Larabee Rasterisierung berechnet (da warte ich immer noch auf Präsentationen), ist das dann keine richtige Rasterisierung?

Das Problem an Larabee ist, dass Raytracing ziemlich schnell sehr komplex wird, wenn man mehrere Strahlen braucht, weil man zum Beispiel weiche Schatten haben will.

Ich will hier nicht falsch verstanden werden, ich finde es sehr, sehr gut, dass Intel in diese Richtung arbeitet, aber man sollte aufpassen, dass man das ganze nicht unkritisch in den Himmel lobt, wie das hier in mehreren Kommentaren zu lesen ist. Echtzeitraytracing für Spiele wird einfach noch einige zeit brauchen, bis es tauglich ist. Bis dahin wird Larabee hoffentlich aber ein großartiger Chip für "klassische"(nicht-Echtzeit) Raytracing-Beschleunigung und die Grafikkarten werden dank ComputeShadern und OpenCL auch taugliche Co-Prozessoren. Dann gibt es satte Rechenleistung und einen netten Konkurrenzkampf.
 
Zuletzt bearbeitet:
isigrim schrieb:
...
Das Problem an Larabee ist, dass Raytracing ziemlich schnell sehr komplex wird, wenn man mehrere Strahlen braucht, weil man zum Beispiel weiche Schatten haben will.
...
Wenn man viele Schatten halbwegs korrekt in rasterisierung berechnen will, wird das auch schnell sehr komplex. Billig sind Schatten in Rasterisierung nur, wenn sie ziemlich absurd fallen. Splinter Cell hatte bewiesen, dass halbwegs plausibel scheinende Schatten möglich sind, aber eben auch, dass man auch in Rasterisierung sehr viel Aufwand dafür braucht. Die übliche Realität in Rasterisierung-Spielen ist Oblivion, wo man mitunter die Schatten lieber abstellt, damit man nicht von Schatten aus dem Nachbarraum oder Schatten die sich nicht entscheiden können aus welcher Richtungsie kommen sollen genervt wird.
 
Zuletzt bearbeitet:
Zurück
Oben