Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Im Rahmen der Keynote zum Intel Developer Forum 2009 hat Intel für rund vier Minuten einen kurzen Blick auf eine durch das Larrabee gerenderte Szene aus dem Spiel „Enemy Territory – Quake Wars“ gewährt, dessen Engine zuvor auf Raytracing umgestellt wurde (siehe hierzu auch die am Ende verlinkten Artikel).
Abwarten vielleicht wird Larrabee ja wirklich ernste Konkurrenz für Amd und Nvidia. Und wenn das passiert dann gute nacht Amd und Nvidia. Denn dann kauft sich Intel noch im Grafikkartenmarkt rein
Nennen schon, wissen obs stimmt nicht.
Ich geh mal davon aus, dass sie an ne HD4870 1GB durchaus rankommen werden.
Intel hat Geld Geld und nochmals Geld,das darf man nicht vergessen.
Nein, weil das Niveau direkt von den Entwicklern abhängt, hier sieht man eigentlich nur das ET - QW schlechte Texturen hat - das bei Raytracing grundsätzlich alles scheiße aussieht, ist lediglich die Aussage von Personen die offenbar keine Ahnung haben
Da die Karten noch sicherlich ein Jahr brauche lässt sich das schlecht abschätzen, aber Larrabee hat einen entscheidenen Nachteil:
Die Kerne sind zu komplex, da er auf X86 basiert, heißt der Chip wird unverhältnismäßig groß, warm und ineffizient, dass sagt jedenfals meine Glaskugel.
SO EIN Wasser kann derzeit keine andere Karte überhaupt berechnen!!!
Mit Triangelgrafik geht sowas nicht.
Da ist jeder einzelne verdammte Pixel ein Kunstwerk!
Keine Ahnung haben, aber sagen die Grafik ist scheiße... so eine detailierte flache Wasserspiegelung die ECHT ist, bringt keine andere Technik zusammen!
Und wieso DER CHIP?
Da sind 80 Chips+ im Einsatz auf einer Karte.
@Marius
Eh, das ist auch Triangelgrafik.............nur eben über Raytracing berechnet, nicht über Rasterisierung....
Und es sind wohl eher 32 (Chips) Kerne, so hieß es zumindest bisher, aber da muss man die endgültigen Spezifikationen abwarten, die Intel eben noch nicht veröffentlicht hat.
edit: siehe post #19 Es ist ein Chip mit mehreren Kernen
Triangelgrafik über Raytracing berechnet.... so ein Topfen.
Da gibts keine Dreiecke oder sonstwas.
Da ist jeder einzelne Pixel einzeln berechnet.
Wie bei einem Foto, bei dem du für den Bewegungseindruck die einzelnen Pixel veränderst.
Klar, daß Gitte-Modelle dahinter stehen, aber das Ergebnis ist ein völlig anderes.
@Marius
Ich denke du hast wenig Ahnung von der Technik, wenn du derartiges von dir gibst oder du meinst das irgendwie ironisch. Hier ist ein Artikel, der dir vielleicht ein paar Details zu der Technik verät (Und dir die vielen lustigen Dreiecke zeigt........)
Was du meinst ist vielleicht Voxelgrafik. Zumindest lässt deine Äußerung derartiges Vermuten. ATI verwendet übrigens Voxelgrafik für sein Raytracing Projekt: Bright Side of News: World's First ray-traced PC game and movie to arrive in 2012 Das zeigt übrigens neben einigen NVidia Demos, dass die Technik sich auch auf aktuellen Grafikbeschleunigern umsetzen lässt und das ist wahrscheinlich sogar effizienter.
Die Kerne des Chips, es ist ein Chip mit mehreren Kernen, ähnlich aktuellen Dualcore und Quadcore CPUs.
Ich nenne ja auch nicht jede Flashzelle Chip und sage, dass ein Flashspeicher millionen von Speicherchips hat, es ist schlichtweg falsch.
Und wie schon gesagt, der Larrabee wird groß und komplex, jeder einzelne Kern auf dem Chip schleppt alles was man für X86 Berechnungen braucht mit, dass treibt die größe und ineffizients des Larrabees in die Höhe.
Jedenfals hat mir meine Kristalkugel das so erklärt.
q1 2010 auf dem markt? da muss sich nvidia mit seiner gtx300 ja beeilen, um vor intel am markt zu sein
allerdings haut mich die leistung des larrabee noch nocht von den socken. bin mal gespannt, wo sich die larrabee-grafikkarten einordnen werden. ob sie mit ner 9600gt/3870 mithalten können?
man bedenke, es gibt noch keine spiele, die auf raytracing basieren. und gegen 512 nvidia shader oder 1600 (bzw 320 5d) ati shader sehen 80 intel-kerne doch recht arm aus...