News Weitere Impressionen von „Larrabee“

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.190
Im Rahmen der Keynote zum Intel Developer Forum 2009 hat Intel für rund vier Minuten einen kurzen Blick auf eine durch das Larrabee gerenderte Szene aus dem Spiel „Enemy Territory – Quake Wars“ gewährt, dessen Engine zuvor auf Raytracing umgestellt wurde (siehe hierzu auch die am Ende verlinkten Artikel).

Zur News: Weitere Impressionen von „Larrabee“
 
Wow, was für ein Grafikpracht Intels Larrabee dahin zaubert! Ich sehe da eine rosige Zukunft für die Intel Integrated Graphics!

*wer Ironie findet darf sie behalten*
 
Hauptsache Intel kommt überhaupt in die Puschen. Das Land braucht Konkurrenz.
 
ehmm, naja - bin mir nicht sicher wie lang die dafür gebraucht haben - und eigentlich nichts spektakuläres

Intel Grafik mal schauen, ob sie mitmischen können
 
Auch wenn die Technik (Raytracing) beeindruckend ist, optisch sah das jetzt richtig schlecht aus .. das Wasser, omg!

Mir gefallen die "Zukunftsaussichten" von AMD un nVidia irgendwie besser, Stromaufnahme und Performance machen auf mich den besseren Eindruck!
 
Auf welchem Grafikkartenniveau befindet sich denn larrabee unegfähr?
Also ich meine, ob larabee auf dem Highendmarkt mithalten kann.
Was meint ihr?
 
edmih23 schrieb:
Auf welchem Grafikkartenniveau befindet sich denn larrabee unegfähr?

Ich würde sagen zwischen Voodoo 2 und GeForce DDR. :evillol:

Noch nie zuvor hat man solche Grafikpracht bewundern dürfen ;)
 
Nennen schon, wissen obs stimmt nicht.
Ich geh mal davon aus, dass sie an ne HD4870 1GB durchaus rankommen werden.
Intel hat Geld Geld und nochmals Geld,das darf man nicht vergessen.
 
aber kann man denn kein niveau nennen??
Nein, weil das Niveau direkt von den Entwicklern abhängt, hier sieht man eigentlich nur das ET - QW schlechte Texturen hat - das bei Raytracing grundsätzlich alles scheiße aussieht, ist lediglich die Aussage von Personen die offenbar keine Ahnung haben ;)
 
Da die Karten noch sicherlich ein Jahr brauche lässt sich das schlecht abschätzen, aber Larrabee hat einen entscheidenen Nachteil:

Die Kerne sind zu komplex, da er auf X86 basiert, heißt der Chip wird unverhältnismäßig groß, warm und ineffizient, dass sagt jedenfals meine Glaskugel.
 
Was seid ihr denn für Trolle?!

SO EIN Wasser kann derzeit keine andere Karte überhaupt berechnen!!!
Mit Triangelgrafik geht sowas nicht.
Da ist jeder einzelne verdammte Pixel ein Kunstwerk!

Keine Ahnung haben, aber sagen die Grafik ist scheiße... so eine detailierte flache Wasserspiegelung die ECHT ist, bringt keine andere Technik zusammen!

Und wieso DER CHIP?
Da sind 80 Chips+ im Einsatz auf einer Karte.
 
@Marius
Eh, das ist auch Triangelgrafik.............nur eben über Raytracing berechnet, nicht über Rasterisierung....
Und es sind wohl eher 32 (Chips) Kerne, so hieß es zumindest bisher, aber da muss man die endgültigen Spezifikationen abwarten, die Intel eben noch nicht veröffentlicht hat.
edit: siehe post #19 Es ist ein Chip mit mehreren Kernen
 
Zuletzt bearbeitet:
Triangelgrafik über Raytracing berechnet.... so ein Topfen.
Da gibts keine Dreiecke oder sonstwas.
Da ist jeder einzelne Pixel einzeln berechnet.
Wie bei einem Foto, bei dem du für den Bewegungseindruck die einzelnen Pixel veränderst.

Klar, daß Gitte-Modelle dahinter stehen, aber das Ergebnis ist ein völlig anderes.

http://de.wikipedia.org/wiki/Raytracing
 
Zuletzt bearbeitet von einem Moderator: (Lexikon-Link korrigiert)
@Marius
Ich denke du hast wenig Ahnung von der Technik, wenn du derartiges von dir gibst oder du meinst das irgendwie ironisch.
Hier ist ein Artikel, der dir vielleicht ein paar Details zu der Technik verät (Und dir die vielen lustigen Dreiecke zeigt........)
Was du meinst ist vielleicht Voxelgrafik. Zumindest lässt deine Äußerung derartiges Vermuten. ATI verwendet übrigens Voxelgrafik für sein Raytracing Projekt: Bright Side of News: World's First ray-traced PC game and movie to arrive in 2012 Das zeigt übrigens neben einigen NVidia Demos, dass die Technik sich auch auf aktuellen Grafikbeschleunigern umsetzen lässt und das ist wahrscheinlich sogar effizienter.

Eh wie passt das zusammen:
Marius schrieb:
Da gibts keine Dreiecke oder sonstwas.
Marius schrieb:
Klar, daß Gitte-Modelle dahinter stehen, aber das Ergebnis ist ein völlig anderes.
 
Zuletzt bearbeitet:
Marius schrieb:
Und wieso DER CHIP?
Da sind 80 Chips+ im Einsatz auf einer Karte.

Die Kerne des Chips, es ist ein Chip mit mehreren Kernen, ähnlich aktuellen Dualcore und Quadcore CPUs.

Ich nenne ja auch nicht jede Flashzelle Chip und sage, dass ein Flashspeicher millionen von Speicherchips hat, es ist schlichtweg falsch.

Und wie schon gesagt, der Larrabee wird groß und komplex, jeder einzelne Kern auf dem Chip schleppt alles was man für X86 Berechnungen braucht mit, dass treibt die größe und ineffizients des Larrabees in die Höhe.

Jedenfals hat mir meine Kristalkugel das so erklärt.
 
q1 2010 auf dem markt? da muss sich nvidia mit seiner gtx300 ja beeilen, um vor intel am markt zu sein :D

allerdings haut mich die leistung des larrabee noch nocht von den socken. bin mal gespannt, wo sich die larrabee-grafikkarten einordnen werden. ob sie mit ner 9600gt/3870 mithalten können?

man bedenke, es gibt noch keine spiele, die auf raytracing basieren. und gegen 512 nvidia shader oder 1600 (bzw 320 5d) ati shader sehen 80 intel-kerne doch recht arm aus...
 
Zurück
Oben