News : Larrabee so schnell wie GeForce GTX 285?

, 161 Kommentare

Auch wenn Intels Larrabee-Grafikkarte noch so einige Zeit auf sich warten lassen wird, wirbt der Hersteller bereits jetzt kräftig mit der Werbetrommel. Nicht nur, dass Intel bereits diverse technische Details zum Grafikchip bekannt gegeben hat, auch das Zielsegment gibt man an: Bis hinauf in den High-End-Markt soll es gehen.

Ob dieses hoch gesteckte Ziel erreicht werden kann, ist aktuell noch fraglich, zudem die voraussichtliche Performance des GT300 sowie des RV870 von Nvidia und ATi noch unbekannt sind. Die Kollegen von Tom's Hardware hatten nun auf der Computex die Möglichkeit, mit einem Intel-Partner zu sprechen, der logischerweise nicht genannt werden will. Dementsprechend sind die Aussagen, wie bei Gerüchten üblich, mit großer Vorsicht zu genießen.

Demnach ist Larrabee zumindest aktuell noch weit von der Performance des High-End-Segment der „Next-Generation“-GPUs entfernt. Derzeit würde Larrabee in etwa die Leistungen einer GeForce GTX 285 aufweisen können. Zudem glaubt der Partner nicht, dass man mit weiteren Revisionen in die Geschwindigkeitsregionen der zukünftigen ATi- und Nvidia-GPUs wird vorstoßen können.

Von unserer Seite wollen wir an dieser Stelle anmerken, dass bei Intels Larrabee der Treiber wahrscheinlich noch eine wichtigere Rolle als bei ATi- und Nvidia-GPUs spielen wird, da die Programmierung eines Großteil des Larrabee-Chips in Software geschieht. Spezialisierte Teile, wie zum Beispiel die ROPs, wird es im Larrabee nicht mehr geben. Stattdessen muss der Treiber die entsprechende Umsetzung in den ALUs gewährleisten.

161 Kommentare
Themen:

Ergänzungen aus der Community

  • gruffi 08.06.2009 21:31
    ja moment mal eine frage,
    das larrabee so schnell sein soll wie eine GTX 285 hab ich schonmal gelesen aber ich hab auch gehoert das der oder die Larrabees linear mit der anzahl der Kerne skalliert. Heisst das wenn man 10 damit on den rechner stopft das man dann doch wieder high-end ist oder was ist los ?! miagi
    Larrabee skaliert nur bis zu einer gewissen Anzahl an Kernen linear. Hier hast du eine Übersicht dazu. So bei etwa 32 Kernen, mit denen vermutlich das Top Modell gelauncht wird, nimmt der Performancezuwachs ab. Es macht ab einem gewissen Punkt also keinen Sinn mehr, weitere Karten im Rechner zu verbauen.
    Mal abgesehen davon wird dann auch die Effizienz unglaublich schlecht. Larrabee in 45 nm ist sogar noch deutlich grösser (600-700 mm²?) als der GT200 in 55 nm (<500 mm²). Dh, wenn man gerade mal auf diesem Niveau liegt, ist die Performance pro mm² noch um einiges schlechter. Von AMD Dimensionen will ich gar nicht erst anfangen. Und dass Larrabee einiges an Strom brauchen wird, ist wohl auch abzusehen.

    Die Unterschiede zwischen nVidia/AMD GPU und Intels Larrabee sind grösser als Du meinst. Man kann beispielsweise einen G200 nicht einfach mit C programmieren. Zudem muss bei nVidia die CUDA Schnittstelle genutzt werden. Winterday
    Was glaubst du, worauf Spracherweiterungen wie CUDA oder OpenCL basieren? ;) Ich sehe in der x86 Kompatibilität des Larrabee mittlerweile auch keinen Vorteil mehr. Im Gegenteil, C oder C++ bieten keinen grundsätzlichen Support für die erforderliche Parallelisierung. Man kann zwar auf Threads zurückgreifen, dass die hier aber sonderlich hilfreich sind, wage ich zu bezweifeln. Letztendlich bleibt Intel wohl auch nichts anderes übrig, als den Code auf OpenCL oder ähnlichem aufzubauen. Wenn ich das noch richtig in Erinnerung habe, nannte sich dies bei Intel Ct. Keine Ahnung, was daraus mittlerweile geworden ist.

    Mit Software ist wesentlich mehr möglich als mit Hardware, daher kann man damit auch leichter die Leistung steigern FKorni
    Das halte ich für ein Gerücht. Wie viel Prozent war nochmal der RV770 leistungsfähiger als der RV670? Und wie Prozent an Performance hat man seit dem Launch des RV770 noch mit Treibern herausgeholt? Das spricht ganz klar für Hardware. Was man sagen kann, ist, dass Intel durch die Treiber wohl mehr herausholen kann als AMD oder nVidia. Trotzdem bleibt die Kapazität der Hardware der limitierende Faktor.


    Momentan sehe ich jedenfalls praktisch keine Vorteile, die Intel mit dem Larrabee gegenüber AMDs oder nVidias nächster Generation zu bieten hätte. Die Schätzungen im Vergleich zur GTX 285 halte ich zudem für zu optimistisch. Ich kann mir nicht vorstellen, dass man da mithalten können wird. Erst recht nicht bei Quali Settings. Larrabee scheint genau das zu werden, was man im Vorfeld befürchten müsste. Aufgrund der aufpolierten x86 P5 Kerne ein ziemlich grosser und ineffizienter Chip. Zumindest für Spieler recht uninteressant. Etwas anders könnte das bei GPGPU aussehen. Gerüchteweise ist die Rede von etwa 1 TFLOPS bei DP. Das klingt gar nicht mal so schlecht und könnte als einziger Punkt für Larrabee sprechen. Sollte ATI nichts grundlegend an den Shadern ändern und die bisherigen Spekulationen zu den Specs des RV870 stimmen, wäre das in etwa vergleichbar mit der HD 5870 X2. Gewissheit bringt bekanntlich aber erst der Launch. Bis dahin sollte man sich also noch gedulden. Die Zeit läuft jedenfalls gegen Intel. Und wenn man den Gerüchten von THG glauben darf, sprechen die genau dafür. Larrabee ist momentan einfach nicht konkurrenzfähig. Vielleicht ist man das ja 2011.
  • Wiesi21 09.06.2009 13:25
    @gruffi

    tut mir leid, aber das ist einfach nicht richtig. Außerdem brauch ich kein C um Software für nen x86 Proc zu schreiben. Die Sprache ist letztlich völlig egal, solange ich einen passenden Compiler hab :rolleyes

    OpenCL wird ja nur benötigt, um die Hersteller dazu zu bringen ihre Grafikhardware um die benötigten Features zu erweitern, da sie bisher einfach noch zu eingeschränkt dafür sind. (Man hat dann einfach noch mehr mögliche Shader, da die Graka ja hierüber programmiert wird)
    ein x86 Prozessor kann solche Berechnungen in Software ohnehin tätigen... (die DX10 Softwarerenderingschnittstelle läuft bereits auf allen Prozessoren, und Larrabee wird nur die Geschwindigkeit von unbrauchbar auf spielbar beschleunigen, da er pro Kern 4*mehr Ausführungseinheiten besitzt als ein heutiger i7, ne weit kürzere Pipeline, schnellere GRam Anbindung und einige beschleunigende special Function Units.)

    OpenCL basiert auf C, was aber nur bedeutet, dass es sich ähnlich programmieren lässt, nicht mehr nicht weniger. Open CL kann man vielleicht in Zukunft auch in Java programmieren, ähnlich wie OpenGL jetzt bereits (arbeite schon länger ziemlich begeistert mit JOGL)
    Ich bin jetzt zwar schon länger weg von C, aber ich frage mich wo du Probleme bei der Parallelprogrammierung siehst? Probleme hab ich nur dann wenn meine Arbeit sich nicht weit genug aufteilen lässt, aber für diese Berechnungen würd ich ohnehin nie die GPU nutzen ;)

    Die Rechenlast kann ich schon von der Programmierung her, auf viele Threads aufteilen, der Compiler "übersetzt" dann eben noch. dies reicht bei x86 eben schon aus, wenn ich etwas auf die Hardware Rücksicht nehme(die neueren Intel Compiler sind allerdings auch schon recht zuverlässig bei der automatischen Erkennung von Parallelität).

    Bei den nVidia GPUs reicht dies natürlich nicht, da die Befehle über CUDA als Shader ausgeführt werden müssen und der Threadsheduler in der Hardware sitzt und nochmal ungleich mehr Threads benötigt werden.

    Ich weiß natürlich nicht, wie Intel die Entwicklung auf Larrabee umsetzen wird, aber sie wären dumm aus x86 nicht die dahingehenden Vorteile zu nutzen.
  • theorist 09.06.2009 14:23
    Ich bin mal gespannt ob Intel ueberhaupt support in den Treibern gibt. Denn wenn die Treiberpolitik sich von Intel nicht aendert, wird Larrabee genau so ein Muell werden, wie alle anderen Grafikkarten auch. Es wird ein haufen Zeugs an features unterstuetzt, aber keins davon findet sich in den Treibern wieder :rolleyes FreddyMercury
    Larabee ist ein Software-Rasterizer, entsprechend ist das Teil ohne im Treiber nachgebildete Funktionen keine Grafikkarte. Das Featureset wird auch vom Treiber bestimmt. Was unterstützt wird und was nicht, bestimmt alleine der Treiber. Brachliegende Spezialhardware wird es nicht geben, da alle API-spezifischen Funktionen nur in Software vorhanden sein werden.
    Übrigens: Was willst du aus den IGPs von Intel noch rausholen? Selbst der Intel GMA X4500 von den Desktop-Boards hat nur 2 TMUs und 10 Unified-Shader-Einheiten @ 800 MHz, während z.B. eine Radeon HD 3300 (AMD 790GX) schon 4 TMUs und 40 SPs @ 700 MHz bietet. Kein Wunder, dass Intel im IGP-Bereich nicht hinterherkommt.

    source ist cpu (x86) optimiert und crysis ist gpu (shaderarchitektur) optimiert. da is ein zusammenhang wohl nicht schwer zu erraten oder? ;) Lübke
    :confused
    Für Crysis brauchst du aber eine deutlich stärkere CPU, um flüssig spielen zu können, als für Source-Spiele.