News Larrabee so schnell wie GeForce GTX 285?

Ich sage dazu ein Wort, das jeder versteht: "Niemals!"

Alles Marketinggewäsch! Davon träumen sie höchstens. Intel und Grafik, das ist wie der Teufel, der in den Himmel kommt: Unmöglich, aber jeder glaubt daran!

Was die Parallelisierungsprognosen von Intel angeht haben schon Quadcores gezeigt - viel Luft um nichts. Ist ja überhaupt kein Zufall, dass es mit dem GTX285ausgerechnet die schnellste Ein-Chip-Lösung auf dem Markt ist - Zufall? Richtig, ich glaub auch an den Weihnachtsmann :lol:

Wenn sie gesagt hätten NV8800GTS / HD3870, wäre es eher glaubwürdig, aber dennoch nicht ungedingt wahr ... :king:
 
noskill schrieb:
Mit jeder neuen Grafikgeneration (also fast jährlich) steigert sich die Leistung der Grafikhardware um ungefähr 75% und da sind Treiberoptimierungen nicht drin!

Das war vllt. das letzte mal beim G80 der Fall. Seit dem hat sich recht wenig getan, wenn man mal ganz ehrlich ist.
 
nvidia und ati können intels larrabee imho leicht auf distanz halten: die shaderzahlen erhöhen ist bedeutend einfacher und günstiger als komplette x86-einheiten zu ergänzen.
wenn nvidia und ati sich da einig sind, bringen beide monsterchips für highend raus, die aufgrund ihrer brachialen shaderleistung den larrabee links liegen lassen werden. allerdings werden solche karten wieder wie fürher 500,- € bis 1.000,- € kosten und nicht wie im moment 200,- € bis 300,- €. der effekt wäre also wohl primär marketing, da viele dann wieder zur mittelklasse greifen werden, wo intel ja auch ein wörtchen mitzureden hat. allerings verkauft sich ein ableger einer highendkarte deutlich besser, als eine karte, die schon auf anschlag läuft und nur im mittelfeld rumkrebst. andersrum hat intel in sachen marketing noch nie schwierigkeiten gehabt. die haben schon zu p4-zeiten fast eine monopolstellung inne gehabt, ohne ein konkurrenzfähiges produkt vorweisen zu können.
allerdings kam ihnen auch das schwache bis nicht vorhandene marketing von amd entgegen. bei nvidia werden sies schwerer haben und ati kann auf der nvidia-welle mitschwimmen, indem sie vergleichbare produkte bringen und wie auch jetzt im direkten konkurrenzkampf um die spitze stehen.

auf jeden fall erwarte ich eine sehr spannende entwicklung. :)
 
Zuletzt bearbeitet:
Naja ich glaub sowieso, dass es nur von der theoretischen Leistung an die GTX285 rankommt, für Spieleleistung fehlt meiner Meinung nicht nur der RAM, sondern auch andere Sachen.

nvidia und ATI werden mit großer Wahrscheinlichkeit Intel noch eine Weile auf Distanz halten können, aber mit großen Investitionen kann sich sowas ganz schnell wenden.

Gibt es eigentlich Infos ob Larrabee DX11 unterstützen wird, oder nur DX10/10.1?
 
bnomis1 schrieb:
Wenn man bedenkt, wie dreist die Marketingabteilungen dieser Welt so umgehen (denke da an die Leistunghcohrechnung der PS3 und der Xbox 360), dann wundert es mcih gar nciht, das die sagen, das Ding ist so gut wie ne 285.

Auch wenn ich nicht glaube das es sich um die Flop anzahl handelt hast du nicht ganz recht.
Bei PS3 und XBOX 360 kommt die hohe Rechenleistung durch die höhere Kernanzahl der CPUs zu stande. Bei Larrabee hat man aber deutlich weniger Kerne wie die Konkurrenz von Nvidia und Ati also reintheoretisch müsstest du selbst glauben das Larrabee nochmals deutlich schneller wäre als die GTX 285. Aber man kann diese Architekturen in keiner Weise vergleichen daher wäre ein Vergleich der Flop Leistung sinnlos und aus diesem Grund ist der Vergleich wohl eher auf die echte 3D Leistung bezogen.


noskill schrieb:
Dass die Leistungssteigerung deswegen leichter möglich ist, halte ich auch für ein Gerücht.
Mit jeder neuen Grafikgeneration (also fast jährlich) steigert sich die Leistung der Grafikhardware um ungefähr 75% und da sind Treiberoptimierungen nicht drin!
Um das zu erreichen müsste Intel jedes Jahr die Anzahl der Recheneinheiten auf dem Larrabee fast verdoppeln.

Mit Software ist wesentlich mehr möglich als mit Hardware, daher kann man damit auch leichter die Leistung steigern, um wie viel wird sich wohl noch zeigen.
75% sind auch etwas übertrieben
Ja und du glaubst das man nur durch das vermehren der Kerne mehr Leistung bekommt?
Man kann die Architektur stark omptimieren was meist bei einer ganz neuen noch besser geht. Die Taktraten lassen sich dadurch auch oft noch steigern und dann gibt man noch ein paar Kerne dazu. Nur weil Nvidia und ATI schon so lange nichts Neues mehr gebracht haben und nur die Kerne vermehren heißt das nicht das es nicht auch anders geht.

Das geht aber nur wenn sich der Produktionsprozess jährlich halbieren würde, was aber nicht der Fall ist.

Stimmt nicht ganz, um das doppelte auf einer Fläche unterzubringen muss man nicht die Fertigungstechnik halbieren. Bei einer kleiner Fertigungstechnik lässt sich zusätzlich auch die Dichte der Transistoren erhöhen.

Auch dass Multi-GPU Probleme bei Intels Larrabee der Vergangenheit angehören würden halte ich für ein Gerücht.

So unwahrscheinlich ist das nicht insofern Intel überhaupt solch eine Lösung auf den Markt bringen wird. Die Multi-GPU Probleme sind größtenteils durch AFR bedingt, wenn man auf eine andere Technologie setzt umgeht man diese Probleme größtenteils.


Arhey schrieb:
Gibt es eigentlich Infos ob Larrabee DX11 unterstützen wird, oder nur DX10/10.1?

Nachdem bei Larrabee so ziemlich als bereits jetzt mit Software geplant ist wird es wohl auch DX 11 und spätere Versionen unterstützen. ;)


Lübke schrieb:
nvidia und ati können intels larrabee imho leicht auf distanz halten: die shaderzahlen erhöhen ist bedeutend einfacher und günstiger als komplette x86-einheiten zu ergänzen.

So einfach ist dass dann auch wieder nicht, zumal ATI ja schon jetzt mit seiner geballten Shader-Leistung nicht weiß wohin, also bei den aktuellen Architekturen von ATI und Nvidia lässt sich dann auch mit diesem Trick nicht mehr so viel Leistung heruasholen. Und das sich beide gegen Intel stellen glaub ich auch nicht.
 
Zuletzt bearbeitet:
Bin gespannt, wie Larrabee am Ende aussieht!
Verschiedene Spielegrößen, wie auch John Carmack erwarten den Chip ja mit Spannung, weil man dann wie in früheren Zeiten seine Engines nicht anhand von APIs wie DX10 sondern wieder mit nem Editor und nem C-Compiler entwickeln kann: Das lässt dem Entwickler ungeahnte Möglichkeiten! Hoffentlich führt das auch zu kreativeren Spiele ;-)

Hat Intel eine Chance? Ich stimme zu, dass die Intel Architektur wohl nicht annähernd so effizient ist, wie die von NVidia und ATI. Wär ja auch blamabel für die beiden Hersteller: Die entwickeln seit 15Jahren ihre GPUs und plötzlich kommt Intel dahergelaufen und macht alles besser. Das wäre wie, wenn die nächste S3 Chrome Karte Leistungssieger würde.

ABER: Intel hat einen gewaltigen Vorteil, mit dem sie auch AMD oft genug ausstechen: Intel ist in der Fertigungstechnik immer zwei Stufen vorraus. Das heißt: Larrabee kommt in 32nm, wenn NVidia/ATI gerade 40nm haben. Ab dem 22nm node kann es sein, das TSMC um Jahre in Rückstand gerät, weil der so wahnsinnig teuer ist!
Das könnte Nvidia und ATI wirklich langristig das Genick brechen!
 
Wenn ihr die news erst heute paar tage nach erscheinen bei thg bringt, hättet ihr sie ruhig mit der Folgenews bei thg kombinieren können:
http://www.tomshardware.co.uk/intel-larrabee-gpu-graphics,news-31297.html

Zusammenfassend in etwa:
Larrabee wäre fast 650mm² in 45nm, wenn intel ihn in 45nm bringen sollte, soll aber auf 2011 verschoben sein und wer weiß wieviel der dann erscheinende Larrabee noch mit dem jetzigen zutun hat. Desweiteren soll die dritte Larrabee-Generation zur ersten und zweiten inkompatibel sein, der dritte Larrabee soll aber die andern emulieren können.
 
Intel ist tatsächlich wahnsinnig geworden und versucht in einen Markt einzusteigen, der hart umkämpft ist, der dem CPU Markt gleicht.
Das sag ich nur " This is Madness....."
 
Was sollen sie denn machen? Friss oder stirb! Die klassische CPU wird langsam aber sicher in jedem erdenklichen Bereich geschlagen, lange kann sich Intel nicht mehr nur auf CPUs only verlassen.

Geht ja schon los beim Atom wo der Ion(16 Kerne der jeden Nehalem platt macht wenn die Software stimmt) 10 mal wichtiger ist als die CPU und hört im Servermarkt bei Tesla auf...

Oder glaubst du AMD hat nur zufällig ATI gekauft und wirbt mit THE FUTURE IST FUSION ;)
 
Zuletzt bearbeitet:
intel hat gegenüber amd und nvidia den größeren geldbeutel.
 
Wie so viele kann ich es kaum erwarten, wie sich der Larrabee im Verlgleich zu heutigen High-End Karten schlägt.

Ein dritter im Bunde der Graka-Hersteller wäre wirklich zu begrüßen.

Rein aus dem Bauch heraus, traue ich es Intel aber schon zu, AMD und NV ordentlich Dampf zu machen.
 
miagi schrieb:
ja moment mal eine frage,
das larrabee so schnell sein soll wie eine GTX 285 hab ich schonmal gelesen aber ich hab auch gehoert das der oder die Larrabees linear mit der anzahl der Kerne skalliert. Heisst das wenn man 10 damit on den rechner stopft das man dann doch wieder high-end ist oder was ist los ?!
Larrabee skaliert nur bis zu einer gewissen Anzahl an Kernen linear. Hier hast du eine Übersicht dazu. So bei etwa 32 Kernen, mit denen vermutlich das Top Modell gelauncht wird, nimmt der Performancezuwachs ab. Es macht ab einem gewissen Punkt also keinen Sinn mehr, weitere Karten im Rechner zu verbauen.
Mal abgesehen davon wird dann auch die Effizienz unglaublich schlecht. Larrabee in 45 nm ist sogar noch deutlich grösser (600-700 mm²?) als der GT200 in 55 nm (<500 mm²). Dh, wenn man gerade mal auf diesem Niveau liegt, ist die Performance pro mm² noch um einiges schlechter. Von AMD Dimensionen will ich gar nicht erst anfangen. Und dass Larrabee einiges an Strom brauchen wird, ist wohl auch abzusehen.

Winterday schrieb:
Die Unterschiede zwischen nVidia/AMD GPU und Intels Larrabee sind grösser als Du meinst. Man kann beispielsweise einen G200 nicht einfach mit C programmieren. Zudem muss bei nVidia die CUDA Schnittstelle genutzt werden.
Was glaubst du, worauf Spracherweiterungen wie CUDA oder OpenCL basieren? ;) Ich sehe in der x86 Kompatibilität des Larrabee mittlerweile auch keinen Vorteil mehr. Im Gegenteil, C oder C++ bieten keinen grundsätzlichen Support für die erforderliche Parallelisierung. Man kann zwar auf Threads zurückgreifen, dass die hier aber sonderlich hilfreich sind, wage ich zu bezweifeln. Letztendlich bleibt Intel wohl auch nichts anderes übrig, als den Code auf OpenCL oder ähnlichem aufzubauen. Wenn ich das noch richtig in Erinnerung habe, nannte sich dies bei Intel Ct. Keine Ahnung, was daraus mittlerweile geworden ist.

FKorni schrieb:
Mit Software ist wesentlich mehr möglich als mit Hardware, daher kann man damit auch leichter die Leistung steigern
Das halte ich für ein Gerücht. Wie viel Prozent war nochmal der RV770 leistungsfähiger als der RV670? Und wie Prozent an Performance hat man seit dem Launch des RV770 noch mit Treibern herausgeholt? Das spricht ganz klar für Hardware. Was man sagen kann, ist, dass Intel durch die Treiber wohl mehr herausholen kann als AMD oder nVidia. Trotzdem bleibt die Kapazität der Hardware der limitierende Faktor.


Momentan sehe ich jedenfalls praktisch keine Vorteile, die Intel mit dem Larrabee gegenüber AMDs oder nVidias nächster Generation zu bieten hätte. Die Schätzungen im Vergleich zur GTX 285 halte ich zudem für zu optimistisch. Ich kann mir nicht vorstellen, dass man da mithalten können wird. Erst recht nicht bei Quali Settings. Larrabee scheint genau das zu werden, was man im Vorfeld befürchten müsste. Aufgrund der aufpolierten x86 P5 Kerne ein ziemlich grosser und ineffizienter Chip. Zumindest für Spieler recht uninteressant. Etwas anders könnte das bei GPGPU aussehen. Gerüchteweise ist die Rede von etwa 1 TFLOPS bei DP. Das klingt gar nicht mal so schlecht und könnte als einziger Punkt für Larrabee sprechen. Sollte ATI nichts grundlegend an den Shadern ändern und die bisherigen Spekulationen zu den Specs des RV870 stimmen, wäre das in etwa vergleichbar mit der HD 5870 X2. Gewissheit bringt bekanntlich aber erst der Launch. Bis dahin sollte man sich also noch gedulden. Die Zeit läuft jedenfalls gegen Intel. Und wenn man den Gerüchten von THG glauben darf, sprechen die genau dafür. Larrabee ist momentan einfach nicht konkurrenzfähig. Vielleicht ist man das ja 2011.
 
Zuletzt bearbeitet:
@noskill

Mit jeder neuen Grafikgeneration (also fast jährlich) steigert sich die Leistung der Grafikhardware um ungefähr 75% und da sind Treiberoptimierungen nicht drin!
Um das zu erreichen müsste Intel jedes Jahr die Anzahl der Recheneinheiten auf dem Larrabee fast verdoppeln.

und was außer die Anzahl der Recheneinheiten zu verdoppeln, machen die anderen Hersteller?
wie Silverhawk sagt, Intel war und ist jedem anderen Hersteller bei der Fertigungstechnik weit vorraus und genau damit haben sie in der Vergangenheit viele Konkurrenten alt aussehen lassen.

SLI/CF haben noch immer massenhaft Probleme, vorallem was den Input-Lag betrifft...
und die Probleme können nicht verschwinden, solange AFR verwendet wird und die zweite Grafikkarte ein Bild vorrausberechnen muss, von dem noch gar keine Input Daten vorhanden sind...
Larrabee kann dadurch, dass er eben die Arbeit nicht erst in Hardware auf dem einzelnen Chip verteilt sondern bereits im Treiber die Arbeit an "einem" Bild auf mehrere Chips verteilen --> vergleiche Hydra von LucidLogic welches ja ein von Intel gesponsertes Startup ist.

@Kasmopaya

Geht ja schon los beim Atom wo der Ion(16 Kerne der jeden Nehalem platt macht wenn die Software stimmt) 10 mal wichtiger ist als die CPU und hört im Servermarkt bei Tesla auf...

die wenigen Anwendungen, welche bisher von der GPU beschleunigt werden, decken eben nur die paar Bereiche ab, für welche GPUs geeignet sind. Solche heutigen GPUs können keine CPU ersetzen.
Wenn man sich etwas mit threaded Programmierung auskennt, weiß man wie wenige Aufgaben es gibt welche sich beinahe beliebig teilen lassen und nur solche können auf heutigen GPUs schneller als auf CPUs ausgeführt werden. Weiterhin kann man die Masse der Berechnungen nur durch schnellere einzelne Kerne beschleunigen, was ohnehin der Engpass in der Zukunft sein wird.

Als Co-prozessor für eben jene geeigneten Aufgaben, werden sie sich in Zukunft aber sicher sehr gut positionieren. (den FUSION Ansatz, kann man ja genau so interpretieren)
Und genau hier wird Larrabee noch weitaus besser verwendet werden können.

Tesla, wenn dann auf dem Markt für wissenschaftliche Rechner, aber sicher nicht auf dem Servermarkt ;)

Und ION beschleunigt gerade mal Videos und Spiele, kann den Atom aber ansonsten kaum unterstützen --> von wegen Nehalem platt machen. Außerdem hat der 9400m 54 Gflop peak bei SP welche der i7 920 mit DP beinahe erreicht (im SisoftSandra Bench, also noch deutlich unter peak).
Aber, wie gesagt, ohnehin nicht vergleichbar nur um klarzustellen, dass der ION auch bei optimalen Bedingungen nicht an einen i7 herankommt. d.h. mit einem optimierten GPU Konvertierer kann man auch beim optimal geeigneten Videokonvertieren bei gleichem Detailgrad nicht mehr aus dem ION rausholen als mit einem ebenfalls optimierten CPU Konvertierer und i7.

bei den schnelleren GPUs sieht dies natürlich anders aus :)

edit:

@gruffi

Zitat von Winterday
Die Unterschiede zwischen nVidia/AMD GPU und Intels Larrabee sind grösser als Du meinst. Man kann beispielsweise einen G200 nicht einfach mit C programmieren. Zudem muss bei nVidia die CUDA Schnittstelle genutzt werden.
Was glaubst du, worauf Spracherweiterungen wie CUDA oder OpenCL basieren? Ich sehe in der x86 Kompatibilität des Larrabee mittlerweile auch keinen Vorteil mehr. Im Gegenteil, C oder C++ bieten keinen grundsätzlichen Support für die erforderliche Parallelisierung. Man kann zwar auf Threads zurückgreifen, dass die hier aber sonderlich hilfreich sind, wage ich zu bezweifeln. Letztendlich bleibt Intel wohl auch nichts anderes übrig, als den Code auf OpenCL oder ähnlichem aufzubauen. Wenn ich das noch richtig in Erinnerung habe, nannte sich dies bei Intel Ct. Keine Ahnung, was daraus mittlerweile geworden ist.
du solltest dir den Unterschied zwischen Programmiersprachen, Befehlssätzen und Schnittstellen wohl noch mal etwas genauer ansehen.
 
Zuletzt bearbeitet:
Naja, abschreiben würd ich Intel nicht gerade (im Grafikbereich), wie es einige hier schon fast tun.
Wenn man mal bei dem neuen Markt für SDD- Festplatten schaut, mischen die mit Ihren Produkten ziemlich weit vorne mit.
Spannend bleibt es wenigstens :)
 
Dieses Software emulieren erinnert mich stark an diese CPU, bitterlich untergegangen.
Erst groß angeben, ja wird alles per Software gemacht, und gibt doch nix...
 
Wiesi21 schrieb:
du solltest dir den Unterschied zwischen Programmiersprachen, Befehlssätzen und Schnittstellen wohl noch mal etwas genauer ansehen.
Mach dir da mal keine Sorgen. Ich weiss schon, wovon ich spreche. ;) Du darfst aber gerne konkreter werden, wenn du etwas nicht verstehst.
 
naja, C oder C++ haben überhaupt nichts mit den Vorteilen/Nachteilen von x86 zu tun.
Und warum Intel den "Code" auf OpenCL aufbauen sollte würde mich wirklich interessieren, sie werden einen OpenCL Kernel in ihre Software integrieren, aber nicht ihre Software darauf aufbauen.

CUDA /OpenCL sind Schnittstellen keine Spracherweiterungen.

Ich hab das Gefühl hier gibt es nicht viel zu verstehen, tut mir leid...
 
... selbst wenn Intels Larrabee tatsächlich eine ähnliche Leistungfähigkeit wie die GTX285 hätte, heißt das noch lange nicht, dass man die Leistung auch entsprechend in Spielen umsetzen könnte!

Für mich steht und fällt Intels Traum mit der Möglichkeit, vernünftige Treiber zu generieren - und wer glaubt, dass man die jahrelange Erfahrung von Nvidia und AMD/ATI so einfach aufholen kann, dürfte aufs falsche Pferd setzen ... ;)
 
Silverhawk schrieb:
Bin gespannt, wie Larrabee am Ende aussieht!
Was ich bislang gesehen und gelesen habe:
- 32 Prozessor-Cores (In-Order-Execution, 4 Threads pro Core) mit je einer VEC16-SIMD-ALU (effektiv VEC8 bei double precision)
- 32 TMUs
- 8 MiB L2-Cache (256 KiB pro Core)
- interner 2*512-Bit-Ringbus
- wahrscheinlich ein 256-Bit-GDDR5-Speicherinterface
- wahrscheinlich 1 GiB RAM als Standard (acht 32Mx32-Speicherchips)
- Core-Takt: bis zu 2 GHz
- Rechenleistung: Bis zu 2 TFlops mit single precision, bis zu 1 TFlops mit double precision (GTX 285: 1063 GFlops bei single precision, 89 GFlops bei double precision)
- Trisetup und ROPs: werden im Treiber nachgebildet und über die Prozessorcores abgewickelt
 
Zurück
Oben