News Intel Larrabee mit 300 Watt TDP?

Daniel0711 schrieb:
Wenn jemand die Finzanzmittel hat, ein solches Projekt aus dem Boden zu stampfen, dann Intel.
...

... Intel mag zwar Geld haben und kann sicherlich ein solches Projekt stemmen, aber damit hat man noch längst keinen vernünftigen Treibersupport - und genau dort wird das Kind in den Bach fallen.

Wenn Intel wirklich die Chance haben will, Ray Tracing im Grafikkartenmark zu positionieren, müssten sie sich erst einmal bei der Rasterisierung behaupten, denn kein Entwickler wird sich im Augenblick auf ein Verfahren einlassen, daß sich nicht an den zur Zeit vorherrschenden Gegebenheiten orientiert ...
 
Wie mittlerweile hinreichend berichtet wurde, ist der larabee nicht für desktops gedacht.
Naja, Direct X und Open GL sollen ja unterstütz werden - vielleicht gibts doch ne Gamerkarte, die dann vielleicht etwas beschnitten ist...

@ Topic:
Soweit ich weiß soll der Larabee ja 32 Kerne haben. Wenn man jetzt die 300Watt durch die Anzahl der Kerne teilt kommt pro Kern weniger als 10 Watt raus.
Was jetzt wirklich nicht viel ist.

Allerdings bin ich auch der Meinung das 300 Watt gesamt schon sehr hoch angesetzt ist.

Wenn ich aber die Karte mit ner GTX280 vergleich die ne TDP von ~235 Watt besitzt bei einem Chip ist doch die Effizenz des Larabees nicht schlecht - wenn natürlich die Leistung stimmt.

Außerdem ist es ja noch ne ganze Weile hin bis zum Release. Wir werden also sehen was passiert.
 
ich denke schon, dass intel langfristig auf den grafikkartenmarkt abzielt. hier ist eine menge geld zu machen und intel spielt nur bei den igp eine rolle.
die übernahme von 3d-labs mitarbeitern ist imho ebenfalls ein zeichen, dass intel den grafikkarten markt im visier hat...

@all-4-one: ati möchte schon die performancekrone, nur im mom reichts leider nicht so ganz. darum setzen sie auf andere stärken wie hd-unterstützung und sparsamkeit. aber ich seh ati auch leistungsmäßig wieder im aufwind :)
 
palaber schrieb:
Soweit ich weiß soll der Larabee ja 32 Kerne haben. Wenn man jetzt die 300Watt durch die Anzahl der Kerne teilt kommt pro Kern weniger als 10 Watt raus.
Was jetzt wirklich nicht viel ist.

Allerdings bin ich auch der Meinung das 300 Watt gesamt schon sehr hoch angesetzt ist.

Wenn ich aber die Karte mit ner GTX280 vergleich die ne TDP von ~235 Watt besitzt bei einem Chip ist doch die Effizenz des Larabees nicht schlecht - wenn natürlich die Leistung stimmt.

Außerdem ist es ja noch ne ganze Weile hin bis zum Release. Wir werden also sehen was passiert.

Naja, <10W mag wenig sein, aber wie du sagtest, wenn sie 32 auf ein Board knallen wollen, müssen sie das Gesamtpaket betrachten, hilft ja nichts wenn ich Werbung für 1W Cores mach und dann 1024 in einem Chip unterbringen will.
Es wird dann auch sicher eine 16- und 8-Kern Variante geben, bei denen der Stromverbrauch auch wieder stimmt, die Frage ist nur, wieviele Kerne es braucht um auf eine angemessene Leistung zu kommen.
 
und welche TDP hat die 4870 X2? 2x 156W?? Da denkt wohl keiner drüber nach!
Bis 2009 ist noch ein ganzes Stück Zeit vor uns, da werden Intels Fertigungstechnologien auch 32nm zulassen. Ich denke jedoch das Larabee in 45nm produziert wird, ca 1 Stufe hinter der kleinst Möglichen Produktion um Kapazitäten besser zu verteilen. 300W und 45nm , dazu eventuell höchst ausgefeilte Stromsparmodi sprechen für brachiale Leistung. Wenn Nvidia und Ati durch MultiGPU versuchen sich gegenseitig auszustechen werden wir hier auch bald 300 W sehen.

Weniger der max Verbrauch ist interessant, mehr das Performance / W Verhältnis sowie der Verbrauch ohne Last. Wenn ich für 300% Verbrauch auch 300% Leistung bekomme mecker ich auch nicht. Schließlich muss ich es nicht kaufen!
 
Thaquanwyn schrieb:
...
Wenn Intel wirklich die Chance haben will, Ray Tracing im Grafikkartenmark zu positionieren, müssten sie ...
das erstmal auch ankündigen, damit sich die Softwareindustrie darauf einstellen kann. Da eine solche Ankündigung nicht stattgefunden hat, ist es nicht ratsam, Larabee tzu einem Raytracingchip zu küren, der er möäglicherweise gar nicht ist.

Intel hat zwar ohne Zusammenhang zu Larabee die Echtzeit.-Raytracing-Fürderung angekündigt, aber das kann genausogut für Atom-2-Smartphones mit Raytracingspielen auf kleinen Auflösungen gelten. ;)
 
Intel PC:

Intel X48 Board: rund 40 Watt (northbridge+Southbrige+sontiges)
Intel Q9770: 136 Watt
Intel Larrabee: 300 Watt

Was denkt sich Intel dabei eigentlich?
 
Da Intel praktisch kein Know-How in der Entwicklung von rasterisierten Grafikchips besitzt setzen sie mit Larabee massiv auf Ray-Tracing. Das hat für Intel einige Vorteile.

a) Weder ATI noch AMD sind in der Lage im Bereich Ray-Tracing mitzuhalten, da ihr komplettes Know How damit wertlos werden würde.

b) Intel hat die Vertriebskanäle und die Marktmacht Raytracing durchzusetzen

c) Aus a+b resultiert das Intel eine Alleinbeherschung des Grafik Hardware Markts anpeilt

d) Intel hat praktisch kein Knowhow was Treiberprogrammierung angeht. Einen Multicore x86 Prozessor (Larabee) braucht man aber auch nicht aufwendig zu programmieren solange man ihn für Raytracing einsetzt.

e) Einen Multicore x86 Prozessor kann man problemlos und ohne aufwendiges Programmieren für alle parallelisierbaren Prozesse einsetzen wie sie heute schon auf x86 CPUs laufen --> ähnlich Firestream oder Cuda, allerdings einfacher und vielfältiger zu verwenden

Ich prognostiziere:

Sollte Intel Erfolg haben mit dem Larabee im Grafiksektor, dann sehe ich den Niedergang von ATI und Nvidia sowie aller anderen raster Grafikkartenhersteller vorraus.

Alleine AMD könnte etwas vergleichbares produzieren, denn nur sie haben auch eine x86 lizenz und eine technik die ähnliche Leistung bringen könnte.

Ich hoffe:

Larabee flopt genauso wie der Itanium
 
Ned Flanders schrieb:
Da Intel praktisch kein Know-How in der Entwicklung von rasterisierten Grafikchips besitzt setzen sie mit Larabee massiv auf Ray-Tracing.


Wie kann man nur so einen Quatsch schreiben?

Erstens entwickelt Intel seit Jahren Rasterizer und zweitens gibt es fuer Raytracing keine API, man kann also einen Raytracer weder unter D3D noch unter OpenGL nutzen.
 
mal den strombedarf einer HD2900XT 1GB angeguckt? am besten OC'ed ... ?
das ist nen halbes kraftwerk nötig ... also nix von ATI = sparsam zu 99% ... ;-P
 
Ned Flanders schrieb:
..., denn nur sie haben auch eine x86 lizenz ...
Und wofür sollte die gut sein? Wenn ein solcher Chip nur Raytracing berechnen soll und nichts anderes, dann muss auf ihm keine zwanzig Jahre alte Mathe-Software laufen, die noch Assemblerleichen für X86 verwendet.

P.S.
Also deutlicher: Ein solcher Chip braucht keine X86-Kompatibilität, deswegen währen die X86-Decoder wirklich absolute Silizium- und Stromverschwendung - ein bisschen sind sie das ja auch bei Common Purpose.
 
Zuletzt bearbeitet:
@ Kisser

Das Intel auch Rasterizer baut ist mir schon klar, nur schau dir mal die Leistungsfähigkeit im Vergleich zu ATI, Nvidia oder selbst Via an.

Ganz davon abgesehen das die Programierung des Treibers für die X3100 jawohl wirklich offen gezeigt hat das da nicht viel geht.

Und das man Raytracer nicht über D3D oder Open GL betreibt ist ebenfalls klar. Das braucht man aber auch nicht.

x86 verwendet Intel wie ich schon geschrieben hab aus einem sehr simplen Grund. Die Karte soll nicht nur Raytraceen können sondern eben auch möglichst alle anderen Standard Applikationen beschleunigen. In was sind die denn bitte alle kompiliert?
Und mit der Marktmacht wird jede Konkurenz gezwungen sein ebenfalls x86 zu benutzen... wer bleibt da wohl?

Das ganze ist doch sonnenklar!


Wenn das funktioniert dann wirds ne schöne Monokultur geben.
 
Ned Flanders schrieb:
...
x86 verwendet Intel wie ich schon geschrieben hab aus einem sehr simplen Grund. Die Karte soll nicht nur Raytraceen können sondern eben auch möglichst alle anderen Standard Applikationen beschleunigen. ...
Wenn es das wäre, dann wäre der Larabee auch nur ein X86-Common-Purpose-Prozessor und dann wäre er eben keine Grafikkarte. Wenn er einfach nur ein "besserer" X86-Prozessor wäre, wieso sollte dann noch ein Core3Exxtreme erscheinen?

Die ganze X86-Geschichte um Larabee ist ein extrem merkwürdiges Gerücht - auch die damalige CB-News erklärt absolut nichts, sondern verwirrt nur mit konfusen Angaben.
 
Gerüchte muss man(n) nicht kommentieren. Lass INTEL erst mal das Produkt bauen, und dann schauen wir mal. Alles andere ist Unsinn, völliger Quatsch, reine Zeitverschwendung und nix als windige Spekulation.
 
Argh 300 Watt. Da gehen bei ner LAN aber die Lichter in der Stadt aus!
 
@ Mountwalker

Ich weiß nicht was daran ungewöhnlich wäre.

Man kauft einen Rechner mit CPU und allem drumm und drann, dann kann man für viel Geld noch eine Larabee Karte kaufen und diese frei programmierbar einsetzen.... x86 kompatibel versteht sich.

Ob die dann raytracing macht, oder ob man die zum encodieren des Urlaubsvideo benutzt kann man sich grad aussuchen.

Die Software Industrie muss nur minimale Änderungen an ihrer Software machen...

Es gibt ja auch so schon einen haufen Beschleuniger Karten. Nur eben nicht in x86.

Also für mich macht das alles Sinn und macht mir ein sehr mulmiges Gefühl.
 
Ich bezweifle stark, dass das Ding eine reine X86-Multi-Core-CPU wird. Der X86 Befehlssatz ist einfach total ungeeignet für die Beschleunigung von RayTracing, Video De-/Encodierung und für das gute alte Rasterverfahren.

Was ich jedoch noch viel, viel mehr bezweifle ist, dass Larrabee von mir aus auch mit 500W TDP im Rasterverfahren überhaupt auch nur in die Nähe von z.B. ATI Xenos in der XBox 360 kommen wird (nun auch schon fast wieder 3 Jahre alt). Was sind schon 32 Cores, die kaum für einen Einsatzzweck spezialisiert sind und so wohl locker 10x langsamer sind als Recheneinheiten, die nur einen Teil können, diesen jedoch unglaublich schnell. So hat der bereits erwähnte Xenos z.B. 48 "Cores" in Form von Shadereinheiten, immerhin 16 Textureinheiten und macht 4x AA fast ohne Performanceverlust. Von neueren Karten wie dem G80 usw. will ich mal gar nicht reden.

Es muss jedoch nicht heißen, dass Larrabee ein totaler Flop werden wird. Es kann durchaus sein, dass die universelle Einsetzbarkeit als Beschleuniger für so ziemlich alles vor allem im professionellen Bereich erfolgreich sein kann. Außerdem hat das Rasterverfahren keine allzu lange Zukunft mehr vor sich, so dass vielleicht schon die zweite Generation Larrabee auch den Spielemarkt interessant werden kann.
 
Man muss auch betrachten, dass hier Grafikkarte und MultiCore CPU in einem Chip untergebracht werden. Schon heute errecht ein Quadcore mit TDP 125W und 3870 X2 mit 200W bei weniger Leistung. Entscheidend ist die Leistung die pro Diefläche abgeführt werden muss. Da die Fläche aber noch nicht bekannt ist, können wir darüber nur spekulieren.
 
Ned Flanders schrieb:
...
Man kauft einen Rechner mit CPU und allem drumm und drann, dann kann man für viel Geld noch eine Larabee Karte kaufen und diese frei programmierbar einsetzen....
Oder man kauft sich ein Multi-Sockel Board und knallt sich mehrere Prozessoren drauf. Wenn ein X86-Prozessor so viel mehr Leistung pro Watt hat als ein X86-Prozessor (was für ein vergleich :D), warum nimmt man nicht einfach grundsätzlich den als Hauptprozessor?
 
Zurück
Oben