News Intels Larrabee besitzt zwei HD-Decoder

Man halbiert(viertelt) die Anzahl der Kerne und hat ne preislich konkurrenzfähige GPU für den Mainstreammarkt. In diesem Punkt sehe ich da keine Probleme. Das Teil steigt und fällt im Gamersegment mit der Qualität der Treiber, um die Hardware mache ich mir bei Intel keine Sorgen.
 
FKorni schrieb:
kann ja auch sein das Larrabee in 32nm, aber das Die ist ca. 600-700mm² groß also nicht viel größer wie Nvidias jetziges
nVidias aktuellster Chip, GT200b, hat 470 mm². 700 mm² sind fast nochmal 50% mehr. Da kann man nun wirklich nicht von "nicht viel größer" sprechen. Und selbst nVidia hinkt bezüglich Performance/mm² schon ziemlich stark hinterher. Irgendwie habe ich mehr als nur Zweifel, dass die erste Larrabee Generation konkurrenzfähig wird.
 
Naja ich bin gespannt, denn es ist fast logisch das ein "Neuling" (zumindest im Highend Sektor) nicht sofort durchschlagen kann und alles andere Verdrängen, allerdings sieht es bei der Karte aus, als wenn diese soweiso viel mehr als nur eine Grafikkarte sein soll. Denke Intel versucht damit 2 Fliegen mit einer Klappe zuschlagen: Einmal die Enthusiasten bedienen und gleichzeitig eine gute und einfache (programmiertechn. gesehen) Grundlage zu schaffen um immer mehr die Power dieser Einheiten zu nutzen und die CPU zu entlasten.
 
Kann eigentlich nicht glauben, dass Intel mit 700mm^2 starten wird. Das ist ein Quadrat mit einer Kantenlänge von 2,65cm. Wie groß soll dann der Chip werden?
 
@Kasmopaya
Naja GPGPU Nutzen wird sich erst zeigen müssen.
Ist ja wieder sozusagen "eigener" Standard wie CUDA. Ich denke doch, dass DX11 und OpenCL sich als GPGPU Schnittstellen durchsetzen werden.

Aber stimmt dir zu Intel wird es nicht einfach haben gegen ATI und nvidia zu kämpfen. Villeicht ist es ja deren Strategie "Märchen" zu verbreiten und am Ende sieht es komplett anders aus.
 
Ich denke Intel wird den Preis mit Absicht senken, also ein Minus einfahren ;)
Damit die Karten zuerst einmal gekauft werden. Sind sie gekauft und leisten etwas
wird die zweite Generation sich besser verkaufen und es kommt hinzu, dass sie ja aus
der ersten Generation viel lernen können. Soweit ich weiß wurde mit der XBOX auch Verlust gemacht, aber dennoch war der Preis relativ weit unten.
 
Wenn man neu in einen Markt einsteigt empfiehlt sich immer High end, denn nur so findet man Beachtung. Der Tesla Roadster erfährt auch eine höhere Aufmerksamkeit als der Hotzenblitz. Wird also wohl etwas brutal starkes, was die 700 mm² auch vermuten lassen. Der Preis wird allerdings keine direkte Konkurenz zu den Etablierten zulassen, sondern eher einen Abstand ähnlich der Intel SSDs zu den Mitbewerbern einnehmen, die ja auch erst in der zweiten Generation preislich konkurieren.
 
@Arhey

Welcher Standard soll das sein? Larrabee kann alles was eine klassische x86CPU auch kann. Treiber werden wahrscheinlich hoch komplex und aufwendig sein, aber ansonsten kann Intel einfach die DX 11 Kompatibilität "hinzuprogrammieren". Intel sagt ja selber "Larrabee wird extrem Software- bzw. Treiberabhängig sein"
Eigentlich auch ein Nachteil, die Hardware wird wahrscheinlich teuer und gute Treiberentwicklung ist min. genauso teuer. Larrabee kann also nur ein Monster werden wie es noch nie da war. Aber ich glaub ja schon länger das Larrabee hauptsächlich gegen NV Tesla, Quadro und Cuda antritt, anders kann ich mir das Monster nicht vorstellen und in dem Bereich spielt der Preis dann wieder eine untergeordnete Rolle. Bin ja schon gespannt ;)
 
Zuletzt bearbeitet:
Bin absoluter Intel Fan aber gegen Nvidia haben die keine Chance. Ich sage die verschwinden sehr schnell wieder aus dem Grafik segment.
 
gibt es eigentlich schon irgendwelche halbwegs verlässlichen informationen über den Larrabee (außer der news) oder bisher nur spekulationen?
 
Zock schrieb:
Bin absoluter Intel Fan aber gegen Nvidia haben die keine Chance. Ich sage die verschwinden sehr schnell wieder aus dem Grafik segment.

Na, dass ist mal eine Aussage:D


Ich will mal gerne wissen wie viel Strom dieses Monster frisst. Wird bestimmt viel kosten aber zielt eh wahrscheinlich ein anderen Markt an als gaming.
 
Ich verstehe nicht warum ihr euch über die "Größe" des Chips beschwert, warten wir doch mal ab was er alles kann und wie schnell er darin ist. :) Wenn er doppelt so "gut" ist wie zb der Nvidia kann er doch auch doppelt so groß sein... ( Preis und Kühlung lassen wir mal beiseite)
 
Zwar bietet der programmierbare Teil grundsätzlich mehr als genug Leistung für das Decodieren von hochauflösenden Inhalten, jedoch wird sich dieser Vorzug mit einem relativ hohen Stromverbrauch erkauft

Dann muss aber die Frage erlaubt sein warum sie überhaupt einen x86 basierten GPU Chip raubringen und keinen der auf Shadern basiert.

Hätten sie das Ganze als HPC Plug-in Karte auf x86 basis angemeldet hätte ich es ja noch verstanden, aber so....

Wirklich scheitern wird das Ding als Grafikkarte an der Treiberentwicklung. Das ist wohl so ziemlich das komplexeste was man sich vorstellen kann. Da dürfen sich die "early Adopter" schonmal auf jede Menge Probleme einstellen. Man sieht ja wie viel Probleme die Treiber schon bei den Alteingesessenen Spezialisten bereiten.
 
Zuletzt bearbeitet:
[grueni] schrieb:
und gleichzeitig eine gute und einfache (programmiertechn. gesehen) Grundlage zu schaffen
Das ist leider nur Pseudo Marketing. Larrabee wird mindestens einen zusätzlichen Software Layer benötigen im Vergleich zu CPUs. Also auch nicht anders wie das bei AMD oder nVidia mit OpenCL und dergleichen ist.
 
gruffi schrieb:
Das ist leider nur Pseudo Marketing. Larrabee wird mindestens einen zusätzlichen Software Layer benötigen im Vergleich zu CPUs. Also auch nicht anders wie das bei AMD oder nVidia mit OpenCL und dergleichen ist.

Hörte sich bis jetzt anders an... Wäre aus meiner Sicht ein großer Vorteil gewesen...
 
gibt es eigentlich schon irgendwelche halbwegs verlässlichen informationen über den Larrabee

das würde mich auch mal interessieren.

gerade unter dem hintergrund das die hardware in Zukunft eh immer variabler wird (stichwort torrenza/geneseo) ist das doch insgesamt ein guter Schritt.

weiß auch nicht was an 700mm² sooo schlimm sein soll.

erstmal ist garnicht klar wer das teil wo in welcher strukturbreite produziert und zum anderen auch nicht wie schwierig die produktion ist. (z.b. regelmäßige strukturen usw)

einfach mal mit anderen chips vergleichen...itanium, diversen FPGAs usw, dann wird schnell klar das diese größe durchaus möglich ist.
 
gruffi schrieb:
Das ist leider nur Pseudo Marketing. Larrabee wird mindestens einen zusätzlichen Software Layer benötigen im Vergleich zu CPUs. Also auch nicht anders wie das bei AMD oder nVidia mit OpenCL und dergleichen ist.

Äh nein? Du kannst direkt x86-Code drauf laufen lassen. Und wenn du auf die 16-float weiten Register zugreifen willst, machst das genau so wie SSE auf den heutigen CPUs (einige Details von den neuen Befehlen wurden auch schon publiziert, siehe Intels Page von der GDC 2009). Das Ding ist wirklich einfach ein Many-Core, halt noch mit einer Filtereinheit und eben jetzt noch scheinbar mind. noch 2 HD-Decodern.

Ka wo du den Layer hineinschieben willst. Für DX/OpenGL brauchst natürlich ne Software, die dir deine Geometrie rasterisiert usw. Für Details verweise wie immer gern auf das Paper von August 2008 von Intel... Da steht mehr als genug darüber drin, man braucht nicht allzu viel rumzuspekulieren. (http://download.intel.com/technology/architecture-silicon/Siggraph_Larrabee_paper.pdf)
 
Zuletzt bearbeitet:
Ansich baut intel das weiter aus, was man schon seit jahren praktiziert

Die aktuellen intel grafikkarten haben nur sehr wenig hardwareinheiten. Dort wird das meiste von der CPU geamcht - so wie bei Larrabee. Nur das man diemsla die CPU direkt auf eine karte lötet.

Intel hat es schon bei einer grafikkarte gemacht, das sie diese von DX9 auf DX10 angehoeben haben. Denn die CPU berechnet ja sowieso die grafik.

Die aktuellen treiber gehen, doch da muss noch wirklci hstark nachgebessert werden.

So darf man ja nicht vergessen, die erfahrung die andere hersteller in sachen kantenglättung un tiefenschärfe haben, wird intel nicht so schnell erreichen.

Also wenn intel auf die leistung kommt, die von progostiziert, muss auch noch die bildqualli stimmen
 
Zurück
Oben