News Intel: Larrabee erst im ersten Halbjahr 2010

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.361
Joseph D. Schutz, Leiter des Intel Microprocessor Technology Lab und seines Zeichens verantwortliche Person für zukünftige Prozessor-Architekturen, äußerte sich im Rahmen einer Veranstaltung zum Projekt „Larrabee“. Im Jahr 2009 wird es demnach nichts mehr mit dem ehrgeizigen Vorhaben, selbst das Jahr 2010 wollte er nur auf das erste Halbjahr eingrenzen.

Zur News: Intel: Larrabee erst im ersten Halbjahr 2010
 
Ihr hättet ja auch mal erwähnen können das er genau 32 Kerne hat. So wie man auf einen DIE-Shot sehen kann.
 
Wenn der Larrabee wie schon profezeit, einen Teraflop erreicht,(AMD5870 X2 soll doch 5 Teraflops erreichen...) und dann der Intel Typ sagt, das das Ding nicht nur High End abdecken soll, is das dann ne Andeutung...?
 
Naja, es heisst ja "Many-Core" - also ist es nicht genau definiert, wieviele cores zum Einsatz kommen (werden).

BTW, wieso verbauen die dort eigentlich 586-like Prozessoren und wieso nimmt man keine aktuelle Architektur mit weniger Cache.
 
bnomis1 schrieb:
Wenn der Larrabee wie schon profezeit, einen Teraflop erreicht,(AMD5870 X2 soll doch 5 Teraflops erreichen...) und dann der Intel Typ sagt, das das Ding nicht nur High End abdecken soll, is das dann ne Andeutung...?
Wobei sich diese Angaben bei AMD auf einfache Genauigkeit und bei Intel wohl auf doppelte Genauigkeit beziehen. Einfache Genauigkeit wäre bei Intel dann 2 TFLOPS.

flickflack schrieb:
BTW, wieso verbauen die dort eigentlich 586-like Prozessoren und wieso nimmt man keine aktuelle Architektur mit weniger Cache.
Weil aktuelle Kerne dafür viel zu gross wären. Und mal abgesehen vom Atom haben aktuelle x86 Intel Prozessoren eine Out-of-order Pipeline, während die bei Larrabee verwendeten Kerne eine deutlich schlankere In-Order Pipeline besitzen.
 
Tja, ATI und Nvidia schlafen auch nicht und Intel muss sich schon ranhalten um da aufzuschließen oder gar auf Augenhöhe mitzuhalten.
 
ich find die idee die dahinter steckt eigentlich ganz geil. es ist beliebig skalierbar und dürfte somit auch eine riesige rechenleistung haben.

@flickflack -> glaub das liebt daran, dass die aktuelle architektur zu groß ist. die alten konnte man bestimmt mit dem heutigen wissensstand und neuen fertigungstechnologien um einiges verkleiner.

das einzige was ich mich frage ist, wie will der larabee fuß auf diesen markt fassen?
da er auf x86 CPUs basiert, müssen alle spiele gänzlich anders programmiert werden, das würde wohl kaum ein entwickler machen. bleibt also nur die opengl und opencl programmierung über. hier muss er aber erst auch noch zeigem, dass er das gut umsetzen kann. vorausgesetzt es werden dann auch alle spiele auf dieser schnittstelle programmiert.

anders kann ich mir das nicht vorstellen, oder wie will er so auf eine riesige rechenleistung kommen und code abarbeiten, wo die architekturen der GPUs wesentlich besser mit zurecht kommen und auch dafür gemacht wurden ?!
 
Ich sehe es schon kommen, das Ding wird mit DX11 vieles Features haben Grafik, Raytracing, Physikberechung über Havok (Evt. auch PhysX wenn Nvidia es freigibt).

Es wir nur meiner Meinung nach ein Problem haben..

"Wir können von allem ein bisschen aber nix richtig" :evillol:
 
flickflack schrieb:
Naja, es heisst ja "Many-Core" - also ist es nicht genau definiert, wieviele cores zum Einsatz kommen (werden).

Wie ich schon geschrieben habe sind es genau 32. Intel hat zwar noch nichts öffentliches gesagt, nur kann man hier sehen:
http://www.pcgameshardware.de/aid,6...ge_id=1127811&article_id=683939&show=original

Habs selbst nachgezählt das es 32 Kerne sind.Ein Kern ist zum Beispiel ganz links untern der schmale Streifen. Im oberen Teil sind wahrscheinlich die dunklen Stellen Cache. Zwischen den Kernen kommen immer mal noch schmalere, vermute ich; Steuereinheiten. Die Teile an den Rändern sind zur Kommunikations nach außen.

flickflack schrieb:
BTW, wieso verbauen die dort eigentlich 586-like Prozessoren und wieso nimmt man keine aktuelle Architektur mit weniger Cache.

Weil heutige Designs viel zu groß und überdemensioniert sind. Ein Core-Kern ist immer noch gigantisch im Vergleich zu nem Pentium-Kern. Vorallem braucht man die meisten Einheiten des Core-Kerns gar nicht.
 
also wegen der softwareschnittstelle braucht man sich mit sicherheit keine sorgen machen... da wird ganz normal directX oder openGL programmiert intel wird sich da doch nicht selbst schon ein grab schaufeln und die spieleentwickler noch schnittstellen schreiben lassen... es wird mit sicherheit wenn es nicht sogar schon der fall ist fertige SDK / Treiber geben so das es den entwickler egal sein kann ob der user ne nvidia, ati, oder intel karte drin hat...

anders wäre ein einstieg von in dem in dem bereich ja absolut nicht machbar...
 
ich denke nach wie vor nicht dass sich das gute stück in sachen performance hinter nvidia und ati verstecken muss, die im raum stehenden terraflop zahlen sind nur waage angaben, und durch die unterschiedlichen architekturen kaum vergleichbar.

es wird sicher alles vom treiber abhängen, und da konnte intel im grafikbereich noch nie punkten...ich bin weiterhin gespannt was draus wird.
 
Ich glaube fast, dass Larrabee kaum zum Zocken konzipiert ist.
Habt ihr euhc schon einmal darüber Gedanken gemacht, dass auf Rendering optimierte Grafikkarten der CPU den "wissenschaftlichen" Markt wegnehmen? Ich meine eigentlich ist die CPU zum berechnen von anspruchsvollen und komplexen Aufgaben ausgelegt. Mit Larrabee hat Intel einen x86 Many Core im Angebot, welcher sich fast so gut wie eine CPU programmieren lässt aber beinahe die Rechenleistung eienr Graka hat. Vermutlich dürfte Larrabee bei den meisten Aufgaben sogar schneller sein, da die Cores sich besser Programmieren lassen.
Larrabee gegeb ATIs und Nvidias GPUGP zu konkurrieren und dies auch noch ganz gut.
 
@Floletni: trotzdem wird es manycore sein. und die default-version wird dann halt 32 kerne haben.
irgendwo hab ich auch gelesen, dass auch eine version mit 16 und 64 kernen kommen soll. weiß aber nicht wo. das wäre auch logisch, da man den ganzen markt abdecken will. das wäre mit verschiedenen taktraten bisschen komisch, schon allein weil der prozzi darauf alleine nicht der schnellste ist.
 
Die Teraflop Zahlen alleine sagen garnichts. Wie effizient ist Larrabee, wie steht´s um solche Sachen wie Füllrate etc.
Selbst im GPGPU-Bereich sind Teraflops alleine ziemlich wenig aussagekräftig. Außerdem sind die GPU´s von ATi und NV auch schon massiv parallel, also warte ich erstmal ganz gemütlich ab, was Intels GPU wirklich bringt.
 
Pyroplan schrieb:
Da der "Larrabee" vollständig programierbar ist, kann man auch einen DX9/10/11/12 usw. Treiber dafür installieren, das liegt vollständig in Intels Hand was der Larrabee kann. :)
 
Pyroplan schrieb:
ich find die idee die dahinter steckt eigentlich ganz geil. es ist beliebig skalierbar und dürfte somit auch eine riesige rechenleistung haben.

@flickflack -> glaub das liebt daran, dass die aktuelle architektur zu groß ist. die alten konnte man bestimmt mit dem heutigen wissensstand und neuen fertigungstechnologien um einiges verkleiner.

das einzige was ich mich frage ist, wie will der larabee fuß auf diesen markt fassen?
da er auf x86 CPUs basiert, müssen alle spiele gänzlich anders programmiert werden, das würde wohl kaum ein entwickler machen. bleibt also nur die opengl und opencl programmierung über. hier muss er aber erst auch noch zeigem, dass er das gut umsetzen kann. vorausgesetzt es werden dann auch alle spiele auf dieser schnittstelle programmiert.

anders kann ich mir das nicht vorstellen, oder wie will er so auf eine riesige rechenleistung kommen und code abarbeiten, wo die architekturen der GPUs wesentlich besser mit zurecht kommen und auch dafür gemacht wurden ?!

Wie du von Skalierbarkeit auf riesige Rechenleistung schließt muss du uns mal erklären.

Die Softwareschnittstelle wird übrigens kein Problem, da Microsoft mit DX11 eine völlig neue Schnittstelle veröffentlicht, die auch auf CPUs lauffähig ist.
Der Vorteil von Larrabee wird eher sein, dass es mehr Programme für x86 gibt als für CUDA / Stream und genau dagegen wird der Larrabee platziert.
Zum Spielen wird der wohl weniger geeignet sein sondern vielmehr für GPU Computing.
 
So dramatisch, wie die Überschrift und die News die mögliche Veröffentlichung von Larrabee darstellt ist es wahrlich nicht. Larrabee war bislang über reine Spekulationen für Ende 2009 angekündigt. Nun kommt einfach nur der Jahreswechsel hinzu, was idealerweise nur wenige Wochen bedeuten könnte. Unangenehmer wäre es, wenn wirklich Mitte 2010 angepeilt wird, aber selbst das bleibt abzuwarten.

Im Grunde sollte sich Intel auch die nötige Zeit nehmen, das Produkt ausgereift zu entwickeln. Es würde wenig bringen was halbfertiges in den Markt zu schieben, vor allem in der heutige Zeit. Es ist sehr vernünftig wie Intel die Entwicklung vorantreibt. Die Konkurrenz muss immerhin auch erstmal schauen, ob sie in der Lage sein werden mit Larrabee mitzuhalten (vor allem im x86-Bereich).

Viel erstaunlicher an dieser Meldung fand ich den Nebensatz, dass Larrabee nicht nur den High-End-Markt abdecken soll! Bislang war ich eher davon ausgegangen, dass Larrebee es gar nicht bis in den High-End-Bereich schaffen könnte, aber diese Ankündigung ist schon ein Paukenschlag: Intel hatte also bislang mindestens auf das High-End-Segment gezielt! Wow.
Da dann Larrabee also eine ganze Produktpalette abdecken soll, ist es auch weniger erstaunlich, dass die Entwicklung noch Zeit braucht. Es ist was ganz anderes ein komplettes, neues Portfolio zu zaubern als "nur" ein neues Produkt. Na ja, es wird spannend.
 
Ich denke, dass alle drei (Larrabee, RV870, GT300) im Q4 09 erscheinen, lediglich die HPC Varianten erst im Q1/Q2 2010.
 
außerdem sollen die einzelnen Larrabee Kerne massiv mehr SSE Einheiten (Streaming SIMD Extensions) besitzen (pro Kern eine 16fach SIMD Einheit + die skalare x86 Pipeline).

Bei 32 Kernen wären dies 512 SIMD Einheiten (die SIMD Einheiten von CPUs sind am ehesten mit den skalaren Shadern von GPUs vergleichbar (vorallem mit denen von nVidia, da Atis nicht wirklich vollständig skalar arbeiten)
Hardwaremäßig sollte er also mehr als nur Konkurrenzfähig sein, auch im Spielebereich und sowieso im Bereich von anderweitigen Berechnungen.
Was ich jedoch als möglichen größten Pluspunkt für Intel sehe, ist die Kombinierbarkeit von mehreren Kernen um alle Leistungsspektren zu bedienen.
Damit könnte man sich einen massiven technologischen Vorteil erarbeiten, da bei der Konkurrenz Multi-GPU in Form von Kopplung einzelner Chips nicht problemlos möglich ist, und der Entwicklungsaufwand durch unterschiedliche Chips für unterschiedliche Leistungsklassen sicher weit aufwändiger und teurer ist.

Jetzt bleibt nur zu hoffen, dass das Endprodukt auch wirklich gut umgesetzt und softwareseitig (Treiber) unterstützt wird.
 
Volker schrieb:
aber schon jetzt sei die Phase der internen Fehlersuche und dessen Debugging an den ersten Chips

Der Satz ergibt keinen Sinn. Entweder es muss heißen "deren Debugging" was aber wohl recht sinnfrei wäre oder aber "und des Debuggings" - dann bleibt nur noch die Frage ob Fehlersuche + Debugging nicht etwas doppelt gemoppelt ist.
 
Zurück
Oben