News Larrabee als Consumer-Grafikkarte ist Geschichte

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
15.111

blaub4r

Lieutenant
Dabei seit
März 2008
Beiträge
673
Wenn man das genau gesehen hat was die Leistung angeht. War das von Anfang an Klar. Es ist nicht mal eine Überaschung.

Das grösste Problem war immer die Software, AMD/NVIDIA haben da einfach viel erfahrung in den Letzten Jahren gesammelt.

@scully1234

Wenn man drüber nachdenkt, könnte das glatt der Larrabee gewehsen sein. Deshalb das Entwickler Mainboard ;) . Aber alles Spekulationen ;)
 
S

Sp3cial Us3r

Gast
Naja,habe ich mir fast schon gedacht das dass nichts wird (ersteinmal) der Verbrauch der Prototyps hat bestimmt auch eine bestimme wichtigkeit ausgespielt das Larabee erstmal nicht kommt:D Juhu 1200er Post xD
 
Zuletzt bearbeitet:

Patric_

Lt. Junior Grade
Dabei seit
Dez. 2009
Beiträge
412
Schade schade, ein dritter Grafikkartenhersteller würde vielleicht wieder (noch?) mehr Schwung ins Geschäft bringen...

Intel CPU + Intel Chipsatz + Intel Grafik

herrlich! (Achtung: Fanboy-Gelaber ;))
 

FredKune

Lieutenant
Dabei seit
Juli 2008
Beiträge
711
Ist doch gar nicht so schlecht. Gerade bei einem so großen Markt sollte man nicht mit einer Krücke starten oder ein Produkt rausbringen, das nur einigermaßen mithalten kann.
Wir haben doch schon bei anderen Dingen (wie z.B. Hyperthreading) gesehen, dass Intel - nach einiger Zeit - durchaus etwas Brauchbares zaubern kann.
In 2 oder 3 Jahren sieht das mit Larrabee vielleicht schon anders aus. Irgendwann muss ohnehin der Sprung von Rendering auf Raytracing kommen und dann kann Intel die anderen immer noch weg pusten.
 
M

MR2

Gast
Wenn ich jetzt die Zitate einiger CB User raussuchen würde...bei der letzten Larrabee Vorstellung, von wegen ihr werdet euch wundert....Schade, keine raytraced QuakeWars Demos mehr...

Jo, überrascht mich auch nicht, war ja schon so leicht zu erahnen...
Wenn ich ehrlich bin...ich freu mich sogar:-) Der Markt ist für nvidia und ATI schon hart, da brauchen wir nicht noch jemand. Zumindest nicht Intel!!!

Nach Rambus, 10Ghz PIV, BTX, Wimax, Itanic liegt eben noch der Larrabee auf Intels eigenem Schrottplatz*g*
 

Bosim@n

Cadet 3rd Year
Dabei seit
Jan. 2004
Beiträge
48
Wundert mich nicht wirklich wie es jetzt gelaufen ist.

Über 20 Jahre (im Falle von ATI) Know How kann man nicht in ein paar Monaten nachholen oder für Geld kaufen. Neben der reinen Hardwarevoraussetzung ist auch die Softwareseitige Unterstützung für eine VGA Karte nicht zu unterschätzen, und spätestens hier denke ich ist der Vorsprung der beiden Player ATI und NVIDIA uneinholbar auf kurze Sicht für jemand der "neu" hinzustösst und eine eigene Technologie etablieren möchte.
 

scully1234

Banned
Dabei seit
März 2008
Beiträge
854
Zuletzt bearbeitet:

Killermuecke

Captain
Dabei seit
Jan. 2007
Beiträge
3.259
Persönliche lose Gedanken zum Thema:

-AMD hat mit HD3870->HD4870->HD5870 praktisch jährlich die (theoretische) Rechenleistung verdoppelt, die nächste Serie ist für nächstes Jahr geplant. Wenn Intel da ein Jahr zu spät ist, ist das Game Over. Ab4er richtig gut ist die Nachricht wohl erst für nvidia, die bekommen ihren heiss gelieben GPU-Computing-Markt erst mal exklusiv.

-Sollten die nächsten CPU-Achritekturen von Intel nicht einen integrierten Grafikkern haben, der auf Larrabee basiert?

-1.5 G$ an die EU, 1.25G$ an AMD, in das Projekt haben sie sicherer weit mehr als 1G$ versenkt und am Ende des Jahres werden sie immer noch schwarze Zahlen schreiben. Hat noch jemand das Gefühl, dass CPUs billiger sein könnten?
 
Zuletzt bearbeitet:

[funcoder]

Lt. Junior Grade
Dabei seit
Okt. 2008
Beiträge
404
Wundert mich nicht wirklich. Intel bastelt daran ja schon ewig rum und haben seitdem noch nicht einmal Demos von Larrabee gezeigt was die angebliche Leistungsfähigkeit erreicht.

Das witzige daran finde ich nur, zuerst wollte Intel nVidia/ATI Druck machen bzw. in deren Marktsegment einsteigen und zwischenzeitlich ist es eher umgekehrt. AMD und Intel machen eher Intel mit GPU Computing Druck.
 

Pat

Commander
Dabei seit
Jan. 2003
Beiträge
2.144
1.5 G$ an die EU, 1.25G$ an AMD, in das Projekt haben sie sicherer weit mehr als 1G$ versenkt und am Ende des Jahres werden sie immer noch schwarze Zahlen schreiben. Hat noch jemand das Gefühl, dass CPUs billiger sein könnten?
Dafür kann sich Intel aber genau SOLCHE Forschungsarbeit leisten, und auch, wenn ein grosses Projekt wie Larrabee nichts wird, geht Intel nicht gerade (fast) Bankrott wie andere Unternehmen. No risk no fun. So kommt evolutionäres neues zustande... seid froh dass Intel das Geld dazu hat. Wo wären wir ohne Intels Forschung?
 

MEDIC-on-DUTY

Lt. Commander
Dabei seit
Apr. 2008
Beiträge
1.688
Raytracing (voxel tech) im Gamesektor ist damit aber nicht vom Tisch. Carmack wendet teile dieser Technik bereits in der Tech5 Engine an.
Eine extra Grafikkarte wird in Zukunft wohl nicht mehr für Office und mehr notwendig sein. Ich denke, dies hat auch Intel schon länger erkannt und
daher konzentriert man sich eher auf die Implementierug der Grafikeinheit in die MultiCoreCPU. Dennoch werden die Forschungsergebnisse aus dem Larrabee-Projekt nicht
umsonst gewesen sein. Nicht zuletzt, weil sie massive mulitcore CPUs greifbarer gemacht haben.

Larrabee war Anfangs als "High-End"-Lösung definiert, mit der Hoffnung, man könnte mit nV und Ati mithalten. Dann relativierte Intel immer mehr bis zu diesem Schritt.
Mich wundert nur, dass man nicht schon viel früher die Reißleine gezogen hat.

Ob GPU Computing oder CPU MultiCore, der Einsatzzweck entscheidet. Aber im wissenschaftlichen Sektor geht der Trend ganz klar zur GPU. nV hat dies frühzeitig erkannt.
 
Zuletzt bearbeitet:
Top