News Intels Larrabee besitzt zwei HD-Decoder

Simon

Banned
Registriert
Jan. 2002
Beiträge
10.692
Obwohl der Start von Intels kommenden GPGPU-Chip „Larrabee“ noch einige Monate in der Zukunft liegt, sind nun weitere Spezifikationen ans Tageslicht gelangt. Diesmal richtet sich das Augenmerk auf die so genannten „Fixed Function Units“, welche für das Ausführen von bestimmten Funktionen konzipiert sind.

Zur News: Intels Larrabee besitzt zwei HD-Decoder
 
wird Larrabee eig Dx11 können?
wenn eig alles programmierbar ist, sollte es ja eig gehen.

ich bin echt mal gespannt was der leisten wird =)
und ich denk/hoff dass viele programme schreiben, die den larrabee nutzen. vllt bringt er einen enormen push beim video konvertieren etc. wurde ja auch schon öfters geschrieben, dass er die CPU unterstützen könne.
 
ein decoder macht ja sinn... 2 versteh ich nich so ganz... vl wird dieser ja beim bearbeiten benutzt ?

auf jedenfall gespannt was die karte drauf haben wird

bei ssds hat intel gezeigt, dass sie mit neuem durchaus zu überzeugen wissen
 
Mehr Konkurrenz ist super! Hoffentlich fristet er dann aber kein Nischendasein, weil er essenzielle Funktionen nicht unterstützt. Aber Intel scheint ja kräftig dran zu werkeln, ich bin gespannt wie der Chip dann schließlich im HD-Decoding abschneidet im Vergleich zur Konkurrenz.
 
möglicherweise wegen HD Bild in Bild Funktion dann 2 Decoder zu gunsten der besseren Effizienz.
 
Also wenn Larrabee das hält was es Verspricht müssen sich Amd/Ati und Nvidia Warm anziehen. Aber 700mm² das ist ja ein gewaltiger Brocken. Bin auf den Verbrauch gespannt.

Wird Larrabee in 32nm gefertigt ?
 
Zuletzt bearbeitet:
Glaub nicht dass die Karte groß was werden wird.
700nm² ist nun doch etwas viel.., das dürfte zuviel kosten.
Larrabee könnte höchstens zuerst mal als professionelle Karte für Berehcnungen usw.. eingesetzt werden, P/L technisch wirds die Karte kaum mit Nvidia oder ATI aufnehmen können.
 
Pyroplan schrieb:
wird Larrabee eig Dx11 können?
wenn eig alles programmierbar ist, sollte es ja eig gehen.

Ja wird er/sie/es (was ist richtig?^^).

Bin auch mal echt gespannt was daraus wird, wenn die so wie die SSDs werden nur etwas günstiger dann kauf ich mir so eine sicher. 9 Monate danach schon der Nachfolger klingt auch nett, vermutlich will man dann wohl immer gleich mit ATI und Nvidia launchen.

@Schaffe89, kann ja auch sein das Larrabee in 32nm, aber das Die ist ca. 600-700mm² groß also nicht viel größer wie Nvidias jetziges, auch handelt es sich hier um die größe Version mit den meisten Kernen, also wird auch was günstigeres dabei sein, denk ich mal. :)
 
@ FKorni: Nvidia ist weit von der DIE Fläche von Larrabee entfernt. 470mm² hat der aktuelle Gt200b von Nvidia in 55 nm. Larrabee wird mit sicherheit eine kleinere Fertigung als 55nm haben.

Und da sind schon 700mm² heftig!

KLICK
 
Schaffe89 schrieb:
Glaub nicht dass die Karte groß was werden wird.
700nm² ist nun doch etwas viel.., das dürfte zuviel kosten.
Larrabee könnte höchstens zuerst mal als professionelle Karte für Berehcnungen usw.. eingesetzt werden, P/L technisch wirds die Karte kaum mit Nvidia oder ATI aufnehmen können.

Also deine angegebene Größe ist doch nicht wirklich groß. :evillol:

700mm² ist schon "etwas" größer. ;)
 
in was für nem rythmus kommen denn prozessor von amd und die grafikchips von nv und ati auf den markte?
 
Warum der 2 Dekoder haben soll steht doch im Artikel...
Damit soll die Dekodierarbeit auf beide aufgeteilt werden damit die eigentliche GPU da keine Leistung zuschiessen muss.

2 HD Dekoderchips verbrauchen weniger Saft als 1 HD Dekoder Chip + GPU.
 
Find ich gut, dass was für Effizienz und geringeren Verbrauch gemacht wird.
Jedoch wird das sicherlich auch sehr hohe Kosten haben 700mm² große Chips zu produzieren.
Sah man ja bei nvidias GTX2xx....
 
Wenn das alle karten haben werden und der preis stimmt, könnten die kleinene Versionen der HTPC renner werden. Allerdings glaube ich nicht das die kleinen karten ordentliche leistung haben werden sondern sich eher im lower-mid-end segment bewegen werden.
 
Naja ich glaub nicht, dass Intel direkt low end usw. bedienen wird.
Soweit ich das verstanden habe wird es erstmal nur High End geben.

Zweifel auch, dass Intel direkt oben mitkämpfen wird, villeicht irgendwann in den nächsten Jahren, aber direkt am Anfang wohl eher nicht. Dafür hat Intel zu wenig Erfahrung auf dem GPU Markt.
 
Ja, 700mm²... Jetzt schauen wir mal auf Nvidia, die mit den 576mm² des GT200 derbe Probleme hatten, mit ihren Karten Geld zu verdienen. Intel müsste sein Produkt also sehr teuer anbieten. In solchen Regionen ist aber nur wenig Geld zu verdienen, was bedeutet, dass Intel entweder ein verdammt gutes Konzept auf die Beine gestellt hat und in allen Marktbereichen den Larrabee wird absetzen können - oder - dass man bei Intel die Realität verkennt.
 
Iapetos: Vielleicht ist der Larrabee für einen ganz anderen Markt gedacht also nicht Consumer Markt. Eher für den Profi Bereich da wo man Karten für 1000€ verkaufen kann.

Man weiss es nicht.
 
Ich kann mir nicht vorstellen das Intel es schaft, aus dem Stand mit dem Larrabee als Graka, NV und ATI anzugreifen. Als Workstation GPGPU vielleicht...
Und 700mm² Chipgröße mit zwei HD Einheiten, hört sich nach einem Monster an, was kein Mensch braucht.
Ähnlich wie die HD2900, damals.

Wenn Intel mit Grakas wirklich Geld verdienen möchte, würde ich an ihrer Stelle eher sowas wie eine Einsteiger Gamerkarte entwickeln, a la GTS250/HD4850 für unter 150€ und mir einen Namen mit 1A Treiber erarbeiten.

Denn NV hat seinen Ruf bei seinen "Fanboys" nicht in erster linie durch reine Power erarbeitet, sondern mit soliden Treibern (negative Ausrutscher gibt es immer mal, keine Frage).

Und 1A Treiber finde ich persönlich, auch viel wichtiger, als eine "Hyper-über-mächtig-geilo-1337-Graka". :cool_alt:
 
Zuletzt bearbeitet:
Pyroplan schrieb:
ich bin echt mal gespannt was der leisten wird =)
und ich denk/hoff dass viele programme schreiben, die den larrabee nutzen. vllt bringt er einen enormen push beim video konvertieren etc. wurde ja auch schon öfters geschrieben, dass er die CPU unterstützen könne.

Glaub auch das er im GPGPU Bereich Top sein wird, gleichzeitig extrem flexibel eingesetzt werden kann. Aber bei der Effizienz bin ich skeptisch, ist mir alles zu nah an einer normalen, flexiblen, aber ineffizienten CPU dran, irgendwie der alte P4 Weg von Intel. Nach dem Motto "viel hilft viel"einfach eine Menge CPUs auf ein Die geklatscht, fertig... Und der Die ist wirklich extremst groß, kann das immer noch nicht glauben und auch hier bin ich skeptisch 700mm² ist der pure Wahnsinn.

Richtig gute Chancen rechne ich Larrabee als Hauptprozessor aus, wenn man die high end CPU(Nehalem) aus dem PC rausschmeißt, dann könnte das mit der Effizienz doch wieder klappen und auch der zu erwartende hohe Anschaffungspreis würde sich relativieren. Für Spiele ist diese Lösung aber wahrscheinlich dann wieder nix, kann mir kaum vorstellen das Larrabee CPU und GPU Aufgaben im Alleingang packt.

Auf jeden Fall ist der Druck von seitens Nvidia und ATI beachtlich, wenn Intel so große Geschütze ausfährt und so viel Geld investiert nur um auch im GPU Geschäft mitmischen zu können. Dogfight³ GT300 v. RV870 v. Larrabee :D
 
Zuletzt bearbeitet:
Zurück
Oben