News Intel investiert in Chip zur Verwaltung von GPUs

Viele Meckerer scheinen den einen Satz in der News nicht gelesen zu haben "Den Haupteinsatzzweck sieht Lucid in Computern, die größtenteils für Spieler konzipiert sind." ;)
 
Ich weiss nicht was die wollen, so ein System gibt es doch schon, nennt sich Cell, PowerPC + 8 SPEs. Der PPC wird fast ausschließlich für die Verwaltung gebraucht, da er lt. c't nicht besonders flott ist, trotz 3.2GHz.

So wie es aussieht, wollen AMD und Intel auch sowas in ihre CPUs einbauen.

Wer braucht den Speed? IMHO sind Rechner so lange zuu langsam bis sie in der Lage sind einen Film wie ToyStory2 oder Final Destination in Echtzeit mit 25-30Bilder/s bei FullHD 1920x1080p über ein simples Povray Script zu rendern.

"Und das ganze beim Aldi für 999,-€"

JM2C
 
@ 24 es wird nichts von intel gebaut sondern sie finanzieren in ein startup unternehmen.
aber du hast halt intel gelesen und dachtest dir wohl ja dann schreib ich doch was wegen abwärme hin weil es ja cool ist.


das problem an der news dürfte den meisten doch klar sein es steht intel drinnen.

ich begrüße die bemühungen von welchem hersteller auch immer "evtl." die eine verbesserung der derzeitigen lage auf dem Grafikkartenmarkt hervorbringen.
denn wenn ich heisse luft und turbinengeräusche haben möchte schalt ich den fön ein =)
nein spass beiseite ich bin auf die neuentwicklung gespannt was denn dabei rauskommt und die hoffnung stirbt zuletzt
 
Dank der guten gar nicht so alten Unified Shader denke ich, dass die GPU so skalar werden wird, dass man einfach nur die Anzahl an diesen Unfied Shader erhöht und somit direkt mehr Leistung bereit stellt.
Da man natürlich den DIE nicht unendlich groß gestalten möchte/kann, könnte ich mir vorstellen, dass man einfach einen I/O-Chip (siehe NVidia und G80) und dazu viele kleine GPU mit den entsprechenden Recheneinheiten auf eine Platine packt - mehr Rechenchips, mehr Leistung.
Worauf ich hinaus will - Ich denke nicht, dass Intels komischer Chip jemals Marktreife erlangen wird. Selbst wenn - wir sehen ja, was aus PhysX geworden ist.. der ist schließlich nichtmal mehr ein Gesprächsthema (so würde es dem Intel-Chip auch ergehen).

Auf sowas in der Art beziehe ich mich: (Kommt, glaube ich, vom Inquirer)
Kon_artis schrieb:
[...]
Habe nähmlich heute schon irgendwo gelesen das ATI schon am R700 bastelt und das werden wohl Multi-GPU Karten werden. Also mehrere GPU´s auf einer Karte, mehr ist das nicht.
 
Zuletzt bearbeitet:
die wollen also eine "northbridge" bauen ... einen chip der viele pcie lanes zur verfügung stellt an die mehrere grafikkarten angebunden werden können (ist auch schon bei aktuellen northbridges so).

allerdings ist das wort "hub" meiner meinung nach schlecht gewählt, da es eigentlich ein switch seien sollte um unnötigen trafic zu vermeiden.

aber was hat dieses unternehmen mit intel am hut ? will intel von den chipsatzgrafikkarten weg und endlich karten für den pcie fertigen ? oder wollen sie mehrere gpus in einen chipsatz quetschen ? (4 x gma950 ?) wozu braucht ausgerechnet intel - eine firma die was grafikkarten anbelangt - noch lange keine so leistungsfähigen gebaut hat wie nvidia, amd/ati, matrox ... mit solch einen chip ?

-gb-
 
Der Begriff Hub ist in diesem Kontext die übliche Bezeichnung, die Northbridge heißt ja auch Memory Controller Hub und die Southbridge I/O Controller Hub.
Intel wird mit der Akquise vermutlich die Plattform-Strategie weiter ausbauen wollen, die sie mit Centrino, ViiV, vPro etc. eingeschlagen haben.

greetings, Keita
 
Gießt alles in die CPU. 24 Kerne + 24 GPUs dann den ganzen Chipsatz mit rein und RAM am besten auch gleich... ALLES rein da..
Dann brauchen wir auf dem Mainboard nur noch den Sockel, den Spannungsregler und die Anschlüsse.
Aufrüsten heisst dann, sich alle 2 jahre so eine neue MonsterCPU zu kaufen wo der Kern 20cm x 20cm oder so hat.
XD

Dann gibt es zumindest keinen Grund mehr zu flamen.

=^.^=
 
Leute ich weis gar nicht warum ihr alle hier etwas dazu sagen müsst obwohl ihr alle kein plan davon habt !!! Wartet mal was die Zeit/Entwicklung bringt und wenn etwas neues aufm markt kommt dann kann man immer noch meckern oder drüber reden ob es gut bzw. sinnvoll ist sich anzuschaffen. MEIN GOTT:freak:
 
Gamiac schrieb:
...wieviele GPU´s wollen die uns denn noch verkaufen, und wer soll das bezahlen ?
Man sollte mal bedenken dass die Spielefreaks langsam ins gemässigte Alter kommen, und nicht alle so blank sind wie die jüngeren hier momentan vielleicht. Überlegt mal wie lange es nun bereits Computerspiele gibt.
Je finanzstärker die Spieler werden, desto eher steigt auch die Bereitschaft mal so richtig viel Kohle in das Zeug zu investieren. ;)
 
>> Vorallem verallgemeinerst du bishin zur Falschaussage. Ein Die-Shrink mag ja die Leistungsaufnahme senken, wie du aber auf genau 51% mehr Leistung kommst bleibt mir schleierhaft.

ganz einfach : bei 65nm passen auf die selbe DIE-größe etwa 51% mehr komponenten wie bei 80nm. da die wegstrecke nicht zunimmt, wird dabei auch nicht mehr strom verbraucht.

immer dran denken, das die sache quadratisch ist und nicht linear...
 
keine schlechte idee an sicht, aber bevor man mehr GPU´s verbaut sollte man ggf erstmal sowas wie eine "DualCore" GPU entwickeln, wenn dann sowas gutes rauskommt wie es bei den CPU´s die Core CPU´s sind, dann denke ich würden sich davon auch "ein paar" verkaufen^^

falls der Chip erfolg haben soll, müssten die Hersteller MultiGPU karten bezahlbar machen und sie ganz gezielt am markt platzieren und diese nicht nur als technikspielerei verkaufen
 
@gustl87
Ich bin zwar kein Fachmann auf dem Gebiet, aber ich kann mir schon vorstellen das es einen Unterschied macht ob ich den Traffic zwischen PCI-e Karten oder GPU's verwalten will.

P.S. Was wollte/will AMD mit ATI, obwohl sie bis dato keine leistungsfähige Graka im Angebot hatten ;)
 
Realsmasher schrieb:
ganz einfach : bei 65nm passen auf die selbe DIE-größe etwa 51% mehr komponenten wie bei 80nm. da die wegstrecke nicht zunimmt, wird dabei auch nicht mehr strom verbraucht.
Der Anteil der Leckströme steigt aber ebenfalls, was sich massiv auf das Resultat niederschlägt, mit derlei Problemen dürfen sich ja u.a. auch Intel und AMD herumschlagen.

greetings, Keita
 
Ich glaube eher dass aus Kostengründen die GPU Hersteller ähnlich der GX2 Karten (ich weis es sind zwei Platinen) von Nvidia einfach zwei oder drei Chips auf einer Platine verlöten. Und der Ganze Datenaustausch zwischen den Chips wird dann sowieso auf der Platine erfolgen. Denn drei Grafikkarten z.B. im System kosten nicht nur enorm viel sondern verbraten auch gewaltig Leistung, und sorgen für viel Hitze und eine hohe Stromrechnung. Und das werden die Mainstreamkunden, die den großteil des Marktes ausmachen sicher nicht bezahlen wollen.
 
Sony, IBM und Toshiba haben ja mit den Cell Prozessoren eindrucksvoll gezeigt, dass sich mit verteilten Architekturen und ein paar neuen Ideen performante und zugleich kostenbewußte Lösungen realisieren lassen, warum sollte Intel zusammen mit einigen GPU-Spezialisten nicht in der Lage sein ähnliches auf den GPU-Markt zu werfen?

greetings, Keita
 
Zurück
Oben