News Intel investiert in Chip zur Verwaltung von GPUs

Christoph

Lustsklave der Frauen
Registriert
Jan. 2002
Beiträge
3.100
Prozessorhersteller AMD kaufte vor einigen Monaten die kanadische Grafikchip-Schmiede ATi auf und vertreibt seitdem unter dem alten Markennamen auch Grafikkarten. Langsam aber sicher verstärkt auch Intel seine eigenen Ambitionen auf diesem Marktsegment und investierte vor kurzem Geld in ein Startup-Unternehmen.

Zur News: Intel investiert in Chip zur Verwaltung von GPUs
 
Das hört sich nicht gut an, wieviele GPU´s wollen die uns denn noch verkaufen, und wer soll das bezahlen ?

MfG Gamiac
 
ein kleine schreibfehler is da oben unterlaufen^^:

Aber auch Systemintegratoren """!!!!wir"!!!""" HP, Dell oder Alienware möchte man sich nicht verschließen und kündigte an...
soll es nicht "Aber auch Systemintegratoren """wie"""HP, Dell oder Alienware möchte man sich nicht verschließen und kündigte an"
heißen?
 
Die Sache ist doch simpel. Solange GPUs im Dutzend billiger bzw. genauso teuer sind, wie heute ein oder oder zwei Chips sind, ist es völlig egal wieviele sie irgendwie verbauen. Dann wird es einen Markt dafür geben. Die grundlegenden Voraussetzungen, also weniger Stromverbrauch und damit Wärmeabgabe müssen sowieso vorher geklärt werden. Und soo neu sind 4 GPUs ja gar nicht, eine effizientere Nutzung wäre also durchaus ein gutes Ziel. Das senkt schließlich die benötigte Energie. Oder ganz und gar Hersteller-unabhängiges Zusammenarbeiten? Das wär ja mal was. ;)

Und möglicherweise nutzt man das ganze sonst im Serverbereich, wo GPGPUs inzwischen auch ein Thema sind.
 
die sollten lieber die alte voodoo-technik nehmen. die hat fast 100% skaliert mit steigenden gpus und das ganze ohne extrachip.

ach nvidia hat die technik vernichtet und nur den namen behalten ? tja, dann wirds leider nix, pech gehabt.

müssen wir weiter mit einer gpu leben, was dicke ausreicht.

Ich kann den weg einfach nicht verstehen. 2 oder mehr karten mit jeweils 150W verbrauch sind sicher nicht die lösung.

wie wärs mit einem die-shrink auf 65nm, wie bei den cpus schon standard ist ? im vergleich zu 80nm bekommt man so 51% mehr leistung bei gleichen ressourcen. das wäre eine sinnvolle investition und nicht ein zusatzchip damit nvidias sli nicht mehr umherlahmt.

aber ich weiche sicherlich vom thema ab....
 
Vorallem verallgemeinerst du bishin zur Falschaussage. Ein Die-Shrink mag ja die Leistungsaufnahme senken, wie du aber auf genau 51% mehr Leistung kommst bleibt mir schleierhaft. Auch ist dies bei der Transistoranzahl moderner GPUs nicht mal einfach so zu machen. Auch würde das absolut nicht gegen das Effizienzproblem helfen. Gut dann hat man also statt 2x150W 2x100W. Und dann? Taktet man die Chips höher um die Performance zu steigern, die verloren geht bei der Verwaltung der Daten...

Und wie effizient das Original SLI war und warum man es dann heute nicht einfach wieder aufnimmt bleibt noch zu klären (ich hatte eher sowas von 40-60% in Erinnerung...). Die fast 100% mögen in der Theorie ja möglich sein. Nur es muß beim Abgleichen der von 2 verschiedenen GPUs berechneten Zeilen (mit unterschiedlichem Inhalt) wieder ein gewisser Teil Leistung flöten gehen, damit ein sauberes Bild entsteht. Auch 3dfx konnte nicht zaubern.
 
Zuletzt bearbeitet:
Grafikkartenchips haben eine vollkommen andere Architektur wie CPUs, deswegen reagieren sie sensibler auf Shrinks. :rolleyes:

Aber ich werde mir weder jetzt noch in 10 Jahren ein System mit 4 Grafikkarten zulegen!!
 
Wer redet denn von mehreren Grafikkarten? Ich glaube hier ist nur die Rede von einer Karte.
Habe nähmlich heute schon irgendwo gelesen das ATI schon am R700 bastelt und das werden wohl Multi-GPU Karten werden. Also mehrere GPU´s auf einer Karte, mehr ist das nicht.
 
Ich halte das für Unsinn. Mich stört schon dieser ganze SLi/CF-Hype. Und jetzt wollen die da noch weiter gehen in die Richtung.

Die aktuellen DX10 Karten von NV und ATI brauchen über 200 Watt und kosten eine Stange Geld. Soll man sich davon nun auch noch mehrere in den Rechner bauen?

Wenn es wirklich so kommt dann installiere ich Linux und kaufe ich mir eine Wii oder XBox und ein MacBook.

edit

Die GPU-Hersteller sollten lieber mal auf kleine Strukturen (wie bei CPUs schon Praxis) setzen. Und dann noch dafür sorgen dass sich z.B. Teile des Chips zum Strom sparen abschalten können.

Eine GPU mit z.B. einem Teil nur für Physik und einem nur für KI fände ich nett. Am besten so eine Art Quad-Core, einen Core für 2D und "leichte" 3D-Aufgaben (Stichwort Aero) der immer läuft und dazu dann den eigentlichen Core für Spiele (und andere Anwendungen, die danach verlangen) und dazu jeweils einen für Physik und einen für KI. Am besten so dass Programme selber entscheiden können, welche Cores sie nun nutzen bzw. aktivieren wollen, und welche sie nicht brauchen.

Naja, vielleicht kommt sowas ja eines Tages, mit DX11 oder so...
 
Zuletzt bearbeitet:
@9: Seh ich genauso !

Irgendwann soll sich wahrscheinlich jeder einen Grafik- und Rechencluster mit mehreren Kilowatt Stromverbrauch Zuhause hinstellen ! :rolleyes:
 
Weiss garnicht was ihr wollt. Erstmal muss sich sowas durchsetzen, und wenn sich so etwas durchsetzt dann muss es auch gut und sinnvoll sein, aber egal, hauptsache wieder mal gemeckert.
Und nochmal: ES WIRD AUCH EINZELNE KARTEN MIT MEHREREN GPU´S GEBEN.
Meine Fresse. In jeder News wird hier nur rumgemeckert.
 
Genau meine Meinung, seh ich genauso, bla. Irgendwas konstruktives? Irgendjemand?

Oh je und warum soll dieser ein Chip das alles ausschließen? Kann man nicht das eine haben und das andere auch? Kein Mensch wird sich ein 2kW-NT verbauen und eine Kühlung einbauen die vier G8800GTX ab kann. Es gibt keinen Markt dafür, also wozu malt ihr hier den Teufel an die Wand? Kein Spielehersteller wird sowas voraussetzen können, weil es sich keiner leisten will und weil die technische Umsetzung so gar nicht funktioniert.

Und warum sollen nicht 4 GPUs auf einer Karte möglich sein? Warum nicht ein OnBoard-Chip für die leichten Aufgaben und ein SLI-System für die Spielegrafik? Wenn doch sowieso GPUs für die Physikberechnung kommen werden, warum soll dann dieser Chip nicht sinnvoll sein? Oder was soll eigentlich die CPU machen wenn ich die viertel GPU mit KI auslaste ? Und kommt nicht gerade dann eine verbesserte Anbindung von CPU und GPU zum tragen. Warum soll das ausgerechnet dieser Chip ausschließen? Und überhaupt sollen Chip und Treiber gerade verhindern das ein Programm sich selber aussuchen muß welche GPU oder Core es nutzt. Das bedeutet weniger Aufwand für die Programmierer und auch gerade weil Physikberechnung noch kein Bestandteil von DirectX10 ist. Und wer verlangt eigentlich, dass ihr, falls es doch so schlimm kommt, das alles kaufen müßt?
 
Zuletzt bearbeitet:
Es ist schon bestätigt worden, zumindest von NVIDIA das es in die Richtung " Multichiplösungen" geht, ATi wartet ab was der Markt will. Weil langsam kommen sie an ihre Grenzen mit Singlechiplösung!
 
@ 12

Sehe ich anders. Den P4 hat es auch 6 Jahre lang gegeben, obwohl er alles andere als "gut" war. Gerade Intel versucht immer mal wieder irgendwelchen Mist auf den Markt zu drücken (Rambus, Slot statt Sockel, BTX...) nur weil es Intel selbst Vorteile verschafft.

Und mir geht es einfach auf den Keks, dass es immer weniger "bessere" Mainboards und Chipsätze gibt, die mich mit SLI/CF verschonen. Ich brauch den Kram bzw. Extra-Slot nicht. Kaum jemand brauchen das. Aber viele lassen sich vom Marketing verblöden.
 
Also ich find es gut, wenn man beliebig viele GPU clustern und dann für professionelle Anwendungen verwenden kann. Im FP-Bereich kann man dann einiges mehr rausholen, als wenn man nur Standard CPU verwendet. Für den Consumer besteht ja nun die Hoffnung doch mal vernünftig mit SLI/CF aufzurüsten bzw. für Graphik, Physik etc. zu kombinieren. Wahrscheinlich wird die nächste Chip-Generation dann doch wieder so ein Gespann übertreffen.
 
BessenOlli schrieb:
Gerade Intel versucht immer mal wieder irgendwelchen Mist auf den Markt zu drücken ([...]BTX...)
Was war denn an BTX so schlecht?

BessenOlli schrieb:
Und mir geht es einfach auf den Keks, dass es immer weniger "bessere" Mainboards und Chipsätze gibt, die mich mit SLI/CF verschonen. Ich brauch den Kram bzw. Extra-Slot nicht. Kaum jemand brauchen das. Aber viele lassen sich vom Marketing verblöden.
1. Bei nVidia-Chipsätzen gibt es ein paar Extras nur für SLI-Boards (z. B. beim nForce590) die keiner braucht und die so gut wie nix bringen. Kosten bloß Geld. Hast also keinen Nachteil.
2. Bei CF-Boards gibts eh nix extra.
3. Wieviel Prozent der User nutzen Multi-GPU? Es gab mal eine Meldung, nach der 0,8 % (oder so) aller verkauften Mainboards mehrere Grafikkarten-Slots haben...so blöd scheinen die Leute also nicht zu sein.

Das es in Zukunft einen Chip für eine Serie von Grafikkarten von einem Hersteller gibt und sich die einzelnen Modelle vermutlich nur nach Anzahl der gekoppelten Chips unterscheiden stand vor ein paar Monaten irgendwo schon mal...Inquirer glaub ich. Ist nicht schlimm solange es gut funktioniert.
 
Das läuft doch nicht etwa auf Dual-Core-Grafikkarten hinaus !?
 
Ich weiß nicht wo euer Problem sind wir gehen gerade auf Quad Core CPUs zu weil die Architektur Single Core nicht soviel mehr Leistungen bringt warum sollte man das nicht bei GPUs auch machen und genau bei Multi GPU auf einer Karte wird dieser Chip wohl wirklich wichtig bzw. interessant.
 
@17: BTX ist nur halb zu Ende gedacht und würde die Probleme, die durch einen 7GHz P4 entstehen, nicht lösen.


Ich finde die Idee mit mehreren GPUs nicht schlecht. Aber nur wenn das so aussieht, dass die sehr preiswert herzustellen sind und in Summe dennoch eine a) geringere Energieaufnahme und b) mehr Leistung als ein Einzelchip haben.
 
Vielleicht ist das ja ein guter Ansatz. Lassen wir Intel doch erst mal machen. Wenn es dann wieder ein teures "Heizkraftwerk" wird müssen wir es ja nicht kaufen. ;-)
 
Zurück
Oben