News Intel forciert Entwicklung von „CPGPUs“?

Christoph

Lustsklave der Frauen
Registriert
Jan. 2002
Beiträge
3.100
Die Entwicklung steht im Prozessorsektor nicht still und spätestens mit der Übernahme ATis durch AMD befindet sich der größte Halbleiterhersteller der Welt Intel nun im Zugzwang. Daher scheint es nicht verwunderlich zu sein, dass derzeit immer mehr Details zu CPUs mit integriertem Grafikchip in das Internet durchsickern.

Zur News: Intel forciert Entwicklung von „CPGPUs“?
 
Hi

Finde ich nicht schlecht das sie Onchip karten machen wollen !

Daher wollen sie auch ein neuen sockel machen der 1366Pins hat .

Aber ich will gerne mal wissen ob es wieder ein LGA sockel wird wenn ja dan geil .

Also jetzt mal zu der speckulation das Intel "Vielleicht" High-End karten macht ,
das währe geil weil Intel dann mal Nvidia und ATI mal ein auf den arsch hauen kann.

MFG Ich ^^:king:
 
Die Entwicklung eigener Mid-Range Karten von Intel wäre ein harter Schlag in das Gesicht von nVidia.

Es reichen ja Chips, die mit einer 7600GT (bzw. den equivalenten Nachfolgern) mithalten können, um 70%+ des gesamten Bedarfs ebenfalls mit Produkten beliefern zu können. Ganz abgesehen davon, dass man in den eigenen Produktionsstätten deutlich günstiger fertigen kann.

Und da sich Intel in der Vergangenheit auch immer einigermaßen um die OpenSource Community in Sachen Treiber gekümmert hat, eröffnet sich dort eine weitere Alternative, wenn man man nicht auf die minderwertigen Treiber von nVidia und ATI im Linux/BSD Bereich angewiesen sein will.

mfg Simon
 
Keine schlechte Idee für Lowend- und Fertig-PCs. ich würds mir aber nicht kaufen, ich möchte beide Komponenten unabhängig voneinander wechseln können.
 
Die Idee selbst ist gut, allerdings zweifle ich an der umsetzung.
Man bedenkt wie gross eine Grafikkarte ist, und wie gross eine CPU ist.
Wenn man auf die Idee kommen wird eine Grafikkarte mit eine CPU zu integrieren wäre für mich logischer, als ein CPU mit eine Grafikkarte.
 
So abwegig ist es nicht, die Fertigung wird für solche Vorhaben wahrscheinlich unter 0,65nm liegen. In den HighEnd Bereich wird das natürlich nie vordringen können.
 
@Project-X

die modernen GPU Architekturen mit ihren Unified Shaders kommen einer CPU ähnlicher als du denkst :-)
 
@Simon
Könnten sogar noch deutlich mehr als 70% des Marktes sein (von den Stückzahlen her). Zumindest ist imo bei CPUs der High-End-Markt Xtrem :D klein.

Allerdings muss man bedenken, dass es nicht von heute auf morgen möglich sein wird GPUs im höheren Mid-Range-Bereich zu platzieren, da schließlich auch parallel die Fusionierung im Low-End-Bereich gewollt wird.

Interessant wäre die Frage, ob AMD ATI übernommen hat, weil man derartige Ambitionen bei Intel kommen sehen hat oder vielleicht einfach nur die Entwicklung am Markt und bei der Technik so eingeschätzt hat. Ich denke eher zweiteres, da die F&E schneller voranschreitet als die Leistungsfähigkeit, die ein einfacher PC im Low-End-Bereich heute haben muss.
Somit kann man CPU und GPU ohne Hitzegau wieder zusammenlegen.

Es werden weiter Auswirkungen des AMD-Deals erkennbar sein, wenn sich die beiden Firmen dann wieder auf dem "neuen" Markt gegenüberstehen und sich dank der Konkurrenzsituation nicht übermäßig bereichern können - gut so.

Ich mache mir Sorgen über die Möglichkeiten, die Produkte der drei hier betroffenen Hersteller zu kombinieren, also z. B. weiterhin CPUs ohne Grafikkern(e) zu kaufen oder eine Intel-CPU mit einer "DAMMIT"-Grafikkarte zu kombinieren. Ob die Hersteller da weiterhin auf die Wahlfreiheit des Kunden setzen, bleibt abzuwarten. Denke aber schon, dass die Plattformen offen bleiben.

Naja und für nvidia wirds hart :rolleyes:
Auch wenn die als Spezialist sicher kompetent und leistungsfähig sind...wer wird da noch nen extra Chip aufs MoBo verbauen, wenn es das gleiche für weniger Geld auch im Prozessor gibt?
 
@Project-X: die Größe von Grafikkarten kommt von Spannungswandlern, Speicher, D/A-Wandler und ähnlichem Krimskrams. Der eigentliche Chip ist nicht größer, als eine CPU. Die Fertigung wird zu der Zeit wohl irgendwo zwischen 0,45 und 0,35nm liegen und was die Leistung angeht.. naja, bis dahin dürften die klassischen Onboard-Chips auf dem Niveau einer 7800 Gt angekommen sein. Onboard-Lösungen mit ähnlicher Leistung einer 7300 sind ja heute inzwischen bereits nahezu fertig. Was die Leistung angeht, darf man nicht vergessen, dass die Topmodelle von ATi und nVidia mehr oder weniger nur Prestigeprojekte sind, das Geld wird mit Onboard-Lösungen und den Lowend-Grafikkarten (wenn mal wieder irgendwer ein Board ohne Grafikchip gekauft hat) gemacht. Durch das hohe Tempo der Leistungssteigerung sind zudem sämtliche neuen Trends Abseits der Spiele immer nur für eine kurze Zeit ein Thema - was heute noch eine 7600 GS erfordert, gibt's in 2 Jahren womöglich als "GeForce 9100" onboard...
 
@ Butterbemme (5): Ich glaube kaum das der Sinn solcher CPGPU's darin liegen wird Grafikkarten zu ersetzen. Sondern eher darin sie beim Rechnen zu unterstützen. So etwas würde sich nicht durchsetzen wenn die Leute jetzt auch noch für die reine Grafikleitung die CPGPU austauschen müssten. Ich denke das dieser Sektor immer ein eigener bleiben wird. Außerdem kann ich mir nicht vorstellen das die vollkommene Integration und damit auch Funtion einer Grafikkarte in eine CPGPU integriert werden kann. Wenn ich mir so vorstelle was da auf einem PCB einer Grafikkarte so alles drauf ist. Das müsste dann ja doch auch alles in die CPGPU würde ich mal sagen. Wo wäre da denn dann die Schnittstelle für den Monitor bzw. für das Display? Direkt auf dem Mainboard bzw. Motherboard verlötet? Ne. Also ich würde mal abwarten wie sich das ganze entwickelt bevor man sich da zu viele Gedanken darüber macht. Das machen eh die Hersteller. Und wir werden dann das Endergebnis sehen. Klar darf man spekulieren wie das ganze aussehen könnte. Aber jetzt schon zu sagen wie das alles sein wird bringt überhaupt nichts da es einfach noch keine Info's gibt nach denen man sich richten könnte. Die Idee hört sich aber auf alle Fälle Interessant an
 
Zuletzt bearbeitet:
Wenn Vista keine 3D bzw. hardware-beschleunigte Oberfläche hätte, dann könnte man ja eigentlich auf die CPU einen Grafikchip machen, der nur für 2D zuständig ist und dazu eine GraKa, die nur für 3D-beschleunigte Sachen aktiv wird. Quasi wie damals die VooDoo Karten, als AddOn zur CPU-Grafik...

Aber das geht nicht mit Vista oder?
 
hmmm ob wir uns auf CPGPU freuen sollen?
Sehe da eigentlich keinen vorteil für die kunden, eher nachteile....
 
grundsätzlich eine ganz gute idee... aber beim aufrüsten stell ich mir die ganze sache dann etwas schwieriger / kostenaufwändiger vor. Konnte man bis jetzt jedes Bauteil einzeln aufrüsten, mussU und GPU anschaffen. Ich denke dass die ganze Geschichte eine unsinnige Geldmacherei ist...Zumindest für Heimanwender und leistungsbegeisterte Modder/ Upgrader zu teuer :-)

so far
 
GPU in CPU??? Habt ihr auch schon alle eure Wasserkühlungen und Kompressorkühlungen zur hand? son blödsinn, ich hoffe im high end segment wird es sowas nie geben, dann muss ich mich mit so nem rotz auch nicht rumschlagen!!!
 
in meinen Augen liegt der Vorteil einer solchen integrierten Lösung gerade auch im Energiesparen. Man stelle sich ein Notebook vor mit einer solchen intergrierten CPGPU, welches in der Lage ist Vista mit allen 3D Effekten akkuschonend laufen zu lassen und erst bei Bedarf einen zweiten großen Chip zuschaltet.
Und was das Aufrüsten anbetrifft wer kauft sich schon immer abwechselnd neue Grafikkarten bzw. CPU, da diese sowie durch die Einführung von neuen Bussen usw. miteinander gekoppelt sind.
 
Ich sehe ebenfalls die Vorteile in sehr energiesparsamen Arbeiten mit einer trotzdem ausreichend kräftigen Grafik .
 
Zurück
Oben