News Keine Intel-Chipsätze mit Grafik mehr ab 2010?

Ich denke durch die Integrierte GPU wird Intel seinen Markanteil noch weiter ausbauen. Jetzt wird Nvidia kaum noch eine Chance haben IGPs zu liefern. Auch dürften dies den Markt für dedizierte Grafikeinheiten begrenzen wenn bereits eine Grafikeinheit verbaut ist.
 
einerseits sehr positiv für office rechner und gelegenheitszocker, ärgerlich für alle die eine richtige graka im rechner wollen, der integrierte kern muss mitbezahlt werden. Ich bin auf jeden fall gespannt was die können.
 
Es hat ja quasi nur Vorteile, man spart einen extra Chip ein + Kühlkörper. (Und sie müssen nicht seperat hergestellt werden das spart jede menge Produktionskosten)

Der extra Kern wird über den Prozessor ja sowieso mit Strom versorgt und gekühlt. Die automatische Taktregelung kann man mit Speedstep verknoten und ein schneller Zugriff auf den Hauptspeicher ist auch gegeben. Intel wird aber am Anfang den Nachteil gegenüber AMD haben, dass sie kein Gegenstück zu HybridCrossfire anbieten können. (Abschalten des internen Grafikkerns und Übernahme der Funktionen von der externen Grafikkarte.)
 
Naja, der Schritt war abzusehen. Macht auch wenig Sinn, einen Chipsatz mit Grafieinheit zu bauen wenn auch schon eine Grafikeinheit in der CPU integriert ist. Allerdings muss die integrierte GPU erst mal zeigen, was sie kann und wie gut sie sich durchsetzen kann.
 
Boards mit Onboardgrafikchips sind auch nicht wirklich teurer als als die ohne.
Außerdem hat man dann schon eine Reservekomponente im Rechner, falls etwas kaputt gehen sollte.

Und vielleicht klappt es ja dann auch endlich, wenn eigentlich jeder dann 2 Grafikchips im Rechner hat, die extra Grafikkarte im Desktopbetrieb komplett abzuschalten. Wäre echt einmal toll, wenn sich die Hersteller in diesem Punkt zusammensetzen würden und sich soweit einigen, dass es herstellerübergreifend geht...
 
Naja macht auch Sinn, wenn man die Grafikeinheit in die CPU integriert.
Bin gespannt wie gut diese sein wird, auch wenn es für mich persönlich absolut uninteressant ist, da es nicht genug Leistung bieten wird.
 
Ich denke, intel wird dieses Jahr nur den Core 2 durch den i5 ersetzen, während Pentium und Celeron die alte Technik behalten - was dann in der Praxis bedeutet, dass viel CPU + wenig GPU erstmal gar nicht geht. Erst 2010 gibt es dann i5 auch für den Lowend-Markt.
 
Das wird sicherlich sehr interessant! Die Vorteile liegen auf der Hand und mit Arrendale, einem 32nm-Prozessor mit 45nm-IGP wird es sicherlich wieder einen Schub in Richtung stromsparenden System bei ordentlicher Leistung geben.

Ich finde es wirklich super, wie Intel den richtigen Weg erkannt hat und nun beschreitet. Mobile PC sind die Zukunft und da zählt eben nur Leistung/Watt.
 
Wieso soll es eigentlich sinnvoll sein, wenn die Grafik in die CPU integriert wird? Ist auf Mainboards morgen kein Chipsatz mehr? Ob die Grafik nun im Chipsatz steckt oder in der CPU, ist doch eigentlich egal. Sinnvoll wird's dann, wenn CPU und Grafik sich bestimmte Einheiten teilen. Aber das wird am Anfang imho kaum der Fall sein.
Größter Vorteil Intels dürfte wohl das Verhindern von Wettbewerb sein.
 
Ich frage mich ob es - im Moment - wirklich Sinn macht GPU und CPU zu vereinen! Aus Sicht von Intel sicher, aber aus Sicht von mir als Endbenutzer sehe ich noch keinen Vorteil. Ich meine es macht einerseits vom Zusammenhang der Hardware keinen Sinn, da die Bildschirmanschlüsse eindeutig auf dem Mainboard sind und nicht am Prozessor ^^ und andererseits geht dadurch die Wahlfreiheit der IGP indirekt flöten. Technisch wird es wohl weiterhin machbar sein, dass man auch eine IGP im Chipsatz nutzt die von einem anderen Hersteller ist, aber unabhängig davon ob man die IGP der CPU nutzt oder nicht, man muss sie mit kaufen. Wenn man nun bedenkt, dass es Leute gibt die sich darüber aufregen, dass man bei Windows den IE nicht deinstallieren kann..... na dann viel Spass hierbei.
In der Tatsache, dass die IGP dann schneller auf den Speicher zugreifen könnte, sehe ich eigentlich keinen Vorteil, weil sie durch schnelleren Speicherzugriff noch nicht Speiletauglich wird. Und Kühlermaterial braucht man dadurch auch nicht weniger weil auch Chipsätze ohne IGP gekühlt werden müssen. Und wenn Intel nicht die Preise der Chipsätze senkt und die der CPUs gleich lässt wie ohne IGP, hat der Endverbraucher nicht einmal einen Preisvorteil. Das einzige was sich ändert wäre, dass dann alle, die nur eine IGP benötigen, diese bei Intel beziehen und bezahlen, hurra! :p
 
Nvidia wird durch sowas noch mehr Probleme bekommen und für AMD sieht die Situation sogar noch besser aus als für Intel, da sie über deutlich bessere Grafiktechnik verfügen. AMD wird in dem Segment dann einige Marktanteile mehr bekommen, das wird auch Zeit wenn man bedenkt wie traurig es ist, dass 50% aller verkauften Grafikchips nur grottenschlechte Intel Chips sind.
 
In kleineren Notebooks sehe ich dabei nur Vorteile, falls die integrierte Grafikeinheit dann auch wesentlich besser wird als der Schrott den Intel derzeit vermarktet. Aufm Desktop ist diese Lösung aber nicht so berauschend, denn wenn man die Grafikeinheit nicht nutzt verbrät sie dann Strom und könnte bei OC durchaus ein limitierendes Glied sein.
Man bedenke das Szenario... CPU läuft bei entsprechender Temp. stabil aber die Grafikeinheit verursacht dann schon Instabilitäten oder wenn dann die Spannungsversorgung anneinander gekoppelt ist könnte der Grafikchip früher aussteigen als die eigentliche CPU (Instabilitäten könnten sich je nach Anbindung und Technik auch bei deaktivierter GPU auf den Rest des Systems übertragen).
 
hoffentlich zieht AMD nach und intergriert ne hd4850 in die cpu, das wäre hammer :)
 
wazzup schrieb:
einerseits sehr positiv für office rechner und gelegenheitszocker, ärgerlich für alle die eine richtige graka im rechner wollen, der integrierte kern muss mitbezahlt werden. Ich bin auf jeden fall gespannt was die können.

Suxxess schrieb:
Es hat ja quasi nur Vorteile, man spart einen extra Chip ein + Kühlkörper. (Und sie müssen nicht seperat hergestellt werden das spart jede menge Produktionskosten)

Richtig ... Es gibt auch genug Boards mit GPU Onboard die günstiger sind, kommt dann aber auch stark auf die restliche Ausstattung an, mein 780G war sehr günstig im Vergleich zu meinem P35 allerdings auch nicht so voll was aber nicht so wichtig ist. Boards mit Onboard GPU sind generell sowieso für PCs die nicht so viel Ausstattung benötigen (HTPC, Office PC usw.).
 
Liest sich interessant, jedoch mit fadem Beigeschmack. Einerseits kann man es als technische Innovation in dem Massenmarkt verkaufen, aber parallel wird man versuchen die Konkurrenz aus dem Segment rauszudrücken.

Auch wie die kommenden Boards aussehen werden ist noch recht interessant, denn die CPU mit GPU Einheit wird ja wohl kaum die Videoanschlüsse haben. Auch inwiefern der GPU Kern sich abschaltet bei einer separaten Grafikkarte ist fraglich, bzw. ob es später Lösungen ähnlich HybridCrossfire geben wird.
Desweiteren will man nicht hoffen das eine solche Komponente einen Teil defekt hat. Also wenn Grafik Macken macht, muss eine neue CPU rein.

Auch die Performance der CPU als solche sollte Preislich ok sein, nicht das Intel da wieder auf den Trichter kommt 2x schlechtes zusammenpappen und dann schön teuer verkaufen.

Ich lasse mich mal überraschen wie viel die Dinger taugen, bzw. nichts taugen. Warten wir es mal ab.
 
Abwarten, was die Dinger draufhaben.

Ich habe keinen Zweifel daran, dass man damit jeden Office-Rechner vernüftig betreiben kann, aber wer "zocken" will, wird wahrscheinlich trotzdem auf eine "externe" Grafikkarte (PCIe) setzen müssen.
Alles andere würde mich wundern.

Das damit der Markt von Dritt-Herstellern wie NVidia das Wasser für Chipsätze abgegraben wird, ist klar.

Das Intel damit die Möglichkeit hat, CPU, Mainboard und Grafik aus einer Hand anzubieten, wird Intel mit sicherheit auzusutzen wissen.

Ich selbst sehe dem Ganzen gelassen entgegen mit meinem Phenom II X4 940 mit ATI 4870/1 GB DDR5, Gespann.

Alex
 
@alex_k: Onboard GPUs waren noch nie fürs zocken gedacht (auch wenn aktuelle Chipsätze z.b. ab 780G da schon ein wenig was können für Gelegenheitszocker), ob nun intern in der CPU oder extern auf das Board gepappt ist da ziemlich egal. Wer also einen PC zum spielen nutzt wird auch weiterhin auf eine dedizierte GPU setzen ...
 
Zurück
Oben