News Intel: Kleinste 32-nm-CPU kostet 84 US-Dollar

Ist da wieder so ein Intel Grafikschrott drauf oder haben die diesmal was ordentliches Entwickelt?
 
Wie war das noch bei 32nm is doch mit Laser erstmal Ende oder?

mfg
 
@Blackmarket

da gehe ich stark von aus das die Grafikloesung nur das untere Leistungssegment bedient. Die heutigen onboard -Grafikkarten sind dann eben nur onchip ,aber genauso langsam .Mit diesen Gurken haelt intel aber trotzdem ueber 40% Marktanteil alleine und erhebt sicher auch gar keinen Anspruch auf andere Segmente des Marktes.
 
gerade für Note und Netbooks sowie kleinen Office und Multimedia-PCs mehr als interessant! Die Leistungsaufnahme und Grafikleistung wäre ebenfalls interessant.
 
Schön wäre es, wenn Ati/Nvidia zusammen mit Intel einen "Treiber" entwickeln, welcher im 2D-Betrieb auf die Minigraka umschaltet und so beim Stromsparen hilft.

Das bleibt zu 99.999% aber Wunschdenken:rolleyes:.

In Nettops halte ich diese Cpu völlig fehl am Platz, da man dort einfach so gut wie nie 4 Threads gleichzeitig ausführt und der Grafikchip möglicherweise kein HD-Material encoden kann.

Als Gamercpu ist sie natürlich klasse!!:freaky: Viele Spiele unterstützen nur 2 Cores, manche dagegen 4, also hat man annäherungsweise die Leistung eines Quads, aber einen Verbrauch von einem Dualcore.
 
Respekt schrieb:
@hornet331:
Die sieht vermutlich auch so aus, nur kommt das nicht auf den Markt weils einfach nicht reif dafür ist.

Jeder will mal GPU und CPU auf einem einzigen Die sehen.

Warum will das jeder sehen? Die meisten die sowas kaufen ist es egal ob die IGP beim Prozessor oder im CHipsatz steckt.

@Topic
Da fehlen dann ja nur noch billige Chipsätze und ne ordentliche Leistung und fertig ist die Laube äh der Rechner ;)
 
Hammer hat sicherlich einige Vorteile in sich nur wie entwickelt sich mit diesem Produkt die Abwärme (Kühlungslösungen) wie auch die Stromaufnahmen?
Und wo ist ist die Obergrenze (Leistung des CPU's und des GPU's) wenn diese beide integriert sind?
 
Um diese Massen liefern zu können, braucht Intel auch dementsprechende 32nm-Fabriken.

Wenn man in die Vergangenheit sieht, dann dauerte es 1-2 Quartale bis halbwegs Massen geliefert werden konnte.
Aber das waren noch lange keine 80$ CPUs.

Um das zu schaffen, müssen 3 32nm-Fabriken gleichzeitig ab 1Q 2010 liefern.
Nun ja, warum nicht. Mal sehen, was kommt.

Zum Vergleich
Beim 45nm-Umstieg lieferte die D1D-Fabrik die CPUs bis Ende des Jahres alleine.
Ab Jänner lieferte die erste externe Fabrik. Im März die zweite und die Dritte konnte ab Juni liefern oder Produzieren???
Erst ab März konnte Intel entsprechende Massen (AFAIK 20-30%) an CPUs liefern. (AFAIK 1Q ... 10%; 4Q ... 3%)
 
Was mich auch interessiert :
Wenn Intel in jeder neuen CPU eine GPU verbaut wird der Marktanteil im Grafikkarten-Segment auf nahezu 80% steigen , solange bis AMD auch eine Fusion-ähnliche CPU anbietet .

Da denken die Noobs wieder : Mensch . Intel hat aber einen hohen Marktanteil , die IGPs müssen spitze sein :evillol:
 
Nacho_Man schrieb:
Da denken die Noobs wieder : Mensch . Intel hat aber einen hohen Marktanteil , die IGPs müssen spitze sein :evillol:

Nö, die Noobs denken weiterhin "WTF? Intel macht Grafikkarten??".

Die meisten wissen doch nichtmal, dass es außer AMD und Nvidia noch etwas gibt ;)
 
Mal eine andere Frage?

Wird Intel die CPU auch für den leider langsam aussterbenden Sockel 775 anbieten und mit einem X38-Chipsatz kompatibel sein?
Wenn ja, kann i5 oder i7 noch warten... :D
 
@Head-Crash: Nein.

Kurzbegründung: Diese neuen CPUs erhalten einen integrierten Speichercontroller, der rein technisch bereits einen neuen Sockel/Chipsatz zwingend notwendig machen.
 
!"EXXTREME"! schrieb:
Über Sinn und Unsinn lässt sich bei diesem Produkt streiten!!

Ich denke mal, dass es eben eine Übergangslösung ist, bis man die GPU bald auf dem selben DIE hat wie die CPU. Man will halt vorher nochmal Erfahrungen sammeln.
Sonst dürfte der Nutzen eher gering sein...
 
fragkuki schrieb:
wird die CPU auf meinem MSI P35 NEo laufen ?

Antwort: nein, dein vorredner hat es doch schon bestens beschrieben, wohl zu faul gwesen hier alles durchzulesen :p

Denahar schrieb:
Kurzbegründung: Diese neuen CPUs erhalten einen integrierten Speichercontroller, der rein technisch bereits einen neuen Sockel/Chipsatz zwingend notwendig machen.

;)
 
Ohne Sinn warum hat Intel einfach nicht Nvidia aufgekauft mit 7 Miliarden die sie für 32nm verschwendet haben um das hier Möglich zu machen. Wir wissen doch alle das der Grafickkern kein 1080p kann. Sowas muss ne Grafickkarte heutzutage für mich können.

Beide verschwenden einfach zu viel Geld für Technologien die sie einfach nicht können und machen es sich nur unnötig schwer.
 
MisaMisa schrieb:
Wir wissen doch alle das der Grafickkern kein 1080p kann. Sowas muss ne Grafickkarte heutzutage für mich können.

#1: Toller Verschreiber!
#2: Woher willst du das wissen?
#3: Es ein eine IGP und keien Grafikkarte. Ergo muss nur dagegen verglichen werden, wenn überhaupt, da diese Lösung (zunächst) einzigartig ist.
 
MisaMisa schrieb:
Ohne Sinn warum hat Intel einfach nicht Nvidia aufgekauft mit 7 Miliarden die sie für 32nm verschwendet haben um das hier Möglich zu machen. Wir wissen doch alle das der Grafickkern kein 1080p kann. Sowas muss ne Grafickkarte heutzutage für mich können.

Beide verschwenden einfach zu viel Geld für Technologien die sie einfach nicht können und machen es sich nur unnötig schwer.
Nur weil die Wiedergabe mit dem Chipsatz vom Atom probleme bereiten muss das nicht für alle Intel IGPs gelten.
Hier mal ein Vergleich zwischen dem X4500HD und einer HD4350. Die X4500HD belastet die CPU zwar stärker aber ich denke das dürfte bei den kommenden CPUs nicht das Problem darstellen:freak:
http://www.legitreviews.com/article/812/2/
 
Bin mal auf die Grafikperformance gespannt wenn die GPU an so einem kurzen und schnellen BUS hängt.
 
Zurück
Oben