News AMD: Vier stromsparende 45-nm-CPUs ab Q2/09

Mann kann ja immer noch einen Tolimann nehmen. Ist zwar ein Dreikerner aber sehr gut zu takten und hat genug leistung.

MfG
 
Die 45W werden aber bitter erkauft. Komplett ohne L3 dürfte der Prozessor im Takt zu Takt vergleich gerade in Speicherlastigen Anwendungen deutlich zurückliegen.
 
@gruffi (Edit): sicherlich ist der Vergleich nicht eindeutig, aber immerhin *gibt* es diese Intel-Prozessoren schon länger. Dieser Fred beschäftigt sich gerade mal theoretisch mit der Möglichkeit, dass zur Hälfte '09 Amd nachziehen wird. Mehr als ein Jahr Vorsprung ist ja auch mal was.
Außerdem fehlt Amd dann immer noch der L3-Cache und der FSB-Unterschied macht auch nicht so viel für die TDP-Klassifizeriung aus.

@40: Sicher, dass die Brisbane-CPUs billig sind ist deutlich, nur ist das wohl nicht ideal um aus den roten Zahlen zu kommen. Ich finde es eher schade, dass Amd sich auf den Quad versteift hat und den Dual-Core als Neuentwicklung so lange vernachlässigt hat.
Und was du mit "das wird sich mit 45nm eben wieder ändern" meinst, ist mir nicht ganz klar. Es dauert noch mindestens ein weiteres Jahr bis hier überhaupt mal was kommt, geschweige Verfügbarkeit usw.

@Kottenpipel: Tri-Core ist auch nicht die Lösung, da es sich auch hier lediglich um defekte Quads handelt (wer will das schon?), die Akteptanz gering ist und der Preisunterschied zum Quad zu klein ist.
 
Auch mit 45nm wird der Dual-Core bei Amd nicht viel bringen. Ich glaube nicht, dass das ding viel mehr werden wird als ne ziemliche Low-Cost Lösung. Unter Umständen basiert Fusion auch auf dem Regor mit Grafikchip, aber für alles etwas hochpreisigere wirds bei Amd nur noch Triple und Quad-Cores geben. Wir ham ja jetzt schon nen Quad unter 100€ und Triple bei 80€. Mit 45nm dringen zumindest die versionen ohne L3 in noch niedrigere Preisregionen vor. Da lohnt es sich einfach nicht mehr viel geld innen dual-core zu verschwenden.
 
@Denahar
Wie AffenJack schon sagt, Dualcores werden früher oder später vollkommen in den Low-End Bereich abwandern. Da würde ich ehrlich gesagt auch nicht mehr allzu viele Ressourcen verschwenden. Kommt mit Nehalem eigentlich noch ein reiner Dualcore? Havendale ist doch auch nur in Kombination mit IGP vorgesehen, wenn ich das noch richtig in Erinnerung habe?
 
@gruffi: Na ja, es würde sicherlich noch was bringen einen wirklich guten Wurf zu landen um durch Architektur (Leistung/Watt+Frequenz) und Taktbarkeit wieder mehr Geld verlangen zu können wie es ja auch Intel (z.B. E8600) vormacht. Momentan verdient sich Intel genau an diesem Marksegment dumm und dusslig.

Wegen Havendale: es wird ein sauber designter Dual-Core sein, aber eine Doppelchip-Variante, wie diese Folie zeigt. Sprich, 4 Kerne oder 2 Kerne mit integrierter Grafik. Da scheinst du also wohl recht zu haben, wobei wohl noch niemand wissen kann, wie gut der Havendale im Vergleich zum Fusion dann aussehen wird.
 
Sicherlich verdient Intel mit den Dualcores gutes Geld. Nur sollte man bedenken, dass es eben auch teilweise auf die 45 nm Modelle zurückzuführen ist. Auch stimmen die Relationen oftmals nicht. Ein E6750 zB sollte nur geringfügig schneller sein als ein X2 6000+ (65 nm). Erster kostet aber fast 75% mehr. Generell scheint mir die Preispolitik bei Intel etwas konfus zu sein. Ein E8200 wiederum kostet zB 10 Euro weniger als ein E6750, obwohl erster praktisch in allen Belangen besser ist.
Verstehe mich nicht falsch, klar hat Intel gerade bei Dualcores einen nicht zu unterschätzenden wirtschaftlichen Vorteil. Der hat aber nicht nur technische Ursachen.

Mit Havendale hast du mich wohl etwas missverstanden. Dass es ein natives Design wird, war mir schon klar. Ich meinte eher, ob es ebenfalls Modelle ohne IGP geben wird. Etwas konkretes habe ich dazu noch nicht gefunden.
 
Zum DC: da hast du sicherlich recht, die Preispolitik ist wenig einleuchtend, noch sinnvoll. Leider aber ausreichend um gutes Geld zu machen. Daher hätte ich mir hier eine stärkere Konkurrenz seitens Amd gewünscht um diesen Umstand ein Ende zu bereiten. (ein Ati-nVidia-Szenario wäre schön).

Havendale: ja, das habe ich wohl. Ich dachte, es ging lediglich um den Umstand 2x2Chips, aber ich fürchte auch, dass es wohl nicht einen reinen DC-Havendale geben wird. Wenn sich der IGP, wie Hybrid-Power suggestiert, abschalten lässt, wäre dass aber kein Problem, denke ich.
 
Die AMD ist zu langsam Geschichten sind wirklich erschreckend.
Ein X2 @2800MHz reich locker für einen Spiele PC mit einer GTX 280.
Schaut euch den Phenom an bei realen Tests an und nicht diese 800x600 gähn Benches.
Ich zocke die native Auflösung meines TFT und welche Auflösung nutzten die AMD ist so schlecht Schreiberlinge?
http://www.legionhardware.com/document.php?id=775&p=0
 
Zuletzt bearbeitet:
MacPok schrieb:
Die 45W werden aber bitter erkauft. Komplett ohne L3 dürfte der Prozessor im Takt zu Takt vergleich gerade in Speicherlastigen Anwendungen deutlich zurückliegen.
Ironischerweise kann das auch genau gegenteilig aussehen, da durch den relativ langsamen L3 Cache die Speicherlatenz mit dem K10 eher hoch gegangen ist.
 
Ja, man sollte das nicht überbewerten. Was alles beim L3 bzw der Cache Logik allgemein geändert bzw verbessert wurde, weiss man bisher noch nicht mal. Es ist ja nicht nur die Kapazität. Der L3 des K10 ist zB 32-fach assoziativ, der des K10.5 48-fach assoziativ. Das sollte Cache Misses verringern und somit effektiv die Geschwindigkeit verbessern. Auch sollte man Cache, trotz dass er grundlegend wichtig ist, nicht überbewerten. Es ist immer noch entscheidend, die Pipeline permanent mit ausreichend Daten zu füttern ohne ständig Däumchen zu drehen. Wenn das mit moderater Cache Dimensionierung erreicht werden kann, reicht das letztendlich auch. Und wer sich 45 W Quads kauft, wird sicherlich auch nicht auf maximale Performance aus sein. Für AMD ist es einfach eine Möglichkeit, wirtschaftlich flexibler zu agieren. Viel interessanter ist, ob Propus mit einer separaten Maske gefertigt wird. Oder ob es einfach Denebs mit deaktiviertem L3 sind.
 
@Denahar:

Intel verkauft bereits seit über einem halben Jahr den Xeon L5408, der mit TDP von 40W bewertet ist. Auch sehr interessant ist, dass Intel bereits seit Monaten den QX9300 liefert, der eine TDP von 45W hat. Also mit anderen Worten, es wird höchste Zeit, dass Amd hier mal nachzieht.
__________________

Ist zwar schon 3 Tage her, seit du diesen blödsinn gepostet hast, aber anscheinend kann man derartiges nicht oft genug sagen.

Ich werde dich, mein lieber Denahar jetzt einmal aufklären, weil anscheinend du ebenfalls zu jenen gehörst die das noch nicht so ganz kapiert haben dürften:

Die von dir genannten Intel CPUs haben, wie alle von Intel, keinen integrierten Speichercontroller. Der sitzt in der Northbridge. Du musst also den Großteil des Verbrauchs der Northbridge bei den Intels zur TDP des Prozessors noch dazuzählen, und das ist je nach verwendeten Chipsatz eine ganze Menge (die 945er verbrauchen bis zu 22Watt!!!!!) Der Speichercontroller den Intel verbaut, benötigt ca. 15 - 18 Watt, die zählst du jetzt zu deinen ach so tollen TDP-Werten hinzu. Jetzt sind sie nicht mehr so berauschend, hm?

Die CPUs von AMD haben bereits seit 2003, also seit 5 (FÜNF) Jahren den im Prozessor integriert. Du hast dieses "kleine" Detail also seit 5 Jahren noch nicht mitbekommen, wie es aussieht. ;)

Das Intel im übrigen nicht die theoretisch max. TDP-Wert wie AMD angibt, sondern einen der praxis entsprechenden, dafür aber um einiges niedrigeren Wert verwendet, ist ein anderes Thema. "Kann" man unter Umständen eventuell auch mal berücksichtigen, gell?
 
Zuletzt bearbeitet:
Boah, jetzt übertreibs aber mal nicht. IMC hin oder her, Intel baut derzeit die energieeffizienteren CPUs. Dass sich der Chipsatz oft etwas mehr Strom gönnt, liegt weniger am IMC, sondern daran, dass Intel für die Chipsätze nie die aktuelle Fertigungstechnologie nutzt.

Und zu dem letzten Absatz: Das galt zu P4 Zeiten. Die Realität sieht eher so aus, dass z.B. die tollen 65W TDP Quads von AMD nicht wirklich weniger verbrauchen, als die 45nm Quads von Intel mit 95W TDP.

gruffi schrieb:
Viel interessanter ist, ob Propus mit einer separaten Maske gefertigt wird. Oder ob es einfach Denebs mit deaktiviertem L3 sind.
Na wenn man sich anschaut, wieviel der L3 Cache an Die-Fläche verschlingt (Die-Shot vom Shanghai), wäre es imho ziemlich dämlich da keine eigene Maske zu machen. Aber man wird sehen.
 
aspro schrieb:
Die Realität sieht eher so aus, dass z.B. die tollen 65W TDP Quads von AMD nicht wirklich weniger verbrauchen, als die 45nm Quads von Intel mit 95W TDP.

Na die Realität will ich mal sehen. Am besten in Tests die du mal zeigst.

AMD's TDP ist nach wie vor ein Wert den man mit einem normalen Workload nicht erreichen kann, dass ist einfach nur in einem Labor möglich bzw. wird errrechnet.

Ausser natürlich du willst sagen: Intels CPU's verbrauchen auf einmal unglaublich viel weniger, als die TDP angibt.

tschöö
 
R.Kante schrieb:
... Intels CPU's verbrauchen auf einmal unglaublich viel weniger, als die TDP angibt.
TDP != Verbrauch. Es sollte sich doch nun langsam herumgesprochen haben, dass die TDP-Klassifizeriung nicht den möglichen elektrischen Stromverbrauch angibt sondern die Abwärmeeinstufung für die korrekte Dimensionierung des CPU-Kühlers.

@kittikat: Es ist sicherlich ganz aufregend was aus dem Zusammenhang zu zitieren und dann unqualifiziert darauf herum zu reiten.
Punkt1: Es ist mir durchaus klar, dass der IMC einer Amd-CPU zu einer höheren Leistungsaufnahme der CPU führt.
Punkt2: Es ist weiterhin allgemein bekannt, dass man die TDP-Klassifizierung eines Amd-CPU nicht mit einer INTEL-CPU einfach mal so vergleichen kann!

Da du anscheined von dir selber hälst, du hättest einen gewissen Sachverstand, dann empfehle ich dir mal dich näher mit dem Thema TDP-Klassifizierung zu beschäftigen, da du in deinem Beitrag oberflächlicherweise "Verbrauch" und TDP in einen Topf geworfen hast.

Zu diesen Beispiel-Prozessoren: es sollte selbst klar sein, dass solche Stromspar-Prozessoren nicht mit einem Chipsatz, wie der 945er, verbaut werden. Solche Aussagen von dir sind daher reine Polemik.
Von mir aus kannst du nun gerne weiter deine "Aufklärung" betreiben, da es recht amüsant anzusehen ist, wenn Leute mit fadenscheinigen Halbwissen sich lächerlich machen. ;)
 
Zuletzt bearbeitet:
Naja bei Anandtech sieht doch alles in Ordnung aus.

Unter CPU-Load:
X4 9350e | Q9300

81,8 Watt | 101,3 Watt


Zwar hat der Q9300 mehr Takt, dafür aber auch 45nm.

Gegen den zweiten Test werfe ich mal den hier. Zeigt ganz schön wie viel mehr der Q6600 gegenüber dem 9350e verbraucht.

tschöö
 
lol, war ja klar, dass du dir grad das letzte Diagramm aussuchst, ohne aber zu lesen, was es darstellt. Es geht um die Leistungsaufnahme bei BluRay Wiedergabe. Und da besteht noch der gewaltige Unterschied, dass der 780G den Codec vollständig decodieren kann, der G35 aber nicht. Deshalb hat auch die Intel-CPU viel mehr zu tun und verbraucht dementsprechend mehr. Das ist auch der Grund, wieso in HTPCs imho noch AMD vorzuziehen ist, bei anderen Anwendungen sieht es aber anders aus, wie man an den anderen Diagrammen sieht.

Der Q6600 ist 65nm, ich sprach von den 45nm Quads.
 
Ich habe es ausgewählt, weil es das einzige Diagramm ist das den Verbrauch bei CPU-Last darstellt bzw. bei dem die Grafikkarte (also die 4850) nicht genutzt wird.

Ich habe halt einen einen Test ohne den Q9300 eingeworfen sondern einen Q6600, den ich persönlich vergleichbarer finde, weil er nunmal auch in 65nm gefertig ist und nicht in 45nm.

Aber was solls.

tschöö
 
Ist doch für die Messung des CPU-Verbrauchs irrelevant, ob ne Graka drin steckt oder nicht. Aus dem schon beschriebenen Grund ist das letzte Diagramm nicht als Vergleich der CPUs verwendbar, da der Chipsatz das extrem verfälscht.

Der Q6600 ist vll besser vergleichbar, aber ursprünglich hattest du meine Aussage angezwifelt, dass die 45nm Quads genausoviel verbrauchen wie der 9350e. Dass der Q6600 mehr verbraucht als der 9350e hab ich nie angezweifelt.
 
Zurück
Oben