News „Haswell“-Prozessoren in China bereits im Handel erhältlich

trotzdem passt bei intel eine CPU die 115W unter volllast verbraucht noch in die 77W TDP klasse rein, egal ob nicht jede CPU die TDP klasse voll ausreizt.
sonst müßte ein hersteller für jede CPU eine eigene TDP klasse einführen.

die TDP bei intel entspricht eben ACP bei AMD.
Ergänzung ()

88W ist da eh viel, immerhin wird da kein AVX genutzt, die FPU arbeitet also auch nur zur hälfte.

bei volllast mit AVX würdest du über die 95W kommen, viele übertakteten intel CPUs sind eigentlich auch nichtmal mehr stabil, da würden bei einsatz von AVX das system instabil werden.
 
Zuletzt bearbeitet:
Elkinator schrieb:
trotzdem passt bei intel eine CPU ...

Ohne jetzt einen AMD vs. Intel-Krieg ausbrechen lassen zu wollen, aber das ist nicht nur bei Intel so. Auch AMDs CPUs kann man mit passenden Lastfällen über deren offizielle TDPs-Einstufung hinaus treiben. Tatsächlich scheint das bei den Bulldozer-CPU sogar ziemlich ausgeprägt zu sein.
 
nein, das passiert bei bulldozer nicht, es geht sich selbst bei 8350 noch knapp aus.

die spannungswandler darf man nicht mit messen, das hat die c't bei ihrem test gemacht, bei dem angeblich vishera über 125W verbraucht hat.
 
Auch wenn ich es leid bin, hier noch was zu posten, aber hast du denn irgendwelche Tests, Artikel oder sonstiges, wo bestätigt wird, dass ein Intel bei Volllast samt AVX über die TDP kommt und/oder ein Vishera beim selben Lastszenario innerhalb der TDP bleibt?
 
Um das nochmal klarzustellen:
AMD und Intel (oder auch Nvidia bei GPUs) legen die TDP nach unterschiedlichen Kriterien fest, die alle nicht wirklich einer theoretische Volllast aller Funktionseinheiten gleichzeitig entsprechen (weil das einfach nicht sinnvoll wäre).
Selbst wenn sie zufällig exakt die selben Lastszenarios anwenden würden, würden sich nicht vergleichbare Werte ergeben, da die CPU-Architekturen unterschiedlich sind.

Als vereinfachtes Beispiel:
Man nimmt eine Vishera- und eine Ivy Bridge-CPU, die unterm Strich etwa vergleichbare Leistung haben, und läst einen Lastest darauf los, der fast komplett aus Floatingpoint-Operationen besteht. Da bei der Bulldozer-Architektur das Verhältnis FP- zu Integer- Ausführungseinheiten niedriger ist, als bei Intels Core-CPUs, würde der Vishera in diesem Test vergleichsweise weniger verbrauchen (aber auch weniger Rechenleistung bringen). Bei einem Integer-lastigen Test tendenziell genau anders herum usw.

Man kann TDP-Einstufungen zwischen verschiedenen Herstellen und Architekturen also prinzipiell nicht wirklich miteinander vergleichen.

Aber zu sagen, dass Intel die TDP-Einstufung generell niedriger ansetzt als AMD, also dass eine AMD-CPU mit TDP X in der Praxis immer weniger verbraucht, als eine Intel-CPU mit der selben TDP-Einstufung, ist Unsinn.
Dem widersprechen auch alle Tests, die ich kenne.
Und man kann diese Ergebnisse doch auch nicht einfach auf "Spannungswandler" schieben. Die gibt es genauso auch auf Boards für Intel-CPUs.
 
wie soll vishera bei AVX über die TDP kommen?
da wird von 2tem integer die FPU ausgeborgt, die ist also auch ohne AVX ausgelastet, bei intel arbeitet ohne AVX die halbe FPU aber eben nicht.
Ergänzung ()

Herdware schrieb:
Aber zu sagen, dass Intel die TDP-Einstufung generell niedriger ansetzt als AMD, also dass eine AMD-CPU mit TDP X in der Praxis immer weniger verbraucht, als eine Intel-CPU mit der selben TDP-Einstufung, ist Unsinn.
Dem widersprechen auch alle Tests, die ich kenne.
Und man kann diese Ergebnisse doch auch nicht einfach auf "Spannungswandler" schieben. Die gibt es genauso auch auf Boards für Intel-CPUs.
hat hier ja auch niemand gemacht...
 
Elkinator schrieb:
hat hier ja auch niemand gemacht...

hmm...

Elkinator schrieb:
...
bei intel ist die TDP nur ca. 2/3 last.

Elkinator schrieb:
... die TDP bei intel entspricht eben ACP bei AMD. ...

Das hat schon etwas den Eindruck erweckt, als würde nur Intel, im Gegensatz zu AMD, die TDP-Einstufung grundsätzlich niedriger als die theoretische Maximalauslastung aller Funktionseinheiten gleichzeitig festlegen. Und wenn eine Messung bei AMD was anderes sagt, liegts an den Spannugnswandlern.

Elkinator schrieb:
nein, das passiert bei bulldozer nicht, es geht sich selbst bei 8350 noch knapp aus.

die spannungswandler darf man nicht mit messen, das hat die c't bei ihrem test gemacht, bei dem angeblich vishera über 125W verbraucht hat.

Ich bin überzeugt, dass man CPUs/APUs/SoCs beider Hersteller mit entsprechend optimierten synthetischen Lasttests über die TDP-Einstufung hinaus treiben könnte. (So ähnlich wie man es mit Furmark und Co. mit GPUs tun kann.) Tatsächlich scheinen mir anhand einiger Reviews/Messungen/Erfahrungsberichten diverse Zambezi und Vishera mit üblichen Volllastsimulationen sogar leichter dazu zu bringen zu sein.
 
Zuletzt bearbeitet:
Herdware schrieb:
Um das nochmal klarzustellen:
AMD und Intel (oder auch Nvidia bei GPUs) legen die TDP nach unterschiedlichen Kriterien fest, die alle nicht wirklich einer theoretische Volllast aller Funktionseinheiten gleichzeitig entsprechen (weil das einfach nicht sinnvoll wäre).

Falsch es ist altbekannt und eigentlich noch von früher her so, dass AMD bei TDP das angibt was die CPU unter AMD's Lastszenarios im allerschlimmsten Fall abgeben kann. (um die Kühlung richtig zu dimensionieren)

Intel gibt seit einigen Jahren unter TDP einen Verbrauchsmix an, welchen die CPU typischerweise unter Intels Lastszenarios üblicherweise benötigt. Deshalb hat AMD die ACP erfunden, welche mit Intels TDP vergleichbar ist. Maximal kann das schon noch 10-20% mehr sein.
Bei den Opterons gibt AMD damit die ACP an (um mit Intel vergleichbar zu sein) und die TDP.
http://de.wikipedia.org/wiki/Average_CPU_Power
http://www.heise.de/newsticker/meld...mittlere-Leistungsaufnahme-nennen-173502.html

Vielfach verbrauchen die alten AMD Bretter (AM2, AM3+) extra viel (noch 65NM Chipsätze 50-80W) welches sich dann deutlich negativ im Vergleich zu den Intels zeigt und das Ergebnis des Systemverbrauchs deutlich negativ verfälscht. Aber die Testseiten müssen ja auch immer die am fettesten ausgestatteten 990 FX Bretter zu den Vergleichen heranziehen
 
Zuletzt bearbeitet:
man darf die spannungswandler trotzdem nicht zum CPU verbrauch zählen, und ohne den wandlern kommt ein zambezi oder vishera eben nicht über die TDP.

bei intel darf man die wandler auch nicht mitzählen, die haben mit dem CPU verbrauch genau nichts zu tun...
 
Zuletzt bearbeitet:
Es würde mich extrem wundern, wenn AMDs TDP-Einstufungen generell wesentlich näher an einem theoretischen Maximalverbrauch lägen, als die von Intel. Das wiederspräche wie gesagt auch allen praktischen Erfahrungen.

Sollte der überall gemessene Mehrverbrauch der AMD-Systeme wirklich nur auf Kosten des Mainboards gehen (was z.B. unter Last mal eben 50-75W mehr gegenüber einem X79-Board bedeuten würde, je nachdem wie stark Intels TDP daneben liegt, von Z77-Systemen mal ganz zu schweigen, die würden dann teilweise sogar noch Strom erzeugen :lol:), hätte AMD AM3+ schon vor Jahren in die Tonne kloppen sollen. Das konterkariert ja alle Bemühungen die CPUs sparsamer zu bekommen um ein Vielfaches. :rolleyes:
 
Natürlich wird ein Vishera FX welcher mit 125 W TDP eingestuft wird an der CPU etwas mehr verbrauchen als ein 77W eingestufter Ivy.
Was angesichts des Fertigungsvorsprungs nur logisch ist.
Also alles geht sicher nicht nur auf Kosten der Boards.
Aber 48W unter Primelast nur an der CPU wird es garantiert nicht sein.
 
modena.ch schrieb:
Was angesichts des Fertigungsvorsprungs nur logisch ist.
Trotz Fertigungsvorsprung ist ein Vishera nicht sparsamer als ein Thuban. :lol:

Was ist die Ausrede für die angeblich erheblich schnelchteren Mainboards? Vielleicht sollte AMD die Bretter besser außerhalb bei Profis entwickeln lassen. :lol:
 
Laut CB-Test verbraucht sogar ein 3960X-System (130W TDP) unter Volllast etwas weniger, als eines mit FX8350.
Wenn Elkinators Aussage stimmt, dass Intels TDP-Einstufungen (im Gegensatz zu AMDs) nur 2/3 des tatsächlichen Volllastverbrauchs sind, dann würde beim Intel-System für alle anderen Komponenten neben der CPU (die allein 195W zieht) insgesamt nur 33W übrig bleiben.
Beim FX8350-System mit 125W für die CPU würden die selben Komponenten, nur mit AM3+-Mainboard statt X79, mal eben 108W schlucken!

Das passt doch nicht.

Die AMD-CPUs kommen offensichtlich mindestens genauso nah an ihre TDP-Einstufung heran, wie die von Intel, bzw. "untertreibt" Intel bei der Einstufung auch nicht mehr als AMD.
 
Zuletzt bearbeitet:
2/3 bei Intel halte ich für übertrieben, laut AMD 10-20% mehr sei möglich.

Wenn wir jetzt mit 15% für den Intel rechnen wären das 150W für die CPU und 78W für den Rest.
Halte ich für möglich und realistisch.

Beim AMD 125W für die CPU (eher etwas weniger mit Prime) und 108W für den Rest.
Was ich auch für realistisch halte wenn wir voll ausgestattete 65NM Chipsätze mit 32NM Chipsätzen vergleicht.
Da sind 2 volle Shrinks dazwischen!

Alleine nur der Chipsatz braucht bei AMD einiges mehr (AMD 990FX 19,6 W TDP, Intel X79 7,8W TDP)
Ergänzung ()

Unyu schrieb:
Trotz Fertigungsvorsprung ist ein Vishera nicht sparsamer als ein Thuban. :lol:

Hallo? 1200 Mio Transistoren auf 315mm2 beim Vishera und 904 Mio auf 346mm2 beim Thuban mit viel mehr Cache beim FX.
Da wunderst du dich dass der Vishera mehr braucht?

Der Thuban ist ja auch mit 125W TDP angegeben
Da sieht man mal wieviel anspruchsvoller die Stromversorgung beim BD ist. Mehr Belastung der Wandler=mehr Verlust und die 990FX Bretter haben viele Phasen.
 
Zuletzt bearbeitet:
Damit wiederlege ich lediglich dein Geheule um die bessere Fertigung. Schließlich konnte AMD den eigenen Vorgänger nicht wirklich schlagen, trotz besserer Fertigung.
 
Wenn man den Thuban geshrinkt hätte wäre er sicher sparsamer oder man könnte mit mehr Takt fahren (falls noch möglich) und bräuchte deutlich weniger Fläche.
Aber BD ist ne sehr viel aufwenigere neue Architektur mit mehr Kernen und viel mehr Cache. Somit ist der Mehrverbrauch noch im Rahmen.
Noch in 45NM wäre der BD gar nie sinnvoll machbar gewesen und ein gewaltiger Riesen-Chip.
 
Cache und Kerne sind kein Selbstzweck. Wenn die nichts bringen kann nicht behauptet werden die Konkurrenz ist wegen der Fertigung so weit vorne.
 
Die Konkurrenz ist eindeutig wegen der Fertigung so weit vorn, an der zum fünfzigsten mal leicht aufgebohrten Pentium Pro Architektur kann es kaum liegen. Wobei sich hier auch langsam Grenzen aufzeigen (siehe Sandy, Ivy, Haswell und die geringen Zugewinne)

Und vor allem braucht BD noch deutlich Feinschliff (Cache Latenz, Sprungvorhersage, Decoder, Takt, Fertigung) wenns den mal soweit ist und da ist noch seeeehr viel Optimierung möglich und die Software etwas mehr auf BD abgestimmt ist und vielleicht auch etwas mehr Arbeit verteilt, stampft BD Version X die Version 5X des Pentium Pro locker brachial in den Boden. Wäre lächerlich wenn nicht! Das ist wie wenn man nen Jeep im Gelände mit nem Leo vergleicht.
Und der Panzer braucht eben auch etwas mehr Hubraum, in unserem Fall Cache, also nur Selbstzweck ist das sicher nicht.
 
natürlich ist intel wegen der fertigung so weit vorne, der cahce bei bulldozer ist aufgrund der schlechten fertigung sehr langsam, alleine damit würde man schon 10% leistung raus bekommen.
 
Zurück
Oben