News Erstes „Haswell“-Aufgebot für Server enthüllt

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.909
Sollten die nicht sparsamer werden oder warum wurde der TDP auf von 69 auf 80W angehoben?
Wurde außerdem der Turbo reduziert? Hab noch in Erinnerung, dass der eigene Server mit Xeon 1230v2 bis 4ghz taktet?
 
Der E3-1285L klingt echt gut. 65 W TDP sind ne ordentliche Ansage für die 3,1 GHz / 3,9 GHz ^^
 
Wie darf ich das als Laie verstehn?
Mehr TDP = schlechtere Effizienz!?
 
Zuletzt bearbeitet:
Mehr TDP weil der Spannungsregler auf der CPU ist. Theoretisch wird das System dadurch effizienter.
 
Laie (soviel zeit muss sein) ;) ...und nein, nicht zwingend.
 
Wie siehts mit TSX aus? Nach folgender Tabelle sollen nicht alle HSW TSX unterstützen und vor allem die K-Modelle mal wieder außen vor bleiben, was mir absolut nicht einleuten will. Wenn Intel nun auch noch Xeons um TSX beschneidet, wäre dies ein neuer Gipfel des unlogischen Segmentierungswahns.
 
eremit007 schrieb:
Mehr TDP weil der Spannungsregler auf der CPU ist. Theoretisch wird das System dadurch effizienter.
Du solltest vielleicht dein Posting nochmal umstellen. Ich habe zuerst die Aussage rausgelesen, dass eine höhere TDP für eine höhere Effizienz steht. Das wäre natürlich Quatsch.

Wie Gecko schon schrieb handelt es sich dabei um eine grobe Einschätzung, wie viel Abwärme die CPU erzeugt oder besser, wieviel Watt die CPU verbraucht.

@Eremit
Ist das kosmische Strahlung in deinem Avatar? ;)
 
Zombiez schrieb:
Sollten die nicht sparsamer werden oder warum wurde der TDP auf von 69 auf 80W angehoben?
Wurde außerdem der Turbo reduziert? Hab noch in Erinnerung, dass der eigene Server mit Xeon 1230v2 bis 4ghz taktet?

Deine Erinnerung trügt dich (ausser du übertaktest).
 
@Singularity02
Die TDP-Einstufung ist nur ein grober Richtwert dafür, wie man die Stromversorgung und die Kühlung des Komplettsystems auslegen sollte. Darüber, wie viel die CPU wirklich verbraucht, sagt die TDP nur indirekt und ungenau etwas aus.

So gibt es nur einige grobe Abstufungen. Kann die CPU unter irgendwelchen Umständen 1 Watt mehr verbrauchen, rutscht sind gleich in die nächste, vielleicht 20W höhere TDP-Stufe.
Außerdem kann es sein, dass da für spezielle Features zusätzliche "Kopfreiheit" eingeplant wird. AMD z.B, setzt die TDP seiner APUs mit offenem Multiplikator etwas höher an, damit Übertakten sinnvoll möglich ist.
Hinzu kommt, dass besonders Server-CPUs heutzutage oft konfigurierbare TDPs haben. Das heißt, dass man den maximalen Verbrauch der CPU selbst gewissen Grenzen festlegen kann.
usw.

Man wird deshalb die ersten Tests der Haswell-CPUs abwarten müssen, um einen Eindruck von deren tatsächlichen Verbrauch zu bekommen.
 
Höhere TDP = mehr Verlustleistung = schlechtere Effizienz.
Man wünscht sich ja, dass der benötigte Strom 100% in Leistung umgewandelt wird und demnach hätte man eine TDP von 0.
Je höher die TDP desto weniger Strom wird tatsächlich in Leistung umgewandelt. Der Rest verbufft in Wärme.
So versteh ich das halt:D
Nur umnochmal laut gedacht zu haben:freak:

@Herdware:
Aha so klingt das für mich schon nachvollziehbarer.
 
Zuletzt bearbeitet:
Smagjus schrieb:
Du solltest vielleicht dein Posting nochmal umstellen. Ich habe zuerst die Aussage rausgelesen, dass eine höhere TDP für eine höhere Effizienz steht. Das wäre natürlich Quatsch.
Natürlich. Damit wollte ich nur darlegen, dass die TDP höher sein kann - trotz besserer Effizienz.
Die Spannungsregler erzeugen auch wärme, nur waren die vorher auf dem Mainboard.

@Eremit
Ist das kosmische Strahlung in deinem Avatar? ;)
Fast. Sonnenwind. ;)
 
Naja die Server CPU's interessieren mich eh nicht^^.
Interessant sind für mich nur die einfachen Desktop Modelle und da auch nur, wenn Intel das USB3.0 Problem in den Griff bekommt.
 
Theoretisch bedeutet mehr TDP mehr Verbrauch, weil mehr Verbrauch mehr Abwärme produziert = höhere TDP. Allerdings sollte man einfach die finalen Tests abwarten und dann den Stromverbrauch anschauen.
 
@Herdware

Ja, aber wenn es bei den Tests nur wieder Idle- und Max-Werte gibt, sind die Tests nicht wirklich interessant, da etwa der Sinn der Spannungswandler auf dem Chip darin liegt, die Spannung schneller ändern zu können. Wie auch bei anderen Prozessoren zeigen sich solche Dinge nur bei bestimmten Lastprofilen.
 
Ich dachte die TDP geht nur hoch wegen der iGPU und die Xeon Modelle ohne iGPU sollen 80W TDP haben und normalerweise müssten es 69W sein.

Das der 1220v3 kein HT besitzt ist schon etwas irreführend, aber war ja bei Ivy Bridge nicht anders.

Singularity02 schrieb:
Naja die Server CPU's interessieren mich eh nicht^^.
Interessant sind für mich nur die einfachen Desktop Modelle und da auch nur, wenn Intel das USB3.0 Problem in den Griff bekommt.

Sollte die so wie die Ivy Bridge Xeons kosten kann man die CPU Leistung eines Core i7s für 200€ erhalten, aber eben ohne iGPU und Übertaktungsmöglichkeit.
 
aivazi schrieb:
TDP hat rein gar ncihts mit dem Verbrauch zu tun ;)

Deshalb hat der Bulldozer auch ne 125W TDP weil der ja so wenig verbraucht :hammer_alt:
 
Zurück
Oben