Sparsamste CPU? TDP-Wert nur für eine Serie? Spezieller CPU-Tipp?

Tobias Claren

Banned
Registriert
Feb. 2003
Beiträge
620
Hallo.

Ich vergleiche gerade die 1155-Prozessoren.
Diese scheinen mir die besten CPUs für einen geringen Stromverbrauch zu sein (oder? AMD?).
Außer diesem einen Xeon mit 20W TDP, der aber ca. 185 Euro kostet.
Die sparsamen 1155-CPus haben "TDP 35W".
Jetzt las ich aber, dass der Wert nur pro Serie gilt.
Und einzelne Prozessoren noch mal gut darunter liegen können.

Gibt es da "den" Tipp? Aber nicht wegen etwas weniger Watt als eine CPU mit etwas mehr Verbauch, aber deutlich mehr Leistung.
Da gibt es ja auch einen Wert für. Das Gleiche aber auch bei den Kosten. Für wenige Watt weniger Verbrauch sollte die CPU aber nicht deutlich mehr kosten.


Ich weiß auch nicht, wie die einzelnen CPU Leistungsmäßig zueinander stehen.
Unter dem Begriff "Sandy Bridge" und "Ivy Bridge" gibt es I3, I5, aber auch Celeron/Pentium anderen Bezeichnungen die mit "G" beginnen.


Danke...
 
Wird die CPU viel im idle sein? Weil dann ist es ziemlich egal, da die CPUs hier fast alle identisch sind in einer Serie.
Würde zu einem Ivy raten da diese in der Regel mehr Leistung pro Watt bieten.

Wieviel Leistung brauchst du?
 
eieiieei super Grammatik ich versteh nur Bahnhof :D
Schau dir einfach mal den letzten großen CPU Test von Computerbase an.
Da gibt es immer ein Kapitel Performance Rating und auch ein Rating für den Verbrauch.
Damit sollte dass meiste gesagt sein .
 
Die TDP sagt nichts über den Stromverbrauch aus.
Hier siehst du einige Systeme im Vergleich (Allerdings mit einer GTX 680)
Haswell soll etwas sparsamer/effizienter werden.
 
http://geizhals.de/intel-xeon-e3-1220lv2-cm8063701099001-a781395.html
aktuell niedrigste TDP in einer aktuellen gesockelten CPU.

Wie gesagt im Hauptzustand "Idle" geben sich die CPU's so oder so nicht viel.

Empfehlenswert für Low-End Anwendungen sind z.B. die GxxxT Serie. Haben eine integrierte Grafikeinheit und brauchen auch unter Last nicht so viel Strom (35W TDP) und sind im Vergleich zum Xeon um Ecken günstiger.
 
Wie bereits erwähnt, sagt die TDP nicht zwingend etwas über die Leistungsaufnahme aus. Die TDP ist die "maximale thermale Abgabeleistung", die von dem Chip erwartet wird, jedoch nicht unbedingt so sein muss.

Im Idle ist die Aufnahme deutlich geringer. Moderne AMD und Intel Systeme kommen da auf <20W inkl. Mainboard und Netzteil Effizienz (abhängig von Mainboard und Netzteil ;) ). Unter Last steigt der Bedarf natürlich stark an. Jetzt ist die Frage, was "Last" ist. Das kann man so nicht beurteilen, das müsste man messen. Die AMD Systeme benötigen auf alle Fälle deutlich mehr Energie.

Bei aktuellen AMD und Intel Prozessoren beruhen quasi fast alle Prozessoren auf der selben Architektur und sind deswegen im Vergleich (Leistung/Takt) identisch. Ein Intel Celeron ist also nicht sparsamer als ein Core i3, i5, i7 oder Xeon. Die Unterschiede liegen primär in der Anzahl Kerne, Taktrate und einige weiteren künstliche Einschränkungen für die man vom Kunden Geld verlangt, damit die CPU es "unterstützt".

Die Intel Systeme mit niedrigen TDP Angaben sind nicht sparsamer als ihre "größeren" Kollegen, sondern sie sind gedrosselt. Das ist primär dann relevant, wenn man seinen maximale Leistungsabgabe z.B. wegen Kühlungszwecken limitieren möchte. Ist das nicht notwendig, würde ich auch kein Geld in diese CPUs investieren, da man keine Energie spart. Eine dieser "sparsamen" Intel CPUs mag zwar nicht über x W im Betrieb kommen, dafür rechnen sie langsamer als ihre reguläre und schnellere Konkurrenz. Das hat zur Folge, dass der schnellere Chip wieder in den Idle Modus schalten kann, während der "Stromsparchip" noch immer rechnet. Am Ende verbrauchen sie ähnlich viel Energie, da die Leistung pro Takt aufgrund der identischen Architektur gleich geblieben ist.

Führt man Langzeittests durch, kann es sogar sein, dass ein schneller Prozessor, der frühzeitig zurück in Idle schalten kann, weniger Energie benötigt als der "Stromsparprozessor".

Man kann den Energiebedarf einer CPU unter Last leicht reduzieren, indem man ihre Spannung reduziert. Das kann man prinzipiell mit jeder "Standard CPU" machen, wenn es das Board unterstützt. Es ist übrigens möglich und wahrscheinlich dass die "Stromsparprozessoren" speziell dafür ausgewählt werden. Trotz allem könnte man das mit seinem Celeron selber machen und sich damit einen ganzen haufen Geld sparen, selbst wenn man den 0815 Chip womöglich nicht ganz so optimal Undervolten kann.
 
Zuletzt bearbeitet:
Einen i3 oder Ivy Bridge Pentium nehmen und manuell undervolten, damit dürftest du am Günstigsten wegkommen.
 
@ robafella

Es geht um einen PC der auch durchlaufen kann. OK, das können sie alle, aber wenn der einen Idle von 130W-150W hat (Enermax Liberty 400, Asus PK5, 3GB RAM, Samsung 1TB Festplatte, Radeon HD5770, DualCore E6400 2x 2,13Ghz...), sind das Hunderte Euro.
Ca. 300 Euro Strom im jahr.

Als NAS (z.B. für die Vu+ Duo, da wird aktuell ein eTrayZ eingesetzt), als Mediaplayer (der auch FullHD-3D kann), evtl. mal als Ersatz für die Vu+ Duo (falls das mit Software schon möglich ist...), evtl. mal ein 3D-Spiel (dann auch in Shutter-3D), und evtl. wird er auch mal für das Internet genutzt.
Evtl. auch mal als Webserver.

Also eher Idle oder eher Last?


@Undead666 & @Hiuggs Boson

Was gibt es denn da nicht zu verstehen :-/ ?
Ich habe es noch mal gelesen, und sehe da kein Problem.
Dann bin ich wohl gar nicht gemeint ;-) .



@Visceroid

Ja, das ist der Xeon mit 20W TDP den ich nannte.
Es ist noch die HD5770 vorhanden. Hat angeblich 18W (laut Internet).
Und eine passive 7750 soll nur 5W brauchen.

Was kann denn die Grafik der GxxxT-Serie?
Die Unreal-Egine2 in 1080P und 3D (shutter)?
Die HD5770 kann das.
 
Wie meinst du mit "Also eher Idle oder eher Last?"? Wie bereits erwähnt, nehmen sich die Prozessoren im Idle quasi gar nichts. Alle verbrauchen ~20W inkl. Mainboard und ohne sonstige Hardware (HDDs, GPUs, ...). Erst unter Last passiert etwas. Die leistungsfähigeren Systeme sind dafür eher mit der Berechnung fertig als die langsamen.
 
Hier mal ein schönes Bild, als vergleich was nun Intels IGP kann.
gpus.jpg

Eine HD 5770 ist sehr viel schneller wie eine mickrige IGP eines Ivy-Pentiums.
Für 3d Gaming ist diese nicht gemacht!
Sie ist nur für Mutlimedia, heißt: Surfen, Flash Spiele und ältere Titel.
 
Eben, deswegen habe ich die IGP hier auch nicht in die Kaufentscheidung einbezogen :-) .
Außer es lohnt sich eine AMD-CPU, wenn es lohnt deren IGP mit einer HD5770 oder HD7750-GPU zusammen zu schalten.
Aber dafür sollte die Leistung wohl nicht so stark variieren.


andy_0 schrieb:
Wie meinst du mit "Also eher Idle oder eher Last?"? Wie bereits erwähnt, nehmen sich die Prozessoren im Idle quasi gar nichts. Alle verbrauchen ~20W inkl. Mainboard und ohne sonstige Hardware (HDDs, GPUs, ...). Erst unter Last passiert etwas. Die leistungsfähigeren Systeme sind dafür eher mit der Berechnung fertig als die langsamen.
Ich bezog mich damit auf die zuvor an mich gerichtete Frage ob Idle oder Last.

Man müsste hier die "Arbeit" im physikalischen Sinn bewerten.
Zeit x Weg.
Aber, eine DVD, BluRay oder Bluray3D hat eine bestimmte Spieldauer. Es käme also auf den Energieverbrauch zweier CPU bei dieser gleich lang dauernden Leistung an.
Da kann eine CPU nicht schneller rechnen (mir ist bewusst dass ein Teil die GPU macht, aber im aktuellen Rechner bremst die CPU).
 
Zuletzt bearbeitet:
Da hast du in gewissen Sinn recht. Aber wer sagt, dass CPU x mehr Energie bei DVD Wiedergabe benötigt als CPU y? Die Architektur ist die selbe. Du müsstet höchstens CPU x ein bisschen Undervolten, dann gleicht sich der Vorteil von CPU y aus. Eine CPU taktet außerdem nicht auf maximalen Takt, wenn dieser nicht benötigt wird.
 
Eben, wenn die Architektur die Gleiche ist.
Aber es gibt ja nicht nur eine Architektur.
Es gibt AMD und Intel (OK, und ARM), und dann gibt es innerhalb dieser noch verschiedene Architekturen.
 
Es bleibt aber weiterhin vergleichbar.

AMD verbraucht mehr Strom als Intel, Intel hat die leistungsfähigeren Prozessoren, AMD die deutlich besseren integrierten Grafikeinheiten. Geht es um eine Mischung aus Preis und CPU/GPU Leistung, dann ist AMD eine gute Wahl. Geht es um möglichst geringe Stromaufnahme, ist es Intel. Geht es um Strom pro Leistung ist es Intel. Ist es P/L ist es häufig AMD. Ein AMD FX 8000 für 200 Euro erreicht bei entsprechenden Anwendungen die Leistung eines Intel Core i7 für 300 Euro.

Das selbe Bild bei den Minisystemem ala AMD C- und E-System oder Intel Atom. Atom verbraucht etwas weniger Strom, AMD hat die deutlich bessere Grafikeinheit.

ARM lasse ich im Vergleich außen vor. Man benötigt nicht nur spezielles Betriebssysteme damit es darauf läuft, Multicore ARM Systeme kosten auch deutlich über 200 Euro, da kann man sich gleich ein Intel Atom/AMD E System oder gar "richtige" Prozessoren kaufen und hat dann ein vergleichbares System mit vergleichbarer Stromaufnahme (im Idle) für weniger Geld. Unter Last ist der Strombedarf zwar höher, dafür sind die Prozessoren schneller mit der Aufgabe fertig.
 
Sehr häufig Intel. In einigen Fällen, wie den erwähnten FX 8000 bei passenden Anwendungen, ist es AMD.

[Nachtrag]
Ich möchte noch einmal zu Intel Haswell zur Sprache kommen. Die Tage gab es ein paar Informationen. Mit Haswell will Intel den Idle Verbrauch sehr stark senken. Wie es am Ende aussieht, kann man gegenwärtig noch nicht sagen. Es gibt aber auch Gerüchte, dass sich Haswell wegen Problemen (USB Controller Bug, Problem mit den neuartigen integrierten Spannungsreglern) verspäten könnte. Intel dementiert die Verspätung.
 
Zuletzt bearbeitet:
Das wäre aber ein neuer Sockel "1150" (irreführenderweise niedriger in der Nummer).
 
Zurück
Oben