News Im Test vor 15 Jahren: Athlon XP/64 und Pentium 4 im Stromverbrauch­vergleich

Diese Retro Artikel sind echt prima!
Man merkt aber auch wie man langsam alt wird :heul:
 
  • Gefällt mir
Reaktionen: Hayda Ministral und teufelernie
Jesterfox schrieb:
Das selbe war doch der Fall wenn man erwähnte das ein AMD bei weniger Takt schneller ist. Da bekam man auch zurück das nur echte Intel-MHz zählen und nicht dieser Rating-Beschiss von AMD. IPC war damals noch ein Fremdwort und Hexenwerk.


Danke!

Wenn man hier die Energieeffizienz beleuchtet und dann nur die Bezeichnungen z.b des 3200+ anführt, fehlt hier in Artikel eine wesentliche (!) Information.

Und zwar, dass die Ipc hier scheinbar wesentlich zugunsten Amd lag.
3200+ hieß „in etwa“ einem P4 mit 3,2Ghz entsprechend, der reale Takt war aber wesentlich niedriger.

Hier mal ein Auszug von Wikipedia dazu, wo es zum Glück noch nicht vergessen war:

  • Taktraten: 1,4–2,25 GHz
    • FSB 266:
      • 1600+: 1,4 GHz [März 2003]
      • 1700+: 1,466 GHz [Dezember 2002]
      • 1800+: 1,533 GHz [Dezember 2002]
      • 1900+: 1,6 GHz [Dezember 2002]
      • 2000+: 1,667 GHz [Dezember 2002]
      • 2100+: 1,733 GHz [Dezember 2002]
      • 2200+: 1,8 GHz [August 2002]
      • 2400+: 2,0 GHz [August 2002]
      • 2600+: 2,133 GHz [August 2002]
    • FSB 333:
      • 2600+: 2,083 GHz [November 2002]
      • 2700+: 2,167 GHz [Oktober 2002]
      • 2800+: 2,25 GHz [Oktober 2002]
 
  • Gefällt mir
Reaktionen: NMA und Benji21
Marcel55 schrieb:
Warum?
Die Chips wurden durchgehend verbessert.
Du kannst den Fortschritt dazu nutzen, weniger Energieverbrauch bei gleicher Rechenleistung zu haben, oder mehr Rechenleistung bei gleichem Energieverbrauch zu erzeugen.
Normale Desktop-CPUs bewegen sich deshalb im Bereich 100-120W, aber die Leistungsfähigkeit ist enorm gestiegen.
Gleichzeitig gibt es CPUs z.B. für Notebooks die sehr sparsam sind, kommen mit einem Zehntel des Verbrauchs der alten CPUs aus und haben trotzdem ein vielfaches an Leistung.
Natürlich laufen diese auch effizienter als Desktop-CPUs, dort ist es aufgrund eines festen Stromanschlusses und besserer Kühlmöglichkeiten nicht notwendig möglichst effizient zu sein.

Warum? -> Im Vergleich zu noch früher verbrauchten Desktopcomputer deutlich weniger Energie (386er z.b.) während es sich irgendwann für higher end mainstream bei 150-250 W eingependelt zu haben scheint. Fand ich überraschend, ich dachte da gab es weiterhin eine Bewegung anstelle eines Plateus.
Dass die Rechenleistung gestiegen ist ist mir bewusst ;)
'Normale' Desktop CPUs bewegen sich seit Jahren eher im Bereich 65-90 W, wie kommst du auf 120?

Der höhere Verbrauch auf dem Desktop im Vergleich zum Laptop hat weniger etwas mit der Notwendigkeit zur Effizienz zu tun, sondern mehr mit dem Leistungswunsch der User. Ich will doch keine SchleichCPU mit 3 GHz Basistakt und 4 GHz Turbo für 5 Sekunden die danach wieder drosselt wenn ich auf allen Kernen 4,2 GHz bei Defaultspannung haben kann. Auf dem Desktop will ich Rechenleistung bei relativ guter Effizienz (bezogen aufs Gesamtsystem) und nicht hohe Akkulaufzeit und moderaten Staubsauger aufgrund der Kleinstkühlung.

Was ich mit dem Post aussagen wollte war dass es mich überrascht hat dass der typische Verbrauch eines solchen Desktopsystems schon länger bei um die 200 W rumgurkt, besonders hungrige Grafikkarten mal ausgeblendet.
Aus heutiger Sicht ist ein Prescott nicht wirklich auffällig was die Verlustleistung angeht. Selbst im Vergleich damals erscheint es mir wesentlich weniger dramatisch als es damals erzählt wurde. Hauptproblem waren damals offenbar vor allem die schwachen Kühler.
 
So schlecht war der Northwood nicht - spätestens ab der C-Version mit HT. Immerhin konnte man bei SETI einfach 2 Worker laufen lassen. Der Mehrverbrauch war fast nich gegeben und man hatte 80% mehr Output. SETI hat da sehr gut skaliert. Lag eben am HT in Kombination mit der langen Pipeline. Es war somit in Teilen ein Test von einem Einkerner zu einem Fast-Zweikerner. Mit dem P4 konnte man SETI auch neben dem Zocken laufen lassen, das war idR kein Problem. Ich hatte einen 1700+ dann relativ schnell für einen 2400C@3200 oder mehr abgestoßen.

Die Prescott waren dagegen etwas weniger zu gebrauchen, aber im Grunde eben nur leicht schlechter als der NW-C und damit kein Fortschritt. Der Verbrauch war allgemein etwas höher, weil weniger gut im Leerlauf gespart wurde. Das ist klar. Ein Pentium M mit entsprechendem Board oder Adapter hatte kurz später natürlich eher mehr Power, aber wiederum nur einen Kern. Die HT-Geschichte ab Northwood-C war gar nicht mal so übel. Damals noch nicht ganz so wichtig, aber auch nicht völlig unwichtig. Wenn man das natürlich nicht ausnutzte oder testete, kam auch kein echter Mehrwert bei rum. Außer, dass die Benchmarks wohl weniger stark abgeweicht haben, also weniger Durchläufe für passable Genauigkeit nötig war.
 
  • Gefällt mir
Reaktionen: Hexxxer76
Bigeagle schrieb:
'Normale' Desktop CPUs bewegen sich seit Jahren eher im Bereich 65-90 W, wie kommst du auf 120?
100-120W ist das was meine CPUs mit Linpack oder Prime95 ziehen (laut HWinfo), das war mit dem 2011er 2500K so und ist auch mit dem 2018er 2600 so.
Und das sind nicht mal die stärksten CPUs.
65-95W ist die TDP, aber der Verbrauch unterscheidet sich davon massiv.

Dass der Verbrauch allgemein irgendwann nicht weiter zurückgegangen ist hat wahrscheinlich den Grund, dass der Verbrauch so niedrig ist, dass es sich schlichtweg nicht lohnt, das weiter zu reduzieren.
Mein Rechner braucht unter absoluter Volllast ca. 500W. Was sind 500W? Eigentlich nichts. Und diese absolute Volllast wird im Normalbetrieb eh nie erreicht.
 
Bierliebhaber schrieb:
im 3DMark 221 Watt verbraucht hat


sry m8...dein rechner....

mein athlon xp @2.7ghz hat alleine 175 watt verballert.

die grakas von damals waren halt noch nicht so "gestört" wie heute. wo die reise hin geht, hätte dir aber jeder skill0r mit ein wenig oc background erklären können.

agp dual systeme hat meines wissens nach niemand sonst getestet (ja das ging) und pci-e dual hat ja dann gerockt. am ende ging die reise zu mehreren chips auf einem pcb wie bei voodoo.

die hd5970 hatte dann erstmals die möglichkeiten des verbrauchs neu dimensioniert für graka´s.

und selbst die war out of the box eher "zahm"..... :evillol:

natürlich war hartes oc damals noch etwas für menschen, die anders sein wollen. heute ist es mainstream. trotzdem waren damals schon 600watt zu verballern kein problem.

natürlich war das mit stock hardware nicht möglich, die an hinz und kunz verkauft wurde.

Faust2011 schrieb:
Zu der Zeit gab es von Intel nur Speedstep im mobilen Segment, also bei Laptops. Die Desktop-PCs haben in jeder Lage (zuviel) Strom regelrecht verbraten.

dafür gab es software...bei amd z.b. war der hold befehl wichtig :heilig:

und dinge wie softfsb waren natürlich in jedem guten haushalt vorhanden.

die gute alte zeit...erst mal board nach der ics dursuchen, dann clockgen oder softfsb nutzen. gerne mit automatischen tools....ach ja, damals....

mfg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hexxxer76 und NMA
@Marcel55 also mein i5 3570K zieht mit prime95 small ffts gerade mal 58 W mehr als idle gemessen
Package power 74 W bei 4,2 GHz allcore und 1,266 V
gesamtsystem idle liegt bei 86 W (CPU ohne stromsparmechanismen da eh immer unter last und OC so stabil)
144 W mit Prime95
wenn ich furmark dazu packe auf einer palit gamerock 1070 (prime95 dazu auf niedrige prio, furmark fix auf core0 und normale prio) sind es 258-260 W
im normalbetrieb mit BOINC - WCG und Primegrid - sind es 236 W
was frisst bei deinem rechner so? der ryzen 2600 solle ähnlich viel verbrauchen, oder hast du die spannung so stark anheben müssen? nimmt die vega 64 derart viel?
 
tstorm schrieb:
Wenn Mehrverbrauch in Mehrleistung resultiert ist dieser in Maßen ok. Wenn etwas mehr verbraucht und dabei weniger leistet kann man das ruhig bemängeln, egal bei welchem Hersteller.

Aber da können Fanboys eben nicht differenzieren - was in Pauschal-Aussagen wie deiner resultiert.


Pauschal-Aussagen, ach Gottchen... jeder zieht sich den Schuh an der ihm passt. :lol: Ich kann nichts dafür dass der 9900k ein Säufer ist. In wievielen Maßen ist das denn ok? Mehr als das doppelte der TDP Angabe des Herstellers (mit der man sich den Hintern abwischen kann)? Oder übersetzt: egal was er säuft es ist geil solange vorne die Fünf vor dem Komma steht? :stacheln:
 
  • Gefällt mir
Reaktionen: darkcrawler
Die Auflistung der Kosten bei einem theoretischen Einsatzszenario, würde ich mir auch in aktuellen CPU und GPU Tests wünschen.

Finde es immer wieder lustig, wenn man bei Tests einen Preisunterschied von 20€ kritisieren kann, aber nicht erwähnt, dass der Preisunterschied sich Teils ziemlich schnell relativieren kann, wenn man die Verbrauchskosten hinzu zieht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pedder59
Benji21 schrieb:
Pauschal-Aussagen, ach Gottchen... jeder zieht sich den Schuh an der ihm passt. :lol: Ich kann nichts dafür dass der 9900k ein Säufer ist. In wievielen Maßen ist das denn ok? Mehr als das doppelte der TDP Angabe des Herstellers (mit der man sich den Hintern abwischen kann)? Oder übersetzt: egal was er säuft es ist geil solange vorne die Fünf vor dem Komma steht? :stacheln:

Sofern man nach Leistung entscheidet (was ja nicht jeder machen muss) ist es so lange ok, wie es keine schnellere Alternative (unter den jeweils eigenen Gesichtspunkten) für den jeweils eigenen Anwendungszweck gibt.

Du kannst weder etwas dafür, dass der 9900k viel Energie in Wärme umwandelt, noch kannst du etwas dafür, dass es keine schnellere Alternative für Spiele gibt. Du kannst aber an deiner Neutralität arbeiten und du kannst auch deinen Mangel an technischer Kenntnis aufarbeiten, denn irgendwelche Zahlen vor oder hinter dem Komma sind bedeutungslos, es zählt die Leistung die je nach Anwendungsgebiet dabei heraus kommt und die wird nicht in GHz gemessen.

Daher ist ein 9900k sicherlich kein Preis-/Leistungssieger. Ganz sicher aber die aktuell schnellste Gaming CPU, gleiches gilt für Anwendungen so lange wir bei 8 Kernen und 16 Threads bleiben.

Aber wir sind uns zumindest einig darüber, dass du den dir passenden Schuh erkannt hast. Vielleicht arbeitest du in Zukunft ja mal an deiner Objektivität und legst die Hörigkeit ggü. bestimmten Herstellern ab, denn gedankt wird es dir nicht.
 
[wege]mini schrieb:
dafür gab es software...bei amd z.b. war der hold befehl wichtig :heilig:

und dinge wie softfsb waren natürlich in jedem guten haushalt vorhanden.

Wie lange und von wievielen, wenigen habe ich diese Begriffe und Software, von anderen gehört, oder gar vorgefunden...
Da kommt bei mir nun wahrlich etwas, der Wehmut der älteren Tech-zeit zum Vorschein.
Danke für diesen Synapsenstreichler.
 
Mein Monitor und mein 1700@3,8 GHz ziehen beim zocken genau so viel Strom wie der P4 3,4 GHz im idle :freak:
 
Achja, die P4s. Mein erster Rechner, so ca 2001, so eine fürchterliche OEM Kiste von HP hatte einen 1.8 Ghz Willamette mit Nvidia Geforce 2 verbaut, unglaublich langsame Kiste, ich hab dann bereits kurze Zeit später immer ganz neidisch auf die Athlon XP bzw die Athlon 64er geschielt, eine 6800 wollte ich dann irgendwann auch haben, als die draußen waren, war aber natürlich total außerhalb des Budgets :D 2007 gabs dann den nächsten, dann aber mit Core 2 Duo und 8600 GTS, was dann ein ziemlicher Sprung war.
 
Faust2011 schrieb:
Allein schon im Idle ist das kein Vergleich mehr mit heute. Ein Grund war u.a., dass die Boards damals zu viele Chips drauf hatten, da ja noch der Chipsatz aus North- und Southbridge bestand.
Das liegt aber auch teilweise am Chipsatz. Der AthlonXP kann auf den NForce2 Chipsätzen z.B. keinen vernünftigen CPU Halt, was den Idle Verbrauch im Vergleich zu VIAs KT400 und Co. schon mal locker verdoppelt hat (bei gleicher Peripherie). Das lag glaube ich an der SB. Bis die schlafen gelegt wurde und die CPU dadurch entlich mal Pause machen konnte, war in der Regel schon wieder ein Interrupt da, und alles musste wieder hochfahren... Mit Tools wie RAIN konnte man da manchmal noch etwas rausholen, aber im Rückblick ist der damals so gefeierte NForce2 eigentlich kein so toller Chipsatz gewesen. Ich hatte damals einen XP-M, der hätte auf VIA Chipsätzen sogar C&Q unterstützt, auf dem NForce2 natürlich nicht... Allerdings war der Verbrauch damals auch nicht wirklich relevant für die Kaufentscheidungen.
 
Volkimann schrieb:
Als man zu der Zeit mit der Energieaufnahme und der benötigten Kühlung argumentierte interessierte das die Intel Fans übrigens kein Stück.
Kann ich mich gut dran erinnern. AMD hatte bei gleichem Preis mehr Leistung oder war bei gleicher Leistung günstiger. Und hat das mit weniger Stromverbrauch als Intel geschafft. Um nach diesen Kriterien CPUs auszuwählen, war es zu der Zeit AMD. Wer an solchen Prinzipien festhält, kann gar kein Fan werden, sondern muss den CPU-Hersteller eventuell alle paar Jahre wechseln.
 
Nicht zu vergessen: AMD hat das üblicherweise eine Fertigungsstufe "schlechter" als Intel hinbekommen, dass die CPU weniger Energie bei gleich oder mehr Leistung als der Intel bereitstellte.

Aber ich kann mich auch noch an die Fanboys erinnern, die damals an ihren MegaHertz klebten und das mit was-weiß-ich-was begründeten, nur um sich nicht eingestehen zu müssen, dass ihr Heilsbringer halt mal NICHT das Non-Plus-Ultra war. (Ist wie mit den FCB-Fans. hust)
- Und auch, wie sehr dann doch genau die nicht wahrhaben-wollenden Pro-AMD-Argumente aus der "Hammer"-Zeit zur Bulldozer-Zeit "en vogue" waren, weil der Core(2) genau das lieferte, was die Hammer mal waren (und AMD sich mit Bulldozer auf Prescott-Pfad begab).

Es ist ein wenig beruhigend, wenn die Zeit dem eigenen Empfinden von damals im Nachhinein Recht gibt. Wie sehr hab ich mich damals auf mein erstes A64-X2-Brett gefreut. Ein µATX-Brett (damit es im RZ nicht so viel Platz weg nahm) von Asus, die ersten BIOS-Revisionen noch mit heißer Nadel gestrickt (Dejavu hatte ich dann Mitte 2017 mit den Ryzen-Boards). Man musst erstmal ne Woche auf ein neues BIOS warten, bis das System selbst mit zertifiziertem Speicher auch nur annähernd gemäß SPECs stabil lief. Aber dann? Volle Virtualisierungsfähigkeiten, bezahlbarer DualCore, mit DDR2 quasi "unbegrenzt" RAM (also erstmal nur 4 GB, mehr war nicht bezahlbar...).
Ja, die Zeit hatte was. :)

Regards, Bigfoot29
 
Bigfoot29 schrieb:
- Und auch, wie sehr dann doch genau die nicht wahrhaben-wollenden Pro-AMD-Argumente aus der "Hammer"-Zeit zur Bulldozer-Zeit "en vogue" waren, weil der Core(2) genau das lieferte, was die Hammer mal waren

Hier bist Du vermutlich in der Zeitlinie verrutscht. Denn ich habe nach erfolglosem Warten auf den Bulldozer und der sich abzeichnenden Katastrophe den Core i7 "Sandy Bridge" gekauft. Core(2) war also deutlich früher, der hat den Phenom(II) den ich vorher hatte etwas blaß aussehen lassen sofern einem der völlig überzogene Preis egal war.
 
  • Gefällt mir
Reaktionen: Bigfoot29
Zurück
Oben