News Im Test vor 15 Jahren: Als der Gaming-PC noch 200 Watt verbraucht hat

Robert

Redakteur
Teammitglied
Registriert
Feb. 2009
Beiträge
1.658
das waren noch gute bf2 zeiten :D
 
  • Gefällt mir
Reaktionen: Oneplusfan, DriveByFM und MaW85
Das war doch die Zeit, wo K&M eine 5800 Ultra für 300 Euro verkaufen wollte, jede Newsseite darüber berichtet hat und als die Käufer nur eine 5800 bekamen, da wurden die News größtenteils gelöscht (aus rechtlichen Gründen).
 
Der Idle Verbrauch ist erschreckend hoch, wenn man ältere Verbrauchstests sieht.
Wenn der PC nicht nur für Spiele genutzt wird, sondern für alles, sind die Unterhaltskosten für die heutige Zeit indiskutabel.
Leute, die sich keinen neue PC leisten könenn (wie auch bei anderen elektrischen Geräten) sind damit doppelt betraft, weil sie überhöhte Stromrechnungen haben.
 
50-100% mehr? Das dürfte schon alleine meine CPU schaffen! :evillol::king:

greetz
hroessler
 
  • Gefällt mir
Reaktionen: Nightmare09, Keine Geduld! und Rage
Ich fand die Sandy-Bridge-Lösung gut, bei der man die dedizierte Grafikkarte bei Bedarf zum prozessorintegrierten Intel-Grafikchip zuschalten konnte und dadurch etwas Strom sparen konnte. 100%ig hat das jedoch nie funktioniert. Bis zur Ivy Bridge wurde diese Lösung verfolgt, aber verschwand dann in der Versenkung.
 
dmichael schrieb:
aber verschwand dann in der Versenkung.
Wegen Lizenzzahlungen, wurde es unrentabel für die Mainboardhersteller und Endkunden wollten die schon gar nicht bei weiterem Betrieb über die Testphase hinaus, bezahlen. Standards verschwinden sehr schnell, auch wenn sie genial sind, wenn sich dafür aber nicht genug melken lassen wollen. Offene Standards werden hingegen nicht gerne von Konzernen gefördert, weil sie da keine Lizenzgebühren einnehmen. Deshalb findet man bei Mainboard kaum HDMI 2.0+, nur bei den teuren, da die Lizenzgebühren jährlich anfallen. Dafür muss ein Hersteller jedes Jahr 10000$ Lizenzgebühren abführen.
Bei Nvidia G-Sync gegen FreeSync steht aber ein übermächtiger Konzern dahinter. Da werden die 100€ Aufpreis pro Monitor bezahlt. .
 
Zuletzt bearbeitet:
Wenn ich mir anschaue, wie leistungsfähig heut die CPU's und auch die GPU's sind, ist der Verbrauch immer noch akzeptabel, finde ich.
Als Beispiel nehme ich jetzt mal wieder meinen alten Lappi mit Core i5 2410m ran.
Der ist mit seiner integrierten Lage, jedes Spiel auf dem Null DC wunderbar flüssig darzustellen,
besser als es die Dreamcast je konnte.
Für die Dreamcast benötigte ich außerdem noch einen Röhrenfernseher.
Von daher ist der jetzige Energieverbrauch eigentlich sogar noch geringer, wenn ich damit ein Dreamcast- Spiel spiele.
Aber Effizienz ist mir schon wichtig, und speziell bei Vega hat AMD absout geloost.
Ich wollte mir eigentlich eine Vega kaufen, aber nach Release hat mich der Stromverbrauch abgeschreckt.
Also bleib ich noch bei meiner HD 7870 und harre weiterhin der Dinge.
Vielleicht wirds ja doch noch eie GTX 1070 ti, daß ist durchaus denkbar.

Jetzt warte ich eigentlich nur noch auf moderate Preise, dann wird zugeschlagen.
 
  • Gefällt mir
Reaktionen: Three of Nine und Cpt.Willard
Alternativer Titel:

Im Test vor 15 Jahren: Als der Spiele-PC noch keinen eigenen Drehstromanschluß gebraucht hat
 
  • Gefällt mir
Reaktionen: Three of Nine, NMA und Steini1990
Oh man waren das Zeiten mit dem Laubbläser
 

Anhänge

  • 20180616_084428.jpg
    20180616_084428.jpg
    894,3 KB · Aufrufe: 2.543
  • Gefällt mir
Reaktionen: eSportWarrior, ro///M3o, atb2006 und 6 andere
Pega schrieb:
Oh man waren das Zeiten mit dem Laubbläser
Geforce FX ?

Ohja, dazu gab's sogar mal einen PCGH-Rückblick..

 
  • Gefällt mir
Reaktionen: ro///M3o, cM0, Keine Geduld! und eine weitere Person
joshy337 schrieb:
Geforce FX ?

Ohja, dazu gab's sogar mal einen PCGH-Rückblick..

Siehe mein Bild ;X liegt in meiner Glasvitrine
 
Achja das wars noch.
Kabelmanagement war auch noch ein Fremdwort. Alles wild herumliegen lassen und gut ist
 
Dank Undervolting bei allen Komponenten kommt mein PC beim Gaming auch heutzutage nie über 200 Watt (ohne TV/Monitor) bei 1080p@60FPS.

Die größten Stromtreiber sind OC bis ans Limit, immer höhere Auflösungen und immer höhere FPS.
 
Zuletzt bearbeitet von einem Moderator:
Sehe jetzt zum ersten Mal Benchmarks von den damaligen Karten, habe damals nur nach Preis entschieden und halt NV gekauft. Zuerst hatte ich eine MX 440, die ich durch eine FX 5200 ersetzt habe, das waren satte 15% mehr Leistung :D

Es ist schon fies, was die Sachen heute verbrauchen, aber ich denke mal, beim alltäglichen Kram außer Spielen, wird der Verbrauch heute auch nicht viel höher sein.

@R00tMaster

Monitore muss man heute fast gar nicht mehr mitrechnen. Ich hab zwar 2 aber einer verbraucht irgendwas um 25 Watt.
 
Zuletzt bearbeitet von einem Moderator:
Ich habe Sonstiges gewählt, ich Übertakte, achte dabei aber auch auf den Verbrauch.

Was mir auch nicht gefällt ist die Aussage, dass die Mehrleistung durch mehr Energie erkauft wird. Lasst mal aktuelle Hardware mit dem Unreal Test laufen und setzt die Frames auf die damaligen Höchstwerte fest, jede Wette dass das aktuelle System weniger Energie verbraucht.

Ich selber habe Spiele die ziehen bei max. Details @60FPS gerade mal 130 Watt aus der Steckdose und das mit einem I7 8700K (4,8Ghz@6/12) und GTX 1080@2,1 Ghz.

Klar geht das auch anders, aber bei den Spiele wo an die 300Watt aus der Dose genuckelt werden, würden die alten Systeme ne Std. brauchen um zu starten und dann mit 1-2 Frames laufen...
 
  • Gefällt mir
Reaktionen: ro///M3o und CS74ES
Schaby schrieb:
Ich selber habe Spiele die ziehen bei max. Details @60FPS gerade mal 130 Watt aus der Steckdose und das mit einem I7 8700K (4,8Ghz@6/12) und GTX 1080@2,1 Ghz.

Klar geht das auch anders, aber bei den Spiele wo an die 300Watt aus der Dose genuckelt werden....

Und wenn du den OC von der CPU und Graka rausnimmst, dann landest du wieder bei ~200Watt.
 
Schaby schrieb:
Ich habe Sonstiges gewählt, ich Übertakte, achte dabei aber auch auf den Verbrauch.

Mache ich auch so, aber nur bei der CPU, GPU läuft auf default. 3,75 GHz schafft er mit 1,25 V, für 3,8 GHz braucht er schon 1,35 V, das war mir dann zu viel.
 
Guter Test, und zur Umfrage achte ich auf ein gutes Performance/Watt verhältnis, darum ist es auch damals eine 1070 geworden, da hier meiner Meinung nach das perfekte Mittelmaß gefunden wurde.
Ich hoffe das die 1170 oder wie auch immer die dann heissen mag, hier wieder einen guten Mittelweg auf Leistung und verbrauch geht.
Ebenso bei der CPU, diese ist auf 4.4 Ghz übertaktet mit einem Spannungsoffset bei -0,0750V.
 
Zurück
Oben