Bericht Im Test vor 15 Jahren: Als der Gaming-PC noch 200 Watt verbraucht hat

Robert

Redakteur
Teammitglied
Dabei seit
Feb. 2009
Beiträge
1.249
#1

slashchat

Lt. Commander
Dabei seit
Apr. 2010
Beiträge
1.067
#2
das waren noch gute bf2 zeiten :D
 

Willi-Fi

Lt. Commander
Dabei seit
Mai 2011
Beiträge
1.992
#3
Das war doch die Zeit, wo K&M eine 5800 Ultra für 300 Euro verkaufen wollte, jede Newsseite darüber berichtet hat und als die Käufer nur eine 5800 bekamen, da wurden die News größtenteils gelöscht (aus rechtlichen Gründen).
 

deo

Rear Admiral
Dabei seit
Okt. 2005
Beiträge
6.139
#4
Der Idle Verbrauch ist erschreckend hoch, wenn man ältere Verbrauchstests sieht.
Wenn der PC nicht nur für Spiele genutzt wird, sondern für alles, sind die Unterhaltskosten für die heutige Zeit indiskutabel.
Leute, die sich keinen neue PC leisten könenn (wie auch bei anderen elektrischen Geräten) sind damit doppelt betraft, weil sie überhöhte Stromrechnungen haben.
 
Dabei seit
Feb. 2010
Beiträge
6
#6
Ich fand die Sandy-Bridge-Lösung gut, bei der man die dedizierte Grafikkarte bei Bedarf zum prozessorintegrierten Intel-Grafikchip zuschalten konnte und dadurch etwas Strom sparen konnte. 100%ig hat das jedoch nie funktioniert. Bis zur Ivy Bridge wurde diese Lösung verfolgt, aber verschwand dann in der Versenkung.
 

deo

Rear Admiral
Dabei seit
Okt. 2005
Beiträge
6.139
#7
Wegen Lizenzzahlungen, wurde es unrentabel für die Mainboardhersteller und Endkunden wollten die schon gar nicht bei weiterem Betrieb über die Testphase hinaus, bezahlen. Standards verschwinden sehr schnell, auch wenn sie genial sind, wenn sich dafür aber nicht genug melken lassen wollen. Offene Standards werden hingegen nicht gerne von Konzernen gefördert, weil sie da keine Lizenzgebühren einnehmen. Deshalb findet man bei Mainboard kaum HDMI 2.0+, nur bei den teuren, da die Lizenzgebühren jährlich anfallen. Dafür muss ein Hersteller jedes Jahr 10000$ Lizenzgebühren abführen.
Bei Nvidia G-Sync gegen FreeSync steht aber ein übermächtiger Konzern dahinter. Da werden die 100€ Aufpreis pro Monitor bezahlt. .
 
Zuletzt bearbeitet:

halbtuer2

Lt. Junior Grade
Dabei seit
Aug. 2016
Beiträge
368
#8
Wenn ich mir anschaue, wie leistungsfähig heut die CPU's und auch die GPU's sind, ist der Verbrauch immer noch akzeptabel, finde ich.
Als Beispiel nehme ich jetzt mal wieder meinen alten Lappi mit Core i5 2410m ran.
Der ist mit seiner integrierten Lage, jedes Spiel auf dem Null DC wunderbar flüssig darzustellen,
besser als es die Dreamcast je konnte.
Für die Dreamcast benötigte ich außerdem noch einen Röhrenfernseher.
Von daher ist der jetzige Energieverbrauch eigentlich sogar noch geringer, wenn ich damit ein Dreamcast- Spiel spiele.
Aber Effizienz ist mir schon wichtig, und speziell bei Vega hat AMD absout geloost.
Ich wollte mir eigentlich eine Vega kaufen, aber nach Release hat mich der Stromverbrauch abgeschreckt.
Also bleib ich noch bei meiner HD 7870 und harre weiterhin der Dinge.
Vielleicht wirds ja doch noch eie GTX 1070 ti, daß ist durchaus denkbar.

Jetzt warte ich eigentlich nur noch auf moderate Preise, dann wird zugeschlagen.
 

joshy337

Lt. Junior Grade
Dabei seit
Feb. 2009
Beiträge
322
#9
Alternativer Titel:

Im Test vor 15 Jahren: Als der Spiele-PC noch keinen eigenen Drehstromanschluß gebraucht hat
 

maxik

Lt. Commander
Dabei seit
Nov. 2007
Beiträge
1.823
#13
Achja das wars noch.
Kabelmanagement war auch noch ein Fremdwort. Alles wild herumliegen lassen und gut ist
 
R

R00tMaster

Gast
#15
Dank Undervolting bei allen Komponenten kommt mein PC beim Gaming auch heutzutage nie über 200 Watt (ohne TV/Monitor) bei 1080p@60FPS.

Die größten Stromtreiber sind OC bis ans Limit, immer höhere Auflösungen und immer höhere FPS.
 
Zuletzt von einem Moderator bearbeitet:

CS74ES

Commander
Dabei seit
März 2014
Beiträge
2.190
#16
Sehe jetzt zum ersten Mal Benchmarks von den damaligen Karten, habe damals nur nach Preis entschieden und halt NV gekauft. Zuerst hatte ich eine MX 440, die ich durch eine FX 5200 ersetzt habe, das waren satte 15% mehr Leistung :D

Es ist schon fies, was die Sachen heute verbrauchen, aber ich denke mal, beim alltäglichen Kram außer Spielen, wird der Verbrauch heute auch nicht viel höher sein.

@R00tMaster

Monitore muss man heute fast gar nicht mehr mitrechnen. Ich hab zwar 2 aber einer verbraucht irgendwas um 25 Watt.
 
Zuletzt bearbeitet:
Dabei seit
Apr. 2008
Beiträge
3.929
#17
Ich habe Sonstiges gewählt, ich Übertakte, achte dabei aber auch auf den Verbrauch.

Was mir auch nicht gefällt ist die Aussage, dass die Mehrleistung durch mehr Energie erkauft wird. Lasst mal aktuelle Hardware mit dem Unreal Test laufen und setzt die Frames auf die damaligen Höchstwerte fest, jede Wette dass das aktuelle System weniger Energie verbraucht.

Ich selber habe Spiele die ziehen bei max. Details @60FPS gerade mal 130 Watt aus der Steckdose und das mit einem I7 8700K (4,8Ghz@6/12) und GTX 1080@2,1 Ghz.

Klar geht das auch anders, aber bei den Spiele wo an die 300Watt aus der Dose genuckelt werden, würden die alten Systeme ne Std. brauchen um zu starten und dann mit 1-2 Frames laufen...
 

CS74ES

Commander
Dabei seit
März 2014
Beiträge
2.190
#19

Hatsune_Miku

Lt. Commander
Dabei seit
Juli 2012
Beiträge
1.952
#20
Guter Test, und zur Umfrage achte ich auf ein gutes Performance/Watt verhältnis, darum ist es auch damals eine 1070 geworden, da hier meiner Meinung nach das perfekte Mittelmaß gefunden wurde.
Ich hoffe das die 1170 oder wie auch immer die dann heissen mag, hier wieder einen guten Mittelweg auf Leistung und verbrauch geht.
Ebenso bei der CPU, diese ist auf 4.4 Ghz übertaktet mit einem Spannungsoffset bei -0,0750V.
 
Top