News Im Test vor 15 Jahren: Als der Gaming-PC noch 200 Watt verbraucht hat

gerzerk schrieb:
Dafür haben die Monitore mehr verbraucht. Mein letzter TFT kam auf 85 Watt und davor meine letzte Röhre auf 160 Watt und das non-stop.

Exakt. Das solllte nicht außer acht gelassen werden.
Mein 24" 16:10 TFT hat vor seinem Tausch gegen die aktuellen 2x 27" mehr gebraucht als beide nun zusammen. Der 24er so 80-90 Watt und die beiden 27er LED zusammen nun etwa 60 Watt.
 
  • Gefällt mir
Reaktionen: CS74ES
[x] Sonstiges
Der Strombedarf der Komponenten ist mir seit Jahren relativ egal solange dafür bei Vollast das 550W Netzteil reicht.

Es mag ja sein das die Hardware von damals bei Last weniger Strom gefressen hatte, dafür hatte sie keine ernsthaften Stromsparmechanismen und die Monitoren hatten auch mehr Strom gefressen.
Trotz des seither gestiegenen max. Strombedarfs meines PCs ist der Stomverbrauch unterm Strich dennoch gesunken und die Erklärung ist recht einfach. Ich bin heute mehr auf dem Desktop unterwegs und daddel weniger.
Ergänzung ()

aklaa schrieb:
Ach das waren Zeiten wo der Rechner ständig hängengeblieben ist aus welchem Grund auch immer.
Das kam meiner Erfahrung nach vor weil man sich damals andauern jede Menge Schrott installiert hatte der nach und nach das System verstopfte. Dazu noch die dollen optimierungstools und das ständige Rumgehampel mit allen möglichen Treibern und der Crash war praktisch absehbar. :daumen:
 
Zuletzt bearbeitet von einem Moderator:
1080 , 4790k , platinum netzteil... brauche 250 watt unter last
 
deo schrieb:
Wenn der PC nicht nur für Spiele genutzt wird, sondern für alles, sind die Unterhaltskosten für die heutige Zeit indiskutabel.
Leute, die sich keinen neue PC leisten könenn (wie auch bei anderen elektrischen Geräten) sind damit doppelt betraft, weil sie überhöhte Stromrechnungen haben.

Auch die müssen sich nicht mit 15 Jahre alten Kisten abgeben, schon 10 Jahre alte werden quasi verschenkt. Ein Lenovo M58 Miditower z.B. kommt mit 40 Watt im Leerlauf aus, die Mini-Desktop-Variante (fand ich gerade für 20€ bei Ebay Kleinanzeigen) sogar mit 20 Watt. Noch sparsamer sind alte Laptops - die bleiben inklusive Bildschirm unter 20 Watt.

Meetthecutthe schrieb:
Tatsächlich haben wir das Peak der Verbräuche von Gamingrechnern sogar bereits länger hinter uns und sind wieder deutlich auf dem absteigenden Ast. Um ~´07-´10 haben die Kisten gleicher Hackordnung in den geschilderten Szenarien gut 100-150Watt mehr gebraucht.

Sehe ich auch so. Mein damaliger Phenom II X4 mit GTX 275 war schnell bei 400 Watt, der aktuelle i7-4770 mit GTX 1070 (Werks-OC/PT) bleibt beim Spielen immer unter 300 Watt. Worst Case (Furmark und Prime95 gleichzeitig) ist 350 Watt.

Karten wie die GTX 960 und 1050 Ti, die man trotz geringem Verbrauch noch als vollwertige Spielekarten durchgehen lassen kann, gab es damals m.W. auch nicht. Liegt vermutlich auch daran, dass die Konsolen momentan wieder die Spieleentwicklung ausbremsen.
 
  • Gefällt mir
Reaktionen: Meetthecutthe
Hallo zusammen,

was tunlichst nicht erwähnt wurde, heutzutage sind ganz andere Bildschirmauflösungen Gang und Gäbe. Minimum ist Full HD. Also ich bin da doch skeptisch, wenn man mal die Bildschirmauflösung mit einbezieht, ob da das Verhältnis noch stimmt. Sprich, ob die Testaussage so noch im Verhältnis stimmt, wenn man eben die Auflösung mit einbezieht. Ich sehe das nämlich unter Einbeziehung derselben anders.

Man beachte, die Testauflösung war für die seinerzeitigen Karten 1024 x 768 x 32 Bit. Und ein Radeon 9800 Pro System lag mit dieser Auflösung auch schon bei knapp über 200 Watt. Eine heutige Stinknormale GTX 1080 aber auch gerade einmal bei 244 Watt, aber mit einer ganz anderen Auflösung.

So long....
 
Tallantis schrieb:
Und vor knapp 10 Jahren waren es noch deutlich mehr Watt als heute.

Was nicht zutreffend ist. Vor knapp zehn Jahren hatte ich eine GTX 260 216SPP mit 190 Watt TDP und einen C2Q 8400 mit 95 Watt TDP im Rechner stecken.

Das entspricht der gleichen Leistungsaufnahme die Grafikkarten und CPU in der gleichen Leistungsklasse heutzutage benötigen.
Ergänzung ()

JMP $FCE2 schrieb:
Karten wie die GTX 960 und 1050 Ti, die man trotz geringem Verbrauch noch als vollwertige Spielekarten durchgehen lassen kann, gab es damals m.W. auch nicht. Liegt vermutlich auch daran, dass die Konsolen momentan wieder die Spieleentwicklung ausbremsen.

Auch das ist nicht zutreffend. Es gab immer abgespeckte Karten die mit kleineren Chips ausgestattet wurden und deutlich weniger Energie aufgenommen haben als ausgewachsene Midrange oder High End Karten. Zb GTS 240/250 oder GTS 8400.
 
Zuletzt bearbeitet von einem Moderator:
Umfrage: "Ich kaufe High-End-Hardware, möchte diese aber effizient betreiben."
Das trifft es wohl gut bei mir.
Darum kaufe ich mir schon lange keine AMD Hardware mehr.
Ist mir egal was die AMD Firmentreuen mit Brille jetzt wieder als ausrede anschleppen.
Fakten bleiben Fakten:
Screenshot-2018-6-16 Radeon RX Vega 64 56 im Test Der helle Stern wirft lange Schatten (Seite 6).png

&
Screenshot-2018-6-16 Radeon RX Vega 64 56 im Test Der helle Stern wirft lange Schatten (Seite ...png

&
Screenshot-2018-6-16 AMD Ryzen 7 2700X, 2700, 5 2600X 2600 im Test (Seite 5).png


Da können die AMD'ler so viel schönreden wie sie wollen...
 
  • Gefällt mir
Reaktionen: gerzerk
tek9 schrieb:
Was nicht zutreffend ist. Vor knapp zehn Jahren hatte ich eine GTX 260 216SPP mit 190 Watt TDP und einen C2Q 8400 mit 95 Watt TDP im Rechner stecken.

TDP = Thermal Design Power = Diese maximal abgegebene Wärmeleistung muss das Kühlsystem des Prozessors abführen können.

Der tatsächliche Verbrauch kann viel höher sein als die angegebene TDP. Ein Ryzen 1700X mit 95 Watt TDP der auf 3,9 GHz OC ist, benötigt, je nachdem wie hoch die VCore ist, ~140Watt.

Aber geht natürlich auch andersrum. Mein 1700X@3,4GHz@1,05V benötigt nur max. 60 Watt.

Jedenfalls gibt die TDP mitnichten den Stromverbrauch an, sondern die durchschnittliche Thermische Verlustleistung, also wie viel Watt in Wärme umgewandelt werden. Der Maximale Verbrauch der CPU kann um einiges höher liegen.
Im Maximum wird z.b. der Ryzen 5 1600 durchaus 90-100 Watt verbrauchen (hat aber nur 65 Watt TDP), in manchen Szenarien kann selbst das überschritten werden.
 
Zuletzt bearbeitet von einem Moderator:
Zu der Zeit waren die Anforderungen anderster.
Der 9800pro ließ sich problemlos passiv kühlen (Zalmann).
Mit keiner heutigen HigEnd Karte würde das gehen.
6 oder 8 Pin gab es noch nicht.
Da hat es mit dem 4 Pin Molex angefangen.
Kühler/ Wasserkühlung, usw. steckte noch in den Kinderschuhen.
Damals waren 2x 256 (512) MB RAM Luxus, HDD war irgendwo zwischen 80 und 160 GB.
CPUs hatten einen Kern.
Heute sieht es anderst aus.
Zu dem Leistungsplus, Größe vom RAM, HDD/SSD, usw. ist er Stromverbrauch eher gesunken.
Heute gibt es fast für alles was, von der Stange. Früher musste viel gebastelt werden.
 
R00tMaster schrieb:
TDP = Thermal Design Power = Diese maximal abgegebene Wärmeleistung muss das Kühlsystem des Prozessors abführen können.

AAuch wenn du völlig recht hast, hat dein Beitrag den gleichen Erkenntnissgewinn wie die Aussage das RAID 1 kein Backup ersetzt.

Das Wissen wir nämlich alles schon seit Ewigkeiten ;)

NNichts desto trotz ändert sich nichts daran das die Gaming Rechner vor zehn Jahren nicht mehr oder weniger Energie benötigt haben als heute..
Ergänzung ()

JMP $FCE2 schrieb:
Die Dinger waren für damalige "Triple-A"-Spiele völlig unbrauchbar, im Gegensatz zur 1050 Ti heute.

Wieso?

Man konnte damit aktuelle Spiele mit moderaten Settings spielen.

Einer 1050ti geht aufgrund des geringen VRAM genauso schnell die Luft aus wie einer 8400GS damals.
Mit einer 750ti konnte man auch eine Zeit lang aktuelle Spiele zocken, solange man kein AA aktiviert hatte.

Ergo hat sich bei den Low Budget Karten nicht wirklich viel bewegt. Oder wollt ihr uns etwa weismachen das Nvidia und AMD etwas zu verschenken haben?

Für wirklich brauchbare Karten mit etwas Reserven wurden immer Preise ab 200 Euro aufgerufen.
 
Zuletzt bearbeitet von einem Moderator:
Also mit so nem Prescott gaming Sys hat man damals doch auch schon an der 300W Grenze schnuppern können :D
 
13579 schrieb:
Umfrage: "Ich kaufe High-End-Hardware, möchte diese aber effizient betreiben."
Das trifft es wohl gut bei mir.
Darum kaufe ich mir schon lange keine AMD Hardware mehr.
Ist mir egal was die AMD Firmentreuen mit Brille jetzt wieder als ausrede anschleppen.

Da können die AMD'ler so viel schönreden wie sie wollen...
Bereits diese Lager Formulierung zeigt das du dir ebenfalls ne Brille an den Kopf getackert hast, nur eben ne andere. :p
 
13579 schrieb:
Ist mir egal was die AMD Firmentreuen mit Brille jetzt wieder als ausrede anschleppen.
Fakten bleiben Fakten:
Da können die AMD'ler so viel schönreden wie sie wollen...
Dann fang ich mal an. Ich kann mir schon denken, wieso du bei der CPU kein Performance/Watt Vergleich angeführt hast. Aus dem Test habe ich mal die Cinebench R15 Punkte mit der Leistungsaufnahme verglichen:
1529212888939.png
 
Ach ja die 9800pro hatte ich auch. Wurde immer zu heiß. Dann kamen Grafikbugs und später stürzte die Karte ab.
Ich habe dann mit mein Cousin die Luft mit ein Blech von Gehäuselüfter umgeleitet. Das hat sogar funktioniert.

Mag sein, dass die heutigen PCs mehr Strom beim zocken ziehen aber so ein Röhrenmonitor brauchte auch richtig viel Strom. Im Idle brauchen miderne PCs deutlich weniger.
Klar ist dienLeistung pro Watt bessser. Ich denke, dass heute ein Smartphone das schafft, was ein PC vir 15 Jahren konnte.
 
Wenn man bei einer sparsamen 1080 bleibt sind es 250 Watt. Damals 200 Watt.
50 Watt, und deshalb so ein Geschrei bei Mehrleistung?!
 
Zurück
Oben