GPUs mit immer mehr strom?

m-sharingan

Commander
Registriert
Okt. 2007
Beiträge
2.365
hallo

ich habe eine frage zu den neuen und kmomenden GPUs
ich weis das kann zwar keioner wirklich sagen aber ich erwarte mir mal von euch meinungen zu dem thema

es kommen immer mehr neue GPUs und die brauchen immer wieder bessere Netzteile
deswegen meine frage:
wird das in zukunft auch so sein?
eine highend GPU kaufen zu wollen und dass dann eine netztteil von 500Watt nicht mehr ausreichen wird?
ich habe ja momentan eine 4870 aber innächster zeit(2jahre) werde ich warscheinlich mir ein neues mainboard,neue CPU, Neuer speicher und neue GPU zulegen...
werde ich dann auch eine neues netztteil kaufen müssen?
Gehäuse wird denke ich ausreichen^^ festplatte mit 500GB auch laufwerk wird ein neues dann sein...und dann auch für 20euro oder so

aber ich will wissen ob mein netzteil für eine neue GPU ausreichen wird und für die nächsten kompnenten auch?

die neue 295GTX(sind ja auch 2^^) kann anscheinden nicht mit meinem netzteil laufen...so habe ich das mitbekommen...
aber ich hoffe das nicht nur so rießen stromfresser auf dem markt kommen werden.

Wird der stromverbrauch nun höher oder eher gleichbleiben?(bei einzel GPUs)
 
Ich kann mir kaum vorstellen, dass es im "normalen" highend-Bereich noch deutliche Steigerungen im Stromverbrauch geben wird. Irgendwo ist mal Ende, schon allein durch die Tatsache bedingt, dass man eine Grafikkarte mit deutlich mehr als 300W Verlustleistung nicht mehr gescheit mit Luft kühlen kann. Tribute an den Umweltschutz werden vielleicht ein übriges tun.
Allerdings kann es immer wieder einzelne highend-Lösungen geben, die nochmal einen draufsetzen. HD4870X2 und GTX295 sind hier Beispiele, auch wenn man letzterer Karte immerhin attestieren muss, dass sie für die gebotene Leistung immerhin deutlich weniger Strom unter Volllast zieht als ihr ATI-Pendant. Das solche Grafikkarten aber eher für Enthusiasten gedacht sind und auf realtiv geringe Verkaufszahlen kommen, sollte klar sein.

Mfg
 
Naja irgendwo gibt es da schon ne Grenze und die dürfte bald ereicht sein.
Der Punkt ist der, dass die Energie ja abgeführt werden muss und da gibt es ne Grenze wieviel Watt pro Quadratmillimeter Chipfläche möglich ist. Die Grenze dürfte heute schon fast ereicht sein.
Die zweite Möglichkeit ist natürlich noch die Chipfläche zu vergrößern, aber da ist man mit den Kuchenblechen, die nVidia z.B. bei der 280er produziert, schon am Limit von dem was wirtschaftlich machbar ist.
 
ok dann reicht mein netzteil noch aus...danke für eurer antworten
mein ist das 500watt von OCZ
 
naja, wer weiss was passiert. vielleicht kommt ein neuer standard in sachen gehäuse, vielleicht werden cpus hungriger, ähnlich wie gpu´s in der leistung? wer weiss denn schon was in den nächsten 2 jahren passiert. sowas konnte man 1980 noch absehen. heutzutage ist es fast schon reinste spekulation was über ein jahr hinaus vorraus zu planen. zumindest in sachen computern...
 
ich gehe davon aus das die 58xxer bzw GTX3xx nochmal die messlatte in sachen grafikperformance sowie stromverbrauch ein wenig hochhauen werden, danach wird die performance auf dem fast gleichen wert bleiben und es wird ähnlich wie bei den CPUs an der effizienz gearbeitet weil es dann nichtmehr vernünftig möglich ist sie in ein haushaltsübliches system einzupflegen.

beim pentium D hat mans gesehen das es so nichtmehr weitergehen kann, dort waren es meinen infos nach ~150W.

bei GPUs haben wir ja dank größerer kühlfläche noch platz nach oben gehabt, jetzt sind wir bei exorbitanten 300W, das geht so nichtmehr weiter, es muss etwas passieren, auch wenn die performance für einen gewissen zeitpunkt auf dem level bleibt.

vllt animiert das die entwickler ein bissl mehr zu optimieren.


alos ich bin jedenfalls dafür das die beiden großen entlich was unternehmen, beio den aktuellen flagschiffen sieht man ja das es nichtmehr geht.

dennoch werden sie wohl oder übel noch mindestens einmal eine draufsetzen.
 
Marc53844 schrieb:
naja, wer weiss was passiert. vielleicht kommt ein neuer standard in sachen gehäuse, vielleicht werden cpus hungriger, ähnlich wie gpu´s in der leistung? wer weiss denn schon was in den nächsten 2 jahren passiert. sowas konnte man 1980 noch absehen. heutzutage ist es fast schon reinste spekulation was über ein jahr hinaus vorraus zu planen. zumindest in sachen computern...


Kann ich nur zustimmen! Das wird dir keiner sagen können.;)

Ausserdem, wer weiß ob in 2 Jahren dein Netzteil nicht schon abgeraucht ist.:D
 
Interessant wäre auch, wenn CB bei den Tests (von GraKas vor allem) einen Vergleich zwischen den Karten anstellt, wo die FPS pro Watt in Verhältnis gesetzt werden.
Würde ich echt spannend finden - nur so am Rande.

lg
 
Zuletzt bearbeitet:
aber mein netzteil reicht eigentlich auch für eine GTX 295
bei den tests braucht das ganze system von cb 400watt
mein netzteil hat 500watt
und außerdem habe ich nicht soviel wie die übertaktet

eigentlich müsste doch mein ATX netzteil OCZ stealthXStream 500W ausreichen
 
Musst beachten das die 500W eine kombinierte BRUTTO-Angabe aller Spannungschienen des NT sind. Übrige bleiben dann vielleicht noch ca. 370W auf den wichtigen 12V-Schienen. Abzüglich der Effizienzverluste und einzukalkulierender Reserven sollte bei einer Leistungsaufnahme von 400W das Netzteil ca. im 600W-Bereich liegen. Zumal man das Teil auch nicht nahe der 100%-Kapazitätsgrenze betreiben sollte.
Neue Kartengeneration fordern eventuell auch höhere Ströme die über die Anschlüsse bereit gestellt werden müssen als es deinem aktuelles NT möglich ist.

Ach ja:
Es ist sehr sehr schwierig mit den Prognosen, vor allem wenn sie die Zukunft betreffen.
 
Was für Effizienzverluste? Ein 500W Netzteil muss sekundärseitig die 500W liefern.
 
Auf PCGH wurden heute zufällig einige Grafikkarten bzw deren Stromverbrauch getestet. Überraschenderweise sind die GTX 260/80 Karten ziemlich stromsparend und effizient. Sie verbrauchen weniger als die 8800 Ultra oder die 9800 GTX+!

Also ist das ein Schritt in Richtung stromsparend und effizient.

Test: (es sind 3 Seiten, unter der Benchmarkgrafik ist die Navigation ;))
http://www.pcgameshardware.de/aid,6...ufnahme-von-10-Grafikkarten/Grafikkarte/Test/
 
Zuletzt bearbeitet:
Fest steht, dass diese Stromsteigerung nicht ewig so weiter gehen kann und es irgendwann völlig andere Technologien geben muss.

Doch momentan ist das noch nicht geplant. Wie "mmic92" schon meinte:
Irgendwo ist mal Ende, schon allein durch die Tatsache bedingt, dass man eine Grafikkarte mit deutlich mehr als 300W Verlustleistung nicht mehr gescheit mit Luft kühlen kann.

Bei GPUs gibts ja schon viele gute Stromsparmöglichkeiten, die aber nur im Idle strom sparen (logisch). Und wenn man bedenkt, dass aktuelle GPUs unter Last schon 80-90°C heiß werden ist da nicht mehr viel Spielraum (außer mit noch stärkeren Kühlern)
 
Zuletzt bearbeitet:
Zurück
Oben