Herdware schrieb:
Der Stromverbrauch wird doch eigentlich bei den GPUs genauso behandelt, wie bei den CPUs. Wenn ich mir z.B. die CB-Artikel ansehe, sehe ich da keine geringere Gewichtung des Verbrauchs bei GPU-Tests und das schon mindestens so lange, wie dieser Vergleichsartikel zurückreicht.
Stimmt doch nicht. Bei der AMD-CPU-Generation wird zurecht der hohe Stromverbrauch im Artikel abgestraft. Aber hier tadelt man die AF-Qualität, anstatt dass man die Stromsünder, explizit die schnellen NVIDA-Karten, leider auch die neueste AMD-Karte HD6970, verurteilt. Das ist eine schlechte Entwicklung die einfach nicht die echten Bedürfnisse abdeckt. Computerbase bewertet und spricht Empfehlungen aus, die von vielen Konsumenten gelesen werden.
Außerdem sehe ich beim Verbrauch derzeit eigentlich auch keinen sich dramatisch verschlechternden Trend.
Schau doch das mal an.
http://hartware.de/review_1184_12.html
Das ist mittelerweile bei Single-GPU-Karten beim Verbrauch früherer Doppel-GPU-Karten angelangt.
Vielmehr lief es doch genauso, wie bei den CPUs.
Nicht mal ansatzweise, bei den CPUs kehrt auf ganzer Breite die Vernuft ein (Intel)/ AMD Fusion Modelle. Bei den Grafikkarten verbrauchen selbst die Mittelklasse-Modelle so viel wie die früheren Spitzenmodelle.
Nachdem man an eine Grenze gestoßen ist, ab der das Kühlen (mit Luft) problematisch wird, geht der Verbrauch auch bei den Grafikkarten tendenziell wieder zurück.
Unsinn, schau dir die Tabelle an, da hats auch ältere Modelle drin. Ausreisser gibts immer, aber die Tendenz ist ganz klar steigend. Leider werden die Stromfresser noch tendenziell günstiger, was die Verbreitung stark erhöht.
Bei den CPUs war die magische Grenze ca. 130W, bei den Grafikkarten ca. 300W. (Wobei diese Grenze auch von der PCIe-Spec vorgebenen wird.)
Man könnte auch auf 600Watt den PCIeSpec erhöhen, oder 1500 Watt. Das tehoretisch maximale Lesitung ist doch nicht der relevante Faktor. Bei den CPUs von Intel geht der Stromverbrauch durchs Band runter, bei deutlich höherer Leistung. Man könnte hier noch wesentlich mehr Leistung rausholen, wenns nicht eine sinnvolle Selbstbeschränkung geben würde. Die fehlt einfach bei den GPUs, hier wird dem Käufer suggeriert, dass er diese Produkte benötigt ... explizit durch solche Sprüche (Computerbase) wie die der AF-Qualität.
Bei den letzten Generationen von Grafikkarten ist der Rückgang des Verbrauchs, bei gestiegener Leistung doch schon recht ordentlich.
Eigentlich sollte man den täglichen Verbrauch auf 2000 Watt pro Kopf beschränken, das schafft der Junior selbst beim täglichen Gamen in ein paar Stundenlocker mit der neuen Grafikkartengeneration, ohne dass er die Energie für die Grundbedürfnisse gedeckt hätte.
Auf jeden Fall haben beide großen Hersteler für jeden Geschmack etwas im Angebot, auch für Energiesparer bzw. Silent-Liebhaber.
Man kann nicht ein vergleichsweise unwichtiges Detail wie die AF-Qualität abmahnen und gleichzeitig kein Wort drüber verlieren dass um die 400Watt mit einer GTX580 verbraten wird. Wenn man bedenkt dass der durchschnittliche Gamer auch noch sehr lang vor dem Schirm sitzt, ist das einfach Verhältnisblödsinn wie da berichtet wird. Man muss endlich mal die Sünder abmahnen und das wird leider viel zu wenig gemacht, es wird primär die Leistung verherrlicht.
Das minimale Plus an optischer Verbesserung, erkauft man sich mit fast verdoppeltem Energieverbauch. Das muss einfach in einen solchen Artikel rein, wenn man die Grafikkartenentwicklung über die Jahre beurteilt.