Stromverbrauchsentwicklung GPU CPU

Ganz einfach, GPUs Arbeiten Parallel.
was Parallel Arbeitet, kann man 50% größer machen und es arbeitet 50% schneller.
Die Nachfrage nach Schnellen Grafikkarten ist vorhanden, also wird das machbare Ausgeschöpft.

CPUs hingegen arbeiten größtenteils Seriell
Um diese Schneller zu machen muss man die Abläufe Effizienter gestalten.
die CPU einfach 50% größer zu machen bringt daher nichts.
 
Zuletzt bearbeitet:
Wie schon geschrieben wurde, besonders in den letzten zwei Generationen ist der Verbrauch bei den Grafikkarten doch bei beiden großen Herstellern recht deutlich gesunken.

Ich sehe da definitiv keinen negativen Trend, bzw. bin ich sogar ein wenig enttäuscht, dass Nvidia bei der Kepler-Generation nicht, wie bisher immer, den 300W-Rahmen, den die PCIe-Spec erlaubt, annähernd ausgenutzt hat, um eine "echte" High-End-GPU anzubieten.
Wer auf Verbrauch wert legt, muss die ja nicht kaufen. Es wäre einfach eine zusätzliche Option.

Im Vergleich zu den CPUs muss man auch bedenken, dass eine High-End-GPU ala GF110 (GTX580) über 500mm^2 groß ist und 3 Milliarden Transistoren umfasst. Ein i7 3770K-Quadcore z.B. ist demgegenüber nur ca. 160mm^2 groß und hat 1,4 Milliarden Transistoren, und das inklusive integrierter GPU!

Eine typische dedizierte GPU ist also ein deutlich größerer und komplexerer (und leistungsfähigerer) Chip, als eine typische CPU. Da ist es normal, dass sie auch mehr verbraucht.
 
Zumindest muss man löblich hervorheben, dass die Grafikkarten im Leerlauf deutlich sparsamer geworden sind. Wenn man Leistung benötigt, sollen sie ruhig glühen. :D
 
Grafikkarten arbeiten unzählige Befehle parallel ab, dafür aber mit geringerem GPU-Takt, höherem Speichertakt + Anbindung (Stichwort Durchsatz) und deutlich höherer Verlustleistung ...
Davon profitieren z-B. Spiele, Grafikanwendungen und andere und die CPU wird "entlastet". Das war ja auch die ursprüngliche Aufgabe von Grafikkarten.
Ne aktuelle CPU - nehmen wir einen aktuellen i7 - schafft da "nur" 4 oder 6 parallele Rechenschritte (mit HT 8/12 bei 20-30% mehr Leistung) - dafür mit dreifachen GPU-Takt, geringerer Verlustleistung und optimiert auf serielle Anwendungen.
 
Der Hauptgrund ist wohl, dass es bei CPUs keine wirkliche Konkurenz mehr für Intel gibt und man aufgrund der Fläche auch stark begrenz ist. Für Intel reicht der Vorsprung und es genügt wenn man den Verbrauch senkt. AMD kann jedoch auch wieerum nicht beliebig viel verbrauchen und steckt in einer Sackgasse zwishen Verbrauch und Mehrleistung.

Bei den GPUs herscht noch ein größer Konkurenzkampf. Auch hat man bessere Möglichkeiten die Wärme abzuführen, da man die Kühlkonstruktion mitliefert. Im Referenzdesign sind diese nicht umsonst fast alle mit Axiallüfter und Wärmeabgabe direkt nach außen designt.
Bei den CPUs muss der Hersteller sich blind auf die Kühlung der unzähligen verschiedenen Gehäuse verlassen, welche die Wärme nach außen transportieren. (ATX-Standard) Es gibt zwar alternative mitgeliferte Wasserkühlungen, aber diese sind nicht jedermans Sache und nur im absoluten High-End vorhanden. Im Mainstream wären sie viel zu teuer und aufwendig in der Installation.

Herdware schrieb:
Im Vergleich zu den CPUs muss man auch bedenken, dass eine High-End-GPU ala GF110 (GTX580) über 500mm^2 groß ist und 3 Milliarden Transistoren umfasst. Ein i7 3770K-Quadcore z.B. ist demgegenüber nur ca. 160mm^2 groß und hat 1,4 Milliarden Transistoren, und das inklusive integrierter GPU!

Eine typische dedizierte GPU ist also ein deutlich größerer und komplexerer (und leistungsfähigerer) Chip, als eine typische CPU. Da ist es normal, dass sie auch mehr verbraucht.

Man sollte schon High-End mit High-End vergleichen.

Core i7-3960X
Mit satten 2,27 Milliarden Transistoren wird eine nahezu quadratische Fläche von 435 mm² (20,8 mm × 20,9 mm) belegt:
 
Zuletzt bearbeitet:
Zurück
Oben