Frage zur Leistungsaufnahme

Countdown2

Lieutenant
Registriert
Apr. 2009
Beiträge
872
Hallo,

mir schwirren in letzter Zeit ein paar Fragen zur Leistungsaufnahme von Grafikkarten durch den Kopf, welche aber zusammen mit diversen Berichten von Fachzeitschriften keinen Sinn ergeben.

Als Beispiel mal diesen Bericht: http://www.pcgameshardware.de/aid,6...elle-im-Spieletest-mit-GRID/Grafikkarte/Test/

Die GTX 260-216 in 55nm verbraucht beim Spielen von GRID in 1650x1050 ohne AA/AF lediglich 121W, da das Spiel die Grafikkarte nicht voll auslastet.

Nach meiner Logik müsste doch eine Grafikkarte bei jedem Spiel, egal mit welchen Einstellungen, 100%ig ausgelastet sein, weil sie ja so viel Frames berechnet, wie nur geht. Und wenn das Maximum an Frames erreicht ist, ist die Grafikkarte auch an ihrer Leistungsgrenze angekommen - also Volllast.

Aber das deckt sich ja gar nicht mit den Berichten von Fachzeitschriften. Sicherlich haben die eher Recht als ich, aber kann mir mal einer erklären, wieso ich falsch liege?

Danke.:D
 
Eine GPU/DIE besteht aus "Kammern/Fliessband" (ich weiss, hört sich bescheuert an ist aber am einfachsten zu erklären). Nicht alle Kammern/Fliessbandabschnitte werden im Spielbetrieb voll ausgelastet. Die Frameausgabe kommt vom RAMDAC, der das ganze "gesülze" von der GPU/DIE "geradebügelt". Die Frames werden aus den Kammern der GPU in die RAMDAC "geschossen", vom RAMDAC aufgefangen und kontroliert an den Monitor weitergegeben...

Die GPUs nehmen deshalb im Spielbetrieb nicht die volle Leistung auf, da im Hintergrund verschiedene Bauteile auf der Platine der Grafikkarte miteinander Kommunizieren. Gleichzeitig findet auch Kommunikation mit dem Chipsatz statt. Es werden ja auch auf Daten von der CPU / RAM gewartet oder darauf geschrieben. Und es muss eine Synchonisation stattfinden (Ähnlich einer Ampel an einer Kreuzung / Kreisverkehr). Ja, das kostet auch alles Zeit...

Benchmarks wie Furmark haben keine KI, Soundausgabe, keine verschiedenen Texturen und auch keine dynamischen verhältnisse wie Raucherzeugung oder Beleuchtungsvariierung (bsp. HDR). Es wird einfach ein konstanter Verkehr erzeugt, das nur die Grafikkarte trifft. Es sind keine bzw. kaum variablen vorhanden die die Grafikkarte dazu veranlassen würde mit dem Chipsatz zu kommunizieren. Ähnlich ist es ja mit 3DMark & Co. Dort findet aber eine gewisse Dynamik statt, weshalb die GPU in solchen Benchmarks nicht komplett "vollläuft". Die Frames können ja rausgeschossen werden, da aber das "Fließband" der GPU nicht durchgehend rappelvoll ist und sich an der Grafikdarstellung nur bruchhaft etwas ändert und die GPU entsprechend auf Teillast arbeitet, geht die Leistungsaufnahme nicht hoch. Wenn das Fließband rappelvoll ist, dann geht die Leistungsaufnahme der GPU hoch und die Spannungswandler wie auch Speicher werden voll ausgelastet.

Kurz: Beim Spielen ist das "Fließband" der GPU auch mal leer, weil auch Kommunikation mit anderen Komponenten stattfindet und das ganze muss auch Synchronisiert werden. Das bremst und senkt die Leistungsaufnahme einer Grafikkarte.
 
Zuletzt bearbeitet:
Stell dir doch die Grafikkarte als große Firma vor :D

So da haste ganz am Anfang die Bestellannahme, am Ende bekommste das was du brauchst.
Nur mitten drin gibts so viele verschiedene Abteilungen die aber nicht unbedingt immer benötigt werden je nach dem was du haben willst.
Wenn du z.B. n Schreibtisch bestellst ist die Elektroabteilung nicht beschäftigt.
Nicht jedes Spiel braucht unbedingt jede Fähigkeit des Chips, siehe Sentionline's Post.
Und da wo nicht gearbeitet wird, verbrauchts auch weniger Energie.

Ich find die Erklärung gut, und die herstellung des Schreibtisches seht ihr nach der nächsten Maus ;)
 
Tolle Erklärungen habt ihr da!

Was noch dazu kommt: Das Verhalten der Gegner, Physik und vieles andere wird bei dem Spiel vom Prozessor berechnet. Solange der damit nicht fertig ist, muss die Grafikkarte auf die Daten des Prozessors warten und das Fließband steht still.^^
 
Zurück
Oben