Countdown2
Lieutenant
- Registriert
- Apr. 2009
- Beiträge
- 872
Hallo,
mir schwirren in letzter Zeit ein paar Fragen zur Leistungsaufnahme von Grafikkarten durch den Kopf, welche aber zusammen mit diversen Berichten von Fachzeitschriften keinen Sinn ergeben.
Als Beispiel mal diesen Bericht: http://www.pcgameshardware.de/aid,6...elle-im-Spieletest-mit-GRID/Grafikkarte/Test/
Die GTX 260-216 in 55nm verbraucht beim Spielen von GRID in 1650x1050 ohne AA/AF lediglich 121W, da das Spiel die Grafikkarte nicht voll auslastet.
Nach meiner Logik müsste doch eine Grafikkarte bei jedem Spiel, egal mit welchen Einstellungen, 100%ig ausgelastet sein, weil sie ja so viel Frames berechnet, wie nur geht. Und wenn das Maximum an Frames erreicht ist, ist die Grafikkarte auch an ihrer Leistungsgrenze angekommen - also Volllast.
Aber das deckt sich ja gar nicht mit den Berichten von Fachzeitschriften. Sicherlich haben die eher Recht als ich, aber kann mir mal einer erklären, wieso ich falsch liege?
Danke.
mir schwirren in letzter Zeit ein paar Fragen zur Leistungsaufnahme von Grafikkarten durch den Kopf, welche aber zusammen mit diversen Berichten von Fachzeitschriften keinen Sinn ergeben.
Als Beispiel mal diesen Bericht: http://www.pcgameshardware.de/aid,6...elle-im-Spieletest-mit-GRID/Grafikkarte/Test/
Die GTX 260-216 in 55nm verbraucht beim Spielen von GRID in 1650x1050 ohne AA/AF lediglich 121W, da das Spiel die Grafikkarte nicht voll auslastet.
Nach meiner Logik müsste doch eine Grafikkarte bei jedem Spiel, egal mit welchen Einstellungen, 100%ig ausgelastet sein, weil sie ja so viel Frames berechnet, wie nur geht. Und wenn das Maximum an Frames erreicht ist, ist die Grafikkarte auch an ihrer Leistungsgrenze angekommen - also Volllast.
Aber das deckt sich ja gar nicht mit den Berichten von Fachzeitschriften. Sicherlich haben die eher Recht als ich, aber kann mir mal einer erklären, wieso ich falsch liege?
Danke.