Bericht Bericht: Grafikkarten Evolution

wenn du der Voodoo SM 3 nachgepatcht kriegst, bin ich sicher wolfgang wird sie mit Freuden testen :D
 
hmd schrieb:
...
Es wird Zeit dass wie bei der CPU auch den Stromverbrauch der Grafikkarten mehr in den Mittelpunkt gerückt wird.
...

Der Stromverbrauch wird doch eigentlich bei den GPUs genauso behandelt, wie bei den CPUs. Wenn ich mir z.B. die CB-Artikel ansehe, sehe ich da keine geringere Gewichtung des Verbrauchs bei GPU-Tests und das schon mindestens so lange, wie dieser Vergleichsartikel zurückreicht.

Außerdem sehe ich beim Verbrauch derzeit eigentlich auch keinen sich dramatisch verschlechternden Trend. Vielmehr lief es doch genauso, wie bei den CPUs. Nachdem man an eine Grenze gestoßen ist, ab der das Kühlen (mit Luft) problematisch wird, geht der Verbrauch auch bei den Grafikkarten tendenziell wieder zurück.
Bei den CPUs war die magische Grenze ca. 130W, bei den Grafikkarten ca. 300W. (Wobei diese Grenze auch von der PCIe-Spec vorgebenen wird.)

Bei den letzten Generationen von Grafikkarten ist der Rückgang des Verbrauchs, bei gestiegener Leistung doch schon recht ordentlich. Einzige Ausnahme sind die Dual-GPU-Monster, aber bei deren Kundschaft spielt der Verbraucht nunmal keine Rolle.

Auf jeden Fall haben beide großen Hersteler für jeden Geschmack etwas im Angebot, auch für Energiesparer bzw. Silent-Liebhaber.
 
So, und jetzt das ganze bitte ergänzt durch einen Test, in dem der i2600 durch eine damals gebräuchliche CPU ersetzt wird (nur um mal zu sehen, wie sich moderne GraKas zusammen mit alten CPUs schlagen), plus Darstellung der Entwicklung der Leistungsaufnahme der Grafikkarten.

Das wäre für mich so ein kleines Sahnehäubchen.
 
miagi schrieb:
besorgnis erregend finde ich die frameverläufe, die gtx580 ist zwar viel stärker als die 8800gtx aber die fps-einbrüche der gtx580 sind auffällig, wohingegen die 8800gtx teilweise an gleicher stelle gar keinen fps einbruch hat.

an genau der stelle wo der frps einbruch ist, dürfte die CPU limitieren. bei der 8800gtx limitiert dagegen die ganze zeit die karte selbst.
 
@Pilstrinker:

Ansatzweise gab es so einen Test ja schon, nur mit verschieden starken aktuellen CPUs:
https://www.computerbase.de/2011-09/bericht-gpu-braucht-cpu/

Damit kommt man natürlich nicht in bis in Pentium4- und Athlon XP-Zeiten zurück, aber so ein Phenom II X2 z.B. ist leistungsmäßig nicht weit weg von einem C2D. Das ist durchaus vergleichbar.

Und wie sich die alten GPUs mit den damals aktuellen CPUs geschlagen haben, sieht man ja in den damaligen Tests.
 
Die Gute alte Zeit...
Ich erinnere mich noch als wäre es Gestern gewesen.... Ich, ein E6600@3,5GHz und 2x8800GTX gegen den Rest der Welt :evillol: .

Der Spaß war dann allerdings mit Crysis und Ultra Einstellungen vorbei :freak: .
 
Jetzt weiß ich auch, warum ich seit 4 Jahren keine aktuellen Spiele mehr spiele :)
Zum Glück hätte ich auch gar keine Zeit dazu.
 
Effizienz und Leistungsaufnahme wäre im Test ganz nett gewesen :)
 
Ich sag' mal so, in Zeiten wo es bei der Grafischen Weiterentwicklung der Games eher stagniert, bestes Beispiel, ID's RAGE, ist diese Teil-Retrospektive sehr passend . Bei den Graka Hersteller ist man nicht zuletzt auch aus diesem Grund an einem Punkt angekommen, wo man sich von den kurzen Entwicklungszyklen neuer Grafikhardware, zumindest vorläufig, verabschiedet hat.
 
Herdware schrieb:
Der Stromverbrauch wird doch eigentlich bei den GPUs genauso behandelt, wie bei den CPUs. Wenn ich mir z.B. die CB-Artikel ansehe, sehe ich da keine geringere Gewichtung des Verbrauchs bei GPU-Tests und das schon mindestens so lange, wie dieser Vergleichsartikel zurückreicht.
Stimmt doch nicht. Bei der AMD-CPU-Generation wird zurecht der hohe Stromverbrauch im Artikel abgestraft. Aber hier tadelt man die AF-Qualität, anstatt dass man die Stromsünder, explizit die schnellen NVIDA-Karten, leider auch die neueste AMD-Karte HD6970, verurteilt. Das ist eine schlechte Entwicklung die einfach nicht die echten Bedürfnisse abdeckt. Computerbase bewertet und spricht Empfehlungen aus, die von vielen Konsumenten gelesen werden.

Außerdem sehe ich beim Verbrauch derzeit eigentlich auch keinen sich dramatisch verschlechternden Trend.
Schau doch das mal an.
http://hartware.de/review_1184_12.html
Das ist mittelerweile bei Single-GPU-Karten beim Verbrauch früherer Doppel-GPU-Karten angelangt.

Vielmehr lief es doch genauso, wie bei den CPUs.
Nicht mal ansatzweise, bei den CPUs kehrt auf ganzer Breite die Vernuft ein (Intel)/ AMD Fusion Modelle. Bei den Grafikkarten verbrauchen selbst die Mittelklasse-Modelle so viel wie die früheren Spitzenmodelle.

Nachdem man an eine Grenze gestoßen ist, ab der das Kühlen (mit Luft) problematisch wird, geht der Verbrauch auch bei den Grafikkarten tendenziell wieder zurück.
Unsinn, schau dir die Tabelle an, da hats auch ältere Modelle drin. Ausreisser gibts immer, aber die Tendenz ist ganz klar steigend. Leider werden die Stromfresser noch tendenziell günstiger, was die Verbreitung stark erhöht.

Bei den CPUs war die magische Grenze ca. 130W, bei den Grafikkarten ca. 300W. (Wobei diese Grenze auch von der PCIe-Spec vorgebenen wird.)
Man könnte auch auf 600Watt den PCIeSpec erhöhen, oder 1500 Watt. Das tehoretisch maximale Lesitung ist doch nicht der relevante Faktor. Bei den CPUs von Intel geht der Stromverbrauch durchs Band runter, bei deutlich höherer Leistung. Man könnte hier noch wesentlich mehr Leistung rausholen, wenns nicht eine sinnvolle Selbstbeschränkung geben würde. Die fehlt einfach bei den GPUs, hier wird dem Käufer suggeriert, dass er diese Produkte benötigt ... explizit durch solche Sprüche (Computerbase) wie die der AF-Qualität.

Bei den letzten Generationen von Grafikkarten ist der Rückgang des Verbrauchs, bei gestiegener Leistung doch schon recht ordentlich.
Eigentlich sollte man den täglichen Verbrauch auf 2000 Watt pro Kopf beschränken, das schafft der Junior selbst beim täglichen Gamen in ein paar Stundenlocker mit der neuen Grafikkartengeneration, ohne dass er die Energie für die Grundbedürfnisse gedeckt hätte.

Auf jeden Fall haben beide großen Hersteler für jeden Geschmack etwas im Angebot, auch für Energiesparer bzw. Silent-Liebhaber.
Man kann nicht ein vergleichsweise unwichtiges Detail wie die AF-Qualität abmahnen und gleichzeitig kein Wort drüber verlieren dass um die 400Watt mit einer GTX580 verbraten wird. Wenn man bedenkt dass der durchschnittliche Gamer auch noch sehr lang vor dem Schirm sitzt, ist das einfach Verhältnisblödsinn wie da berichtet wird. Man muss endlich mal die Sünder abmahnen und das wird leider viel zu wenig gemacht, es wird primär die Leistung verherrlicht.

Das minimale Plus an optischer Verbesserung, erkauft man sich mit fast verdoppeltem Energieverbauch. Das muss einfach in einen solchen Artikel rein, wenn man die Grafikkartenentwicklung über die Jahre beurteilt.
 
Sehr schöner Test....

Was ich aber vermisse ist die irrsinnige Evolution des Stromverbrauchs der Grafikkarten
 
Die Auflösung warum nur 1680. Da sehen die Nvidia Karten immer gut aus. Bei solchen Karten wie 6970, GTX 580, GTX 480 unverständlich warum nicht auch 1920 und 2560 mitgetestet wird
 
Technik-Freak schrieb:
@CB: CPU-Entwicklung wäre auch sehr interessant.

Ja, das würde mich auch interessieren !:D

Sehr schöner Test - Danke CB!
 
Sehr schön gemacht, Danke!

Wer sich damals eine 8800GTX sowie einen Q6600 geholt hat, hat alles richtig gemacht!

Diese Kombination gerade mit Übertaktung reicht selbst heute für sehr viele Spiele noch aus, wenn man nicht gerade in Full-HD mit allem drum und dran zockt.

M.M.n waren das die besten Hardwarekomponenten die jemals hergestellt wurden und die man am längsten als Spieler verwenden konnte.

MfG M.R.
 
Herdware schrieb:
Außerdem sehe ich beim Verbrauch derzeit eigentlich auch keinen sich dramatisch verschlechternden Trend. Vielmehr lief es doch genauso, wie bei den CPUs. Nachdem man an eine Grenze gestoßen ist, ab der das Kühlen (mit Luft) problematisch wird, geht der Verbrauch auch bei den Grafikkarten tendenziell wieder zurück.
Bei den CPUs war die magische Grenze ca. 130W, bei den Grafikkarten ca. 300W. (Wobei diese Grenze auch von der PCIe-Spec vorgebenen wird.).
Nö, also gerade im High-End kannte der Stromverbrauch eigentlich nur eine Richtung die letzten Jahre. Und zwar nach oben. Heutige Top-Modelle haben immer zwei PCI-E Stecker, teilweise sogar ne 6/8er Kombination (Dual GPUs noch schlimmer). 2005 hat ein PCI-E Stecker gereicht (also max 150W) so weit ich mich erinnern kann.

Bei den letzten Generationen von Grafikkarten ist der Rückgang des Verbrauchs, bei gestiegener Leistung doch schon recht ordentlich. Einzige Ausnahme sind die Dual-GPU-Monster, aber bei deren Kundschaft spielt der Verbraucht nunmal keine Rolle.
Die letzte Generation an Grakas (HD 6k und GTX 5xx) waren im Prinzip nur Feintunings ihrer Vorgänger. Also eher minimal erhöhte Leistung bei etwa gleich bleibendem Verbrauch. Wirklich sparsamer ist zumindest unter Last ne GTX 580 auch nicht als ne GTX 480. Und auch ne HD 6970 ist nicht sparsamer als ne HD 5870. Sie verbraucht sogar deutlich mehr Strom!

Nur im mittleren Bereich ist die Leistungsaufnahme besser geworden, aber dafür eben auch bei kaum gestiegener Rechenleistung.


Von daher hätte mich der Stromverbrauch in Relation zur Leistung hier schon interessiert. Performance/Watt quasi.
 
Über die Jahre ist man wohl mit der GTX 8800 am besten gefahren ...
Richtig, unglaublich wie sie die Vorgänger vernichtet(bei gleichzeitig exorbitant besserer Bildqualität!) oder die HD 4000 im Schach hält. (wieder mit besserer BQ) Wahrlich eine verdiente Legende.

Und aktuell fährt man mit einer GTX 580 3GB über die Jahre am besten, das hab ich im Blut. Genauso standfest wie die 8800 GTX.

Es gibt über die Jahre sowieso nur ein paar wenige Serien die herausstechen: 8800; HD 5000; GTX 500, alles andere war Mittelmaß oder ein Flop.

@CB Der Artikel hier sollte ab sofort immer in den GPU Tests verlinkt werden, weil sonst wieder einige fragen wie ihre alte Karte abschneidet...
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Richtig, unglaublich wie sie die Vorgänger vernichtet(bei gleichzeitig exorbitant besserer Bildqualität!) oder die HD 4000 im Schach hält. (wieder mit besserer BQ) Wahrlich eine verdiente Legende.

Und aktuell fährt man mit einer GTX 580 3GB über die Jahre am besten, das hab ich im Blut. Genauso standfest wie die 8800 GTX.
Naja die 8800GTX war schon noch ein anderes Kaliber. 3 mal schneller als ihr Vorgänger (7900 GTX) und doppelt so schnell wie ATIs damalig schnellstes Modell (1950 XTX).

Die GTX 480/580 schaffen es gerade mal auf 50-70% mehr Leistung gegenüber ihrem Vorgänger GTX 280 (also "nur" das 1,7fache) und gerade mal auf das 1,2-1,3fache der schnellsten damaligen ATI (HD 5870).

Also so krass gut wie die 8800GTX damals war ist die GTX 580 lange nicht, verglichen mit vorherigen Modellen, selbst wenn man den Mini-Sprung von GTX 480 auf GTX 580 auslässt.
 
Verglichen mit der 3Dfx Voodoo (und der Voodoo 2, die SLI einführte) war die 8800GTX ein Nichts.
Wo wir grad bei Meilensteinen sind... :)

Aus Performancesicht ist die aktuelle Generation einfach sehr enttäuschend. Hoffen wir, dass der Sprung zur nächsten Generation deutlich besser ausfällt.
 
Zurück
Oben