Bericht Bericht: Grafikkarten Evolution

Schön zu sehen, was es in den letzten Jahren so für Grafikkarten gab. Auf der einen Seite Tops (z.B. 8800 GTX) und auf der anderen Seite Flops (z.B. HD 2900 XT). Das Duell Nvidia vs ATI/AMD war auch stets spannend zu verfolgen.
 
Gelungener Artikel. Schon interessant zu sehen. Hab letztens noch ne alte ATI 7600 oder was das war aus nem alten PC gefischt. Mal sehen was nächstes Jahr so an Evolution ansteht.
 
Und der Stromverbrauch? So habt ihr nur gesagt, das man mit aktuellen Grafikkarten aktuelle Spiele locker spielen kann und das Zurückfallen älterer Generationen auf die Grafikkarten selbst ankommt.

Das hätte ich auch ohne die Tests sagen können. Ihr habt euch echt Mühe gemacht, aber ohne Stromverbrauch ist der Artikel für mich Inhaltslos.
 
So wie ich das sehe, war die Zielsetzung jene, zu zeigen, inwieweit eine GPU heutzutage Leistung erbringen kann. Diese Zielsetzung erfüllt er mE auch.
 
Fetter Fettsack schrieb:
So wie ich das sehe, war die Zielsetzung jene, zu zeigen, inwieweit eine GPU heutzutage Leistung erbringen kann. Diese Zielsetzung erfüllt er mE auch.
Dass die Grafikkarten sich rasant weiter entwickelt haben, viel schneller noch als CPUs in der gleichen Zeit, das ist auf jeden Fall interessant und das bringt der Artikel rüber.

Aber wir wissen ja, dass diese Leistungssteigerung durch immer aufwändigere und größere Chips erkauft wurde, die sich eben auch eine Menge Energiezufuhr genehmigen. Und gerade in der heutigen Zeit, wo "Eco" zumindest aus Werbegründen ne immer wichtigere Rolle spielt, wäre ein Performance/Watt Vergleich durchaus interessant gewesen.

Ich mein, heute brauchen Mittelklasse Karten wie die GTX 560 Ti oder sogar die HD 6870 schon zwei 6-Pin Anschlüsse, wohin gegen damals gerade mal ein Stecker für eine High-End Karte von Nöten war. Bei den CPUs ist zwar die Leistung nicht im gleichen Maße angestiegen, aber dafür ist auch die Leistungsaufnahme relativ konstant geblieben.


Zumindest als ergänzender Artikel wäre das also mMn eine sehr schöne Idee.
 
jamira1976 schrieb:
Die Auflösung warum nur 1680. Da sehen die Nvidia Karten immer gut aus. Bei solchen Karten wie 6970, GTX 580, GTX 480 unverständlich warum nicht auch 1920 und 2560 mitgetestet wird

Verstehe ich ehrlich gesagt auch nicht, 2560 ist eine total irrationale Auflösung für die es kaum Monitore gibt, welche wiederum relativ teuer sind. Die üblichen Verdächtigen im 24" (1920x1200 16:10 und 1920x1080 16:9) Bereich findet man dagegen eher selten. Ich finde das schwachsinnig und am Konsumenten vorbei getestet.

Ansonsten, schöner Test, gerade für mich als HD 4890 Besitzer :D
 
cuthbert schrieb:
Bei den CPUs ist zwar die Leistung nicht im gleichen Maße angestiegen, aber dafür ist auch die Leistungsaufnahme relativ konstant geblieben.

aha, die Verlustleistung und somit auch die Leistungsaufnahme sind also relativ konstant geblieben.... tja List_of_CPU_power_dissipation

ich würde mich mal besser informieren! ist wieder typisch:rolleyes:
 
dirky8 schrieb:
aha, die Verlustleistung und somit auch die Leistungsaufnahme sind also relativ konstant geblieben.... tja List_of_CPU_power_dissipation

ich würde mich mal besser informieren! ist wieder typisch:rolleyes:
Dass es über die gesamte Entwicklungszeit der CPUs hinweg angestiegen ist, das ist mir auch klar :rolleyes:, schließlich konnte man früher teilweise CPUs auch ohne aktive Kühlung laufen lassen.
Das war aber nicht das was ich meinte. Sondern dass bei der CPU-Entwicklung irgendwann darauf geachtet wurde, mehr Performance bei weniger oder zumindest gleichbleibender Leistungsaufnahme zu bringen.

Und das ist eine Entwickung, die nun schon seit einigen Jahren anhält. Seit dem Pentium 4/Athlon XP/64 ist die Leistungsaufnahme relativ Konstant (60-130W). Also sagen wir mal seit mindestens 7 Jahren. Bei den Mainstream-CPUs ist die Leistungsaufnahme inzwischen sogar wieder rückläufig (z.B. Wechsel von Sandy Bridge auf Ivy Bridge). Die Extreme-Editions beachte ich da mal nicht weiter, das gehts halt nur um Performance.

Wenn man sich mal anschaut, wie die Leistungsaufnahme bei den Grafikkarten angestiegen ist in der selben Zeit, dann wirst du den Unterschied zwischen CPU/Graka sehen, den ich meinte. Was hat denn ne Grafikkarte vor 7 Jahren gebraucht? Da gabs einen 6-Pin-PCIe-Stecker maximal (also max 150W). Heute brauchen selbst Mainstream-Karten zwei Stecker (max 225W) und High-End sogar 8-Pin+6-Pin (max 300W, oder sogar noch mehr?).
 
Die Performance wurde bei den GPUs einfach deutlich mehr erhöht als es die Shrinks zugelassen haben. Dadurch ist Chipgröße und die elktr. Leistung erheblich gestiegen.

Aber wo ist das Problem? Es gibt ja auch weiterhin effiziente Karten. Wer keine 300W verbraten will kann sich ja auch ne 560TI kaufen. Und wer nur die 75W einer Mittelklasse-Karte von "früher" verbraten will, der nimmt eben ne 6770 oder so.
Das Angebot hat sich ja nicht verschoben zu immer höherer TDP, sondern es wurde nach oben hin erweitert. Statt früher 2-3 GPUs pro Generation gibts jetzt 5.
In Zukunft werden die Perfromancesprünge auch wieder von Generation zu Generation kleiner werden oder eben die Dauer bis zu einer neuen Generation vergrößert. Denn viel höher kann man mit der TDP nicht mehr gehen. Die Kühler der heutigen Dual-GPU Karten sind ja jetzt schon verdammt laut. Bei einer einzelnen GPU ist auch die Chipfläche schon so langsam am Limit.
 
Zuletzt bearbeitet:
Vorallem ist es unsinnig komplette Karten mit CPUs zu vergleichen. Bei zweiterer fehlt nämlich der komplette Speichertransfer und Arbeitsspeicher.
 
Mir gings nicht darum, da irgendwas direkt zu vergleichen. Meine Aussage war lediglich, dass die Performance der Grakas zwar enorm gestiegen ist, aber halt eben auch aufgrund einer stark erhöhten Leistungsaufnahme. Im Gegensatz zu den CPUs wo die TDP seit Jahren ein ähnliches Niveau hält, dafür die Performance aber nicht ganz so extrem angestiegen ist. Ob man da jetzt den Speicher mit rein rechnet ist egal, der Stromverbrauch ist einfach deutlich angestiegen und ich glaube nicht, dass der RAM da den Löwenanteil ausmacht.

So wie bensen es schreibt:
Die Performance wurde bei den GPUs einfach deutlich mehr erhöht als es die Shrinks zugelassen haben. Dadurch ist Chipgröße und die elktr. Leistung erheblich gestiegen.

Und ja, es ist schon richtig, man muss sich ja keine Monsterkarte kaufen, eine Mainstream-Karte reicht für die meisten ja eh, bei den aktuellen (Konsolen-)Spielen.

Aber da, wie bensen ebenfalls sagt, die Leistungsaufnahme sich schon am Spezifikations-Maximum befindet, kann diese Entwicklung nicht mehr so weiter gehen. D.h. neue Grafikkarten werden wahrscheinlich nicht mehr so schnell so riesige Performance-Sprünge machen.
 
Beide, sowohl die CPUs, als auch die Grafikkarten, sind inzwischen beim Verbrauch an Grenzen gestoßen. Die ergeben sich zum Teil daraus, was noch sinnvoll mit Luft gekühlt werden kann und zum Teil aus technischen Spezifikationen (z.B. der Stromversorgung nach PCIe 2.0).

Bei CPUs lieg die magische Grenze bei ca. 130W. Bei Grafikkarten bei ca. 300W.
Solange diese Grenzen noch nicht erreicht waren, konnte mit jeder Leistungssteigerung auch ein gewisser Mehrverbrauch einhergehen. Nur so waren die gewaltigen Steigerungen früherer Zeiten möglich.

Aber seit man am Verbrauchs-Anschlag ist, muss anderes gearbeitet werden. Bei den neuen Spitzenmodellen darf der Verbrauch nicht mehr deutlich steigen. Jede Leistungssteigerung muss in diesem festgelegten TDP-Rahmen stattfinden. Es darf also nur so viel zugelegt werden, wie durch den nächsten Shrink und verbesserte Stromsparfunktionen wieder kompensiert werden kann und den Rest muss man mit verbrauchsneutralen Verbesserungen in der Architektur hinbekommen.
Deshalb legt eine neue CPU- oder GPU-Generation leistungsmäßig auch nicht mehr wie früher oft der Fall mal eben mehr als 100% gegenüber dem Vorgänger zu, sondern meist nur noch 10-30%.
 
mann bin ic wieder zu spät oder habs übersehen, war das jetzt ne 2900XT mit 1GB oder nur mit 512MB die getestet wurde?
V.a. da mann auch die GTS250 mit vermutl 1GB statt der ursprünglichen 512MB genommen hat.
Die 3870 solls auch mit 1GB gegeben haben.
Schon zu sehen, dass manch Highendkarte aus 2006 schon durchaus noch was reissen kann.
 
Zuletzt bearbeitet:
Was ich Persönlich gut finde zur zeit ist ,
das man nicht sich jedes Jahr ne neu Karter zu zulegen muß um die Games schön zu Zocken ,
Wie damals 2005 musste ich mir fast jedes Jahr eine neue Graka Kaufen weil es immer Games gab,
die erst ihre ganze Pracht entfalten mit einer neuen aktuellen Karte. Ab bei der GTX 260 Black Edtiton konnte ich eine Karte ,
endlich mal mehr als ein Jahre nutzen .
GTX 260 Black Edition habe ich 2 Jahre benutzt ,aber ich muß da zu sagen ich hatte auch ne X BOX 360 dazu wo die Games besser aussahen ,
auf einem Full Hd Tv wie auf den PC 2006/07.Jetzt meine GTX 560TI läuft auch ganz gut und die meisten Games sehen auch Hammer aus.
aber ich denke ,mal das GTX 560 Ti dieses Jahr noch verkauft wenn die richtigen Games Kommen ,
ansonsten ist das ein toller Test von CB gewesen,
Danke dafür !MFG ITOSTAR :daumen:
 
Zurück
Oben