Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Bericht: Grafikkarten Evolution
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: Bericht: Grafikkarten Evolution
E
Eisfach321
Gast
Gelungener Artikel. Schon interessant zu sehen. Hab letztens noch ne alte ATI 7600 oder was das war aus nem alten PC gefischt. Mal sehen was nächstes Jahr so an Evolution ansteht.
TaKe91
Ensign
- Registriert
- Aug. 2008
- Beiträge
- 149
Und der Stromverbrauch? So habt ihr nur gesagt, das man mit aktuellen Grafikkarten aktuelle Spiele locker spielen kann und das Zurückfallen älterer Generationen auf die Grafikkarten selbst ankommt.
Das hätte ich auch ohne die Tests sagen können. Ihr habt euch echt Mühe gemacht, aber ohne Stromverbrauch ist der Artikel für mich Inhaltslos.
Das hätte ich auch ohne die Tests sagen können. Ihr habt euch echt Mühe gemacht, aber ohne Stromverbrauch ist der Artikel für mich Inhaltslos.
Fetter Fettsack
Fleet Admiral
- Registriert
- Nov. 2009
- Beiträge
- 10.216
So wie ich das sehe, war die Zielsetzung jene, zu zeigen, inwieweit eine GPU heutzutage Leistung erbringen kann. Diese Zielsetzung erfüllt er mE auch.
cuthbert
Captain
- Registriert
- Jan. 2007
- Beiträge
- 3.110
Dass die Grafikkarten sich rasant weiter entwickelt haben, viel schneller noch als CPUs in der gleichen Zeit, das ist auf jeden Fall interessant und das bringt der Artikel rüber.Fetter Fettsack schrieb:So wie ich das sehe, war die Zielsetzung jene, zu zeigen, inwieweit eine GPU heutzutage Leistung erbringen kann. Diese Zielsetzung erfüllt er mE auch.
Aber wir wissen ja, dass diese Leistungssteigerung durch immer aufwändigere und größere Chips erkauft wurde, die sich eben auch eine Menge Energiezufuhr genehmigen. Und gerade in der heutigen Zeit, wo "Eco" zumindest aus Werbegründen ne immer wichtigere Rolle spielt, wäre ein Performance/Watt Vergleich durchaus interessant gewesen.
Ich mein, heute brauchen Mittelklasse Karten wie die GTX 560 Ti oder sogar die HD 6870 schon zwei 6-Pin Anschlüsse, wohin gegen damals gerade mal ein Stecker für eine High-End Karte von Nöten war. Bei den CPUs ist zwar die Leistung nicht im gleichen Maße angestiegen, aber dafür ist auch die Leistungsaufnahme relativ konstant geblieben.
Zumindest als ergänzender Artikel wäre das also mMn eine sehr schöne Idee.
-=OCC=-Raptor
Lt. Commander
- Registriert
- Juli 2008
- Beiträge
- 1.414
Das ist mal nen sehr interessanter Artikel! Nice1! Schon interessant zu sehen wie sich die GPU´s im 3D-Bereich entwickelt haben. Würde mich mal noch ein Test der CPU´s der letzten 10 Jahre interessieren. 

- Registriert
- Nov. 2007
- Beiträge
- 291
jamira1976 schrieb:Die Auflösung warum nur 1680. Da sehen die Nvidia Karten immer gut aus. Bei solchen Karten wie 6970, GTX 580, GTX 480 unverständlich warum nicht auch 1920 und 2560 mitgetestet wird
Verstehe ich ehrlich gesagt auch nicht, 2560 ist eine total irrationale Auflösung für die es kaum Monitore gibt, welche wiederum relativ teuer sind. Die üblichen Verdächtigen im 24" (1920x1200 16:10 und 1920x1080 16:9) Bereich findet man dagegen eher selten. Ich finde das schwachsinnig und am Konsumenten vorbei getestet.
Ansonsten, schöner Test, gerade für mich als HD 4890 Besitzer

D
dirky8
Gast
cuthbert schrieb:Bei den CPUs ist zwar die Leistung nicht im gleichen Maße angestiegen, aber dafür ist auch die Leistungsaufnahme relativ konstant geblieben.
aha, die Verlustleistung und somit auch die Leistungsaufnahme sind also relativ konstant geblieben.... tja List_of_CPU_power_dissipation
ich würde mich mal besser informieren! ist wieder typisch

cuthbert
Captain
- Registriert
- Jan. 2007
- Beiträge
- 3.110
Dass es über die gesamte Entwicklungszeit der CPUs hinweg angestiegen ist, das ist mir auch klardirky8 schrieb:aha, die Verlustleistung und somit auch die Leistungsaufnahme sind also relativ konstant geblieben.... tja List_of_CPU_power_dissipation
ich würde mich mal besser informieren! ist wieder typisch![]()

Das war aber nicht das was ich meinte. Sondern dass bei der CPU-Entwicklung irgendwann darauf geachtet wurde, mehr Performance bei weniger oder zumindest gleichbleibender Leistungsaufnahme zu bringen.
Und das ist eine Entwickung, die nun schon seit einigen Jahren anhält. Seit dem Pentium 4/Athlon XP/64 ist die Leistungsaufnahme relativ Konstant (60-130W). Also sagen wir mal seit mindestens 7 Jahren. Bei den Mainstream-CPUs ist die Leistungsaufnahme inzwischen sogar wieder rückläufig (z.B. Wechsel von Sandy Bridge auf Ivy Bridge). Die Extreme-Editions beachte ich da mal nicht weiter, das gehts halt nur um Performance.
Wenn man sich mal anschaut, wie die Leistungsaufnahme bei den Grafikkarten angestiegen ist in der selben Zeit, dann wirst du den Unterschied zwischen CPU/Graka sehen, den ich meinte. Was hat denn ne Grafikkarte vor 7 Jahren gebraucht? Da gabs einen 6-Pin-PCIe-Stecker maximal (also max 150W). Heute brauchen selbst Mainstream-Karten zwei Stecker (max 225W) und High-End sogar 8-Pin+6-Pin (max 300W, oder sogar noch mehr?).
Die Performance wurde bei den GPUs einfach deutlich mehr erhöht als es die Shrinks zugelassen haben. Dadurch ist Chipgröße und die elktr. Leistung erheblich gestiegen.
Aber wo ist das Problem? Es gibt ja auch weiterhin effiziente Karten. Wer keine 300W verbraten will kann sich ja auch ne 560TI kaufen. Und wer nur die 75W einer Mittelklasse-Karte von "früher" verbraten will, der nimmt eben ne 6770 oder so.
Das Angebot hat sich ja nicht verschoben zu immer höherer TDP, sondern es wurde nach oben hin erweitert. Statt früher 2-3 GPUs pro Generation gibts jetzt 5.
In Zukunft werden die Perfromancesprünge auch wieder von Generation zu Generation kleiner werden oder eben die Dauer bis zu einer neuen Generation vergrößert. Denn viel höher kann man mit der TDP nicht mehr gehen. Die Kühler der heutigen Dual-GPU Karten sind ja jetzt schon verdammt laut. Bei einer einzelnen GPU ist auch die Chipfläche schon so langsam am Limit.
Aber wo ist das Problem? Es gibt ja auch weiterhin effiziente Karten. Wer keine 300W verbraten will kann sich ja auch ne 560TI kaufen. Und wer nur die 75W einer Mittelklasse-Karte von "früher" verbraten will, der nimmt eben ne 6770 oder so.
Das Angebot hat sich ja nicht verschoben zu immer höherer TDP, sondern es wurde nach oben hin erweitert. Statt früher 2-3 GPUs pro Generation gibts jetzt 5.
In Zukunft werden die Perfromancesprünge auch wieder von Generation zu Generation kleiner werden oder eben die Dauer bis zu einer neuen Generation vergrößert. Denn viel höher kann man mit der TDP nicht mehr gehen. Die Kühler der heutigen Dual-GPU Karten sind ja jetzt schon verdammt laut. Bei einer einzelnen GPU ist auch die Chipfläche schon so langsam am Limit.
Zuletzt bearbeitet:
cuthbert
Captain
- Registriert
- Jan. 2007
- Beiträge
- 3.110
Mir gings nicht darum, da irgendwas direkt zu vergleichen. Meine Aussage war lediglich, dass die Performance der Grakas zwar enorm gestiegen ist, aber halt eben auch aufgrund einer stark erhöhten Leistungsaufnahme. Im Gegensatz zu den CPUs wo die TDP seit Jahren ein ähnliches Niveau hält, dafür die Performance aber nicht ganz so extrem angestiegen ist. Ob man da jetzt den Speicher mit rein rechnet ist egal, der Stromverbrauch ist einfach deutlich angestiegen und ich glaube nicht, dass der RAM da den Löwenanteil ausmacht.
So wie bensen es schreibt:
Und ja, es ist schon richtig, man muss sich ja keine Monsterkarte kaufen, eine Mainstream-Karte reicht für die meisten ja eh, bei den aktuellen (Konsolen-)Spielen.
Aber da, wie bensen ebenfalls sagt, die Leistungsaufnahme sich schon am Spezifikations-Maximum befindet, kann diese Entwicklung nicht mehr so weiter gehen. D.h. neue Grafikkarten werden wahrscheinlich nicht mehr so schnell so riesige Performance-Sprünge machen.
So wie bensen es schreibt:
Die Performance wurde bei den GPUs einfach deutlich mehr erhöht als es die Shrinks zugelassen haben. Dadurch ist Chipgröße und die elktr. Leistung erheblich gestiegen.
Und ja, es ist schon richtig, man muss sich ja keine Monsterkarte kaufen, eine Mainstream-Karte reicht für die meisten ja eh, bei den aktuellen (Konsolen-)Spielen.
Aber da, wie bensen ebenfalls sagt, die Leistungsaufnahme sich schon am Spezifikations-Maximum befindet, kann diese Entwicklung nicht mehr so weiter gehen. D.h. neue Grafikkarten werden wahrscheinlich nicht mehr so schnell so riesige Performance-Sprünge machen.
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.910
Beide, sowohl die CPUs, als auch die Grafikkarten, sind inzwischen beim Verbrauch an Grenzen gestoßen. Die ergeben sich zum Teil daraus, was noch sinnvoll mit Luft gekühlt werden kann und zum Teil aus technischen Spezifikationen (z.B. der Stromversorgung nach PCIe 2.0).
Bei CPUs lieg die magische Grenze bei ca. 130W. Bei Grafikkarten bei ca. 300W.
Solange diese Grenzen noch nicht erreicht waren, konnte mit jeder Leistungssteigerung auch ein gewisser Mehrverbrauch einhergehen. Nur so waren die gewaltigen Steigerungen früherer Zeiten möglich.
Aber seit man am Verbrauchs-Anschlag ist, muss anderes gearbeitet werden. Bei den neuen Spitzenmodellen darf der Verbrauch nicht mehr deutlich steigen. Jede Leistungssteigerung muss in diesem festgelegten TDP-Rahmen stattfinden. Es darf also nur so viel zugelegt werden, wie durch den nächsten Shrink und verbesserte Stromsparfunktionen wieder kompensiert werden kann und den Rest muss man mit verbrauchsneutralen Verbesserungen in der Architektur hinbekommen.
Deshalb legt eine neue CPU- oder GPU-Generation leistungsmäßig auch nicht mehr wie früher oft der Fall mal eben mehr als 100% gegenüber dem Vorgänger zu, sondern meist nur noch 10-30%.
Bei CPUs lieg die magische Grenze bei ca. 130W. Bei Grafikkarten bei ca. 300W.
Solange diese Grenzen noch nicht erreicht waren, konnte mit jeder Leistungssteigerung auch ein gewisser Mehrverbrauch einhergehen. Nur so waren die gewaltigen Steigerungen früherer Zeiten möglich.
Aber seit man am Verbrauchs-Anschlag ist, muss anderes gearbeitet werden. Bei den neuen Spitzenmodellen darf der Verbrauch nicht mehr deutlich steigen. Jede Leistungssteigerung muss in diesem festgelegten TDP-Rahmen stattfinden. Es darf also nur so viel zugelegt werden, wie durch den nächsten Shrink und verbesserte Stromsparfunktionen wieder kompensiert werden kann und den Rest muss man mit verbrauchsneutralen Verbesserungen in der Architektur hinbekommen.
Deshalb legt eine neue CPU- oder GPU-Generation leistungsmäßig auch nicht mehr wie früher oft der Fall mal eben mehr als 100% gegenüber dem Vorgänger zu, sondern meist nur noch 10-30%.
Pitt_G.
Admiral
- Registriert
- Aug. 2007
- Beiträge
- 9.119
mann bin ic wieder zu spät oder habs übersehen, war das jetzt ne 2900XT mit 1GB oder nur mit 512MB die getestet wurde?
V.a. da mann auch die GTS250 mit vermutl 1GB statt der ursprünglichen 512MB genommen hat.
Die 3870 solls auch mit 1GB gegeben haben.
Schon zu sehen, dass manch Highendkarte aus 2006 schon durchaus noch was reissen kann.
V.a. da mann auch die GTS250 mit vermutl 1GB statt der ursprünglichen 512MB genommen hat.
Die 3870 solls auch mit 1GB gegeben haben.
Schon zu sehen, dass manch Highendkarte aus 2006 schon durchaus noch was reissen kann.
Zuletzt bearbeitet:
power-ito
Lieutenant
- Registriert
- Mai 2006
- Beiträge
- 588
Was ich Persönlich gut finde zur zeit ist ,
das man nicht sich jedes Jahr ne neu Karter zu zulegen muß um die Games schön zu Zocken ,
Wie damals 2005 musste ich mir fast jedes Jahr eine neue Graka Kaufen weil es immer Games gab,
die erst ihre ganze Pracht entfalten mit einer neuen aktuellen Karte. Ab bei der GTX 260 Black Edtiton konnte ich eine Karte ,
endlich mal mehr als ein Jahre nutzen .
GTX 260 Black Edition habe ich 2 Jahre benutzt ,aber ich muß da zu sagen ich hatte auch ne X BOX 360 dazu wo die Games besser aussahen ,
auf einem Full Hd Tv wie auf den PC 2006/07.Jetzt meine GTX 560TI läuft auch ganz gut und die meisten Games sehen auch Hammer aus.
aber ich denke ,mal das GTX 560 Ti dieses Jahr noch verkauft wenn die richtigen Games Kommen ,
ansonsten ist das ein toller Test von CB gewesen,
Danke dafür !MFG ITOSTAR
das man nicht sich jedes Jahr ne neu Karter zu zulegen muß um die Games schön zu Zocken ,
Wie damals 2005 musste ich mir fast jedes Jahr eine neue Graka Kaufen weil es immer Games gab,
die erst ihre ganze Pracht entfalten mit einer neuen aktuellen Karte. Ab bei der GTX 260 Black Edtiton konnte ich eine Karte ,
endlich mal mehr als ein Jahre nutzen .
GTX 260 Black Edition habe ich 2 Jahre benutzt ,aber ich muß da zu sagen ich hatte auch ne X BOX 360 dazu wo die Games besser aussahen ,
auf einem Full Hd Tv wie auf den PC 2006/07.Jetzt meine GTX 560TI läuft auch ganz gut und die meisten Games sehen auch Hammer aus.
aber ich denke ,mal das GTX 560 Ti dieses Jahr noch verkauft wenn die richtigen Games Kommen ,
ansonsten ist das ein toller Test von CB gewesen,
Danke dafür !MFG ITOSTAR

alkaAdeluxx
Lt. Commander
- Registriert
- Mai 2007
- Beiträge
- 1.402
Wird es so einen Test nochmal geben bis GTX 7XX / R9 2XX Serie?
Ähnliche Themen
Leserartikel
Baal auf der Suche nach den Energiefressern im PC
- Antworten
- 99
- Aufrufe
- 21.697
- Antworten
- 27
- Aufrufe
- 6.483
- Antworten
- 18
- Aufrufe
- 16.705
- Antworten
- 89
- Aufrufe
- 19.341
- Antworten
- 6
- Aufrufe
- 6.523