Bericht Bericht: Grafikkarten Evolution

Geiler Bericht, vielen Dank für die Mühe :)
 
Sehr schöner Artikel. Ich vermisse aber eine Zeitleiste wo man gemittelt sieht wie stark welche Generation über oder unter dem Schnitt liegt (Leistungsanstieg). :)
 
Liebe CB!
2006 kam zuerst die X1900XTX (Ende Januar), die 7900er kamen im März.
 
Danke für den Artikel :).
Das wird mir helfen bei den Rechnern die ich zusammen stellen muss ("Ist die Grafikkarte denn besser als meine im alten PC?")
 
Da fehlt ein Wort im 2. Absatz des Fazits ;-)

Zugleich zeigt der Artikel, dass die Geschwindigkeitssprünge zwischen den einzelnen Generationen, abgesehen von einigen Ausnahmen, die über die Zeit gleich geblieben sind.

Ich habe meine Karten meistens nur gewechselt, wenn die neue Karte wenigstens 50% schneller war als die "alte". Und meine Karten wurden im Laufe der Zeit immer dicker und leiser (eben aufgrund der dicken Kühlung). Heute findet dann eine passive HD6770 den Weg in den Rechner. Dann höre ich ihn gar nicht mehr. :)
 
schade, dass die beste Karte von allen fehlt: Die Legendäre 8800GT. Die war über Jahre hinweg der P/L König. Und darüber hinaus war es genau diese Karte, die uns vom lärmenden Windows-Rechner weggbracht hat, weil es eine der ersten war, die eine brauchbare Lüftersteuerung hatte!

Wo ich nicht so wirklich zustimmen kann ist der Punkt dass sich die Entwicklung verlangsamt;
GF7 mitte 2005
GF8 ende 2006
GF9 anfang 2008
GF200 mitte 2008
GF400 anfang 2010
GF500 ende 2010

X1000 ende 2005
HD2000 mitte 2007
HD3000 ende 2007
HD4000 mitte 2008
HD5000 ende 2009
HD6000 ende 2010

Alspo ich sehe da keinerlei Verlangsamung; wobei zwischen GF400/500 bzw. HD5000/6000 der Leistungsunterschied zurückgegangen ist. Im Artikel wird das fälschlicherweise aber exakt umgekehrt dargestellt.

Zipfelklatscher, lies deine Korrektur nochmals. Der Satz stimmt im Original.

mfg
 
miagi schrieb:
besorgnis erregend finde ich die frameverläufe, die gtx580 ist zwar viel stärker als die 8800gtx aber die fps-einbrüche der gtx580 sind auffällig, wohingegen die 8800gtx teilweise an gleicher stelle gar keinen fps einbruch hat.

Eine Erklärung könnte sein, dass die vergleichsweise schwache 8800GTX der einzige limitierende Faktor in dem Testsystem ist, während bei der GTX580 gelegentlich auch mal etwas anderes zum Flaschenhals wird und zu Frameeinbrüchen führt. Oder es sind Beschränkungen der Gameengine selbst, die bei der GTX580 gelegentlich zum Tragen kommen, aber bei der 8800GTX komplett "plattgebügelt" werden.

Zum Artikel selbst: Den hätte ich etwas früher brauchen können.
Es ist wirklich sehr schwer, die leistung von Grafikkarten über mehrere Generationen hinweg zu vergleichen, weil man einfach keine Benchmarks findet, in denen alle enthalten sind. Als ich meine alte 8800GTX durch eine GTX470 ersetzt habe, geschah das ziemlich "aus der Hüfte heraus". ;)

Schade, dass der Stromverbrauch fehlt. ich würde doch gerne sehen, wie sehr ich mich verschlimert habe.


Aus Nostagliegründen versuche ich auch mal meine Grafikkartenhistorie zusammenzubekommen, leider lässt mich bei den älteren Modellen die Erninnerung im Stich:

- VIC II und später VIC II + VDC im C128 (Ich weiß nicht, ob das als "Grafikkarte zählt, aber immerhin war der C128 schon ein "Dual-GPU-System". :D )
- irgendeine namenlose Standard-VGA-Karte (immerhin 16Bit-ISA)
- eine "flimmerfreie" Cirrus Logic Windowsbeschleunigerkarte mit satten 1MB Speicher
- Spea V7 Mirage (PCI, genaues Model weiß ich nicht mehr)
- Matrox Mystique, später ergänzt mit einer Diamond Monster II (Voodoo II)
- GeForce 256
- GeForce 2 Ti 500 (die läuft immer noch in meinem alten Zweitrechner)
- Radeon 9800 Pro (leider früh den Hitzetod gestorben)
- Radeon 9800 XT (ebenfalls Hitzetod, aber etwas später, lag wohl am schlecht belüfteten Gehäuse + Pentium4)
- Radeon X850 XT
- GeForce 8800GTX (neben dem VIC-II die beste )
- GeForce GTX470
 
Zuletzt bearbeitet:
Vielen Dank für den genialen Artikel! Endlich wird zurückgeblickt und die Evolution festgehalten :) Es hat sich viel getan in 5.Jahren und wir sind bei DX11 angekommen ;)
 
und all die tolle Leistung über die Jahre hinweg ändert trotzdem nichts daran das es Spiele wie Counterstrike gibt bei denen die Leute teilweise immernoch framedrops oder ähnliches haben :DDD
 
Die älteren Karten mit Legacy-Treiber verlieren jenach Spiel unter W7 x64 bis zu 20% ihrer Performace, diese Messungen gabs unter Vista auch schon mal. Die Memory-Management-Einheit GMP (graphics memory page table bei PCIe-Systemen), die dazu dient, um die verschiedenen Seiten des System-Speichers in den Adressraum der GPU einzublenden, bietet im Gegenzug die Möglichkeit, dass zu jeder Zeit eine beliebige (selbst weit verstreut liegende) Teilmenge der normalen RAM-Pages auch für die GPU zugänglich ist. Das macht bei älteren Karten mit wenig Videospeicher eine Menge aus, funktioniert unter Vista/W7 für die älteren Karten nicht mehr optimal. 7900GTX und X1950XTX würden auf einem XP-System mit geeigneteren Treibern sicherlich wesentlich besser dastehen.

@Layout:
Die Bezeichnung "Anhang" ist nichtssagend, wer die Seite noch nicht kannte, wird dahinter kaum das Gesuchte vermuten. Ging nicht nur mir so.
 
toller artikel.
Muss hier generell mal dem Wolfgang ein großes Lob für seine hervoragende Testarbeit ausssprechen.
 
dass die 7900 gtx wegbricht, war aufgrund der entwicklung zu shaderlastigen engines schon damals bekannt. dass es allerdings so gravierend sein würde, überrascht mich doch etwas.

auch schön zu sehen, dass die 8800gtx selbst die 4850 heute schlägt, wo sie doch seinerzeit erst ein halbes jahr als konkurrent zur 1950xtx und dann zur (ursprünglich anvisierten) 2900xt erschienen ist. das unterstreicht ihren mythos imho noch.

das macht aber auch die aussage der damals angeblich schnelleren entwicklung zunichte. von 7900gtx auf 8800gtx war wohl der größte entwicklungssprung, den es bei 3d-grafikkarten je gegeben hat. dass das die statistik verfällscht, dürfte klar sein.
 
Super TEST! DANKE

Jetzt wäre es noch super wenn ihr den Idle und Last Verbrauch ergänzen könntet.

So könnte man auch mal nachvollziehen wie sparsam die alten High-End Karten waren;)
Und man würde sehen wie sich Leistung pro Watt entwickelt hat, das wäre auch interessant.
 
Hach Nostalgiegefühle kommen da hoch.

Mit der Matrox Mystique das erste mal 800x600 pixel in nem Game per patch :D
 
chappy086 schrieb:
Von all den GPU´s die ich hatte...
ATI Rage Pro Turbo 8MB onboard :) mein Einstieg in die PC Welt (400Mhz Celeron mit 32MB Ram und 20GB HDD)
3dfx Voodoo 2 (16MB)
.....
[/B]

Das ist keine Grafikkartenhistory Thread hier! SuFu benutzen, so einen gibt es schon!
https://www.computerbase.de/forum/threads/eure-grafikkarten-historie.235090/

Soll ich jetzt meine 20 Grafikkarten welche ich durchgeballert (angefangen am PC ((ohne C64, Amiga 500, etc...!!!))) mit einer Cirrus Logic 1MB bis zur jetztigen HD 6990) habe auch aufzählen?! Ganz grosses Kino von Dir:rolleyes:
 
Zuletzt bearbeitet:
Interessanter Artikel, allerdings find ich ihn wenig kritisch geschrieben gerade in Bezug auf den Energieverbrauch. Da reitet man auf minimalen Details bezüglich Texturfiltering herum und lässt solch exorbitant Energieverschwendung unkommentiert, das hat ja nichts mit objektiver Bestandsaufnahme zu tun.

Es geht wieder nur um das Spielchen mit den Frames. Schade, schade. Man muss sehen dass man sehr gute Standards mit der FullHD-Auflösung und DX9-11 besitzt wo sich wirklich auch sehr schön aussehende Spiele programmieren lassen. Um weitere Schritte bezüglich Grafikqualität zu machen, ist ganz bestimmt 10-facher Rechenaufwand für die gleiche Auflösung nötig. Um ein perfektes Standbild zu rendern, benötigt man auch heute noch sehr viel Zeit um Fotorealismus annähernd zu erreichen. Ist das nötig für ein Spiel, nein. In bewegten Bilder reicht die Annäherung ohne Einsatz von z.B. Raytrace, welches nochmals eine Verbesserung bringen würde.

Weil die Qualitätsverbesserung im Bild so viel mehr Rechenpower brauchen würde, verkauft die Industrie heute Features wie Physikberechnung die nochmals unsinnige 200 Watt extra verbratet, nur damit jetzt das Blättchen vom Baum realistisch gerechnet zum Boden fällt. Wie doof ist das denn. Ich versteh ja, dass man über die Leistung in einem Computerportal schreiben muss, aber man sollte doch auch die Sinnfrage hinter manchen Entwicklungen stellen.

Heute ist es so dass einige qualitätssteigernde Features (unabhängig von der Auflösung) gleich mal 50% der Rechenpower fressen. Und in Zukunft wenn man das Bild noch verbessern möchte, sich dieser Wert noch viel extremer in Richtung Unsinn verschieben wird. Für 5% Bildverbesserung vielleicht 300% mehr Leistung nötig ist.

Bei der Physikberechnung ist es noch viel extremer, das ist so unendlich unsinnig alles real zu simulieren. Als Beispiel könnte man die Wasserdarstellung nehmen. Die ist heute ohne aufwändige Berechnung (z.B. CUDA) so gut gelöst, dass niemand auch nur auf den Gedanken käme da was realitätsnah zu berechnen. Selbst ein kleines Wellenspiel auf kleinem Raum real berechnet, würde selbst die stärkste Grafikkarte in die Knie zwingen (pro Sekunde müssen ja mindestens 24 Resultate her). Die Spieleprogrammierer bekommen auch Games hin, die optisch sehr, sehr gut aussehen die man auch ohne HD6970 oder GTX580 FullHD gut spielen kann.

Es wird Zeit dass wie bei der CPU auch den Stromverbrauch der Grafikkarten mehr in den Mittelpunkt gerückt wird. Spiele in der Kritik belohnt werden, die auch mit vergleichsweise wenig Rechenpower, sehr gut aussehen.

Redaktion schrieb:
jedoch lässt sich die Qualität des ansiotropen Filters auf den AMD-Karten nicht weiter verbessern – dazu ist eine Hardwareänderung nötig. Dementsprechend sind alle AMD-Karten bei uns zur Zeit auf „Bewährung“, bis die nächste Generation aufschlägt. Dann entscheiden wir erneut, wie wir weiter verfahren werden.
Ab solchem Mist nerv ich mich echt. Mit solchen Sprüchen hat man einfach den Blick fürs Wesentliche verloren, tschuldigung. Da würd ich mal empfehlen wieder an die frische Luft zu gehen und die Prioritäten richtig zu sortieren.
 
Zuletzt bearbeitet:
Objektiv alles richtig, subjektiv hat sich seit meiner x1800 auf GTX 480 kaum was getan... liegt natürlich an den Spielen.
 
Sehr interessant finde ich die Tatsache, dass die alten 6800 Ultra Probleme bei der Darstellung des Windows 7 Desktop haben.

Hab ich doch ebenfalls Ärger damit dass bei einer 6800 Ultra AGP der Vista Desktop nicht immer sauber dargestellt werden wollte.

Wenn ich mich richtig erinnere hat dies damit angefangen, dass ich einen Nforce3 Chipsatz zum Einsatz brachte statt dem Uli M1689/bzw der ULi M1575 SB, müsste mal wieder die AGP Karte dort einabuen und schauen was passiert.

Das Nforce 3 Board hatte auch Probleme mit aktivierten FastWrites unter XP, unter Vista hingegen nicht, obwohl ich nicht sagen kann, ob unter Vista Fast Writes überhaupt funktioniert.
 
Zurück
Oben