Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Bericht: Grafikkarten Evolution
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: Bericht: Grafikkarten Evolution
Zipfelklatscher
Admiral Pro
- Registriert
- Mai 2002
- Beiträge
- 7.663
Da fehlt ein Wort im 2. Absatz des Fazits ;-)
Ich habe meine Karten meistens nur gewechselt, wenn die neue Karte wenigstens 50% schneller war als die "alte". Und meine Karten wurden im Laufe der Zeit immer dicker und leiser (eben aufgrund der dicken Kühlung). Heute findet dann eine passive HD6770 den Weg in den Rechner. Dann höre ich ihn gar nicht mehr.
Zugleich zeigt der Artikel, dass die Geschwindigkeitssprünge zwischen den einzelnen Generationen, abgesehen von einigen Ausnahmen, die über die Zeit gleich geblieben sind.
Ich habe meine Karten meistens nur gewechselt, wenn die neue Karte wenigstens 50% schneller war als die "alte". Und meine Karten wurden im Laufe der Zeit immer dicker und leiser (eben aufgrund der dicken Kühlung). Heute findet dann eine passive HD6770 den Weg in den Rechner. Dann höre ich ihn gar nicht mehr.
schade, dass die beste Karte von allen fehlt: Die Legendäre 8800GT. Die war über Jahre hinweg der P/L König. Und darüber hinaus war es genau diese Karte, die uns vom lärmenden Windows-Rechner weggbracht hat, weil es eine der ersten war, die eine brauchbare Lüftersteuerung hatte!
Wo ich nicht so wirklich zustimmen kann ist der Punkt dass sich die Entwicklung verlangsamt;
GF7 mitte 2005
GF8 ende 2006
GF9 anfang 2008
GF200 mitte 2008
GF400 anfang 2010
GF500 ende 2010
X1000 ende 2005
HD2000 mitte 2007
HD3000 ende 2007
HD4000 mitte 2008
HD5000 ende 2009
HD6000 ende 2010
Alspo ich sehe da keinerlei Verlangsamung; wobei zwischen GF400/500 bzw. HD5000/6000 der Leistungsunterschied zurückgegangen ist. Im Artikel wird das fälschlicherweise aber exakt umgekehrt dargestellt.
Zipfelklatscher, lies deine Korrektur nochmals. Der Satz stimmt im Original.
mfg
Wo ich nicht so wirklich zustimmen kann ist der Punkt dass sich die Entwicklung verlangsamt;
GF7 mitte 2005
GF8 ende 2006
GF9 anfang 2008
GF200 mitte 2008
GF400 anfang 2010
GF500 ende 2010
X1000 ende 2005
HD2000 mitte 2007
HD3000 ende 2007
HD4000 mitte 2008
HD5000 ende 2009
HD6000 ende 2010
Alspo ich sehe da keinerlei Verlangsamung; wobei zwischen GF400/500 bzw. HD5000/6000 der Leistungsunterschied zurückgegangen ist. Im Artikel wird das fälschlicherweise aber exakt umgekehrt dargestellt.
Zipfelklatscher, lies deine Korrektur nochmals. Der Satz stimmt im Original.
mfg
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.910
miagi schrieb:besorgnis erregend finde ich die frameverläufe, die gtx580 ist zwar viel stärker als die 8800gtx aber die fps-einbrüche der gtx580 sind auffällig, wohingegen die 8800gtx teilweise an gleicher stelle gar keinen fps einbruch hat.
Eine Erklärung könnte sein, dass die vergleichsweise schwache 8800GTX der einzige limitierende Faktor in dem Testsystem ist, während bei der GTX580 gelegentlich auch mal etwas anderes zum Flaschenhals wird und zu Frameeinbrüchen führt. Oder es sind Beschränkungen der Gameengine selbst, die bei der GTX580 gelegentlich zum Tragen kommen, aber bei der 8800GTX komplett "plattgebügelt" werden.
Zum Artikel selbst: Den hätte ich etwas früher brauchen können.
Es ist wirklich sehr schwer, die leistung von Grafikkarten über mehrere Generationen hinweg zu vergleichen, weil man einfach keine Benchmarks findet, in denen alle enthalten sind. Als ich meine alte 8800GTX durch eine GTX470 ersetzt habe, geschah das ziemlich "aus der Hüfte heraus".
Schade, dass der Stromverbrauch fehlt. ich würde doch gerne sehen, wie sehr ich mich verschlimert habe.
Aus Nostagliegründen versuche ich auch mal meine Grafikkartenhistorie zusammenzubekommen, leider lässt mich bei den älteren Modellen die Erninnerung im Stich:
- VIC II und später VIC II + VDC im C128 (Ich weiß nicht, ob das als "Grafikkarte zählt, aber immerhin war der C128 schon ein "Dual-GPU-System".
- irgendeine namenlose Standard-VGA-Karte (immerhin 16Bit-ISA)
- eine "flimmerfreie" Cirrus Logic Windowsbeschleunigerkarte mit satten 1MB Speicher
- Spea V7 Mirage (PCI, genaues Model weiß ich nicht mehr)
- Matrox Mystique, später ergänzt mit einer Diamond Monster II (Voodoo II)
- GeForce 256
- GeForce 2 Ti 500 (die läuft immer noch in meinem alten Zweitrechner)
- Radeon 9800 Pro (leider früh den Hitzetod gestorben)
- Radeon 9800 XT (ebenfalls Hitzetod, aber etwas später, lag wohl am schlecht belüfteten Gehäuse + Pentium4)
- Radeon X850 XT
- GeForce 8800GTX (neben dem VIC-II die beste )
- GeForce GTX470
Zuletzt bearbeitet:
- Registriert
- Sep. 2005
- Beiträge
- 472
und all die tolle Leistung über die Jahre hinweg ändert trotzdem nichts daran das es Spiele wie Counterstrike gibt bei denen die Leute teilweise immernoch framedrops oder ähnliches haben
DD
Dr.Schiwago
Lt. Junior Grade
- Registriert
- Aug. 2011
- Beiträge
- 446
Die älteren Karten mit Legacy-Treiber verlieren jenach Spiel unter W7 x64 bis zu 20% ihrer Performace, diese Messungen gabs unter Vista auch schon mal. Die Memory-Management-Einheit GMP (graphics memory page table bei PCIe-Systemen), die dazu dient, um die verschiedenen Seiten des System-Speichers in den Adressraum der GPU einzublenden, bietet im Gegenzug die Möglichkeit, dass zu jeder Zeit eine beliebige (selbst weit verstreut liegende) Teilmenge der normalen RAM-Pages auch für die GPU zugänglich ist. Das macht bei älteren Karten mit wenig Videospeicher eine Menge aus, funktioniert unter Vista/W7 für die älteren Karten nicht mehr optimal. 7900GTX und X1950XTX würden auf einem XP-System mit geeigneteren Treibern sicherlich wesentlich besser dastehen.
@Layout:
Die Bezeichnung "Anhang" ist nichtssagend, wer die Seite noch nicht kannte, wird dahinter kaum das Gesuchte vermuten. Ging nicht nur mir so.
@Layout:
Die Bezeichnung "Anhang" ist nichtssagend, wer die Seite noch nicht kannte, wird dahinter kaum das Gesuchte vermuten. Ging nicht nur mir so.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
dass die 7900 gtx wegbricht, war aufgrund der entwicklung zu shaderlastigen engines schon damals bekannt. dass es allerdings so gravierend sein würde, überrascht mich doch etwas.
auch schön zu sehen, dass die 8800gtx selbst die 4850 heute schlägt, wo sie doch seinerzeit erst ein halbes jahr als konkurrent zur 1950xtx und dann zur (ursprünglich anvisierten) 2900xt erschienen ist. das unterstreicht ihren mythos imho noch.
das macht aber auch die aussage der damals angeblich schnelleren entwicklung zunichte. von 7900gtx auf 8800gtx war wohl der größte entwicklungssprung, den es bei 3d-grafikkarten je gegeben hat. dass das die statistik verfällscht, dürfte klar sein.
auch schön zu sehen, dass die 8800gtx selbst die 4850 heute schlägt, wo sie doch seinerzeit erst ein halbes jahr als konkurrent zur 1950xtx und dann zur (ursprünglich anvisierten) 2900xt erschienen ist. das unterstreicht ihren mythos imho noch.
das macht aber auch die aussage der damals angeblich schnelleren entwicklung zunichte. von 7900gtx auf 8800gtx war wohl der größte entwicklungssprung, den es bei 3d-grafikkarten je gegeben hat. dass das die statistik verfällscht, dürfte klar sein.
CJay
Lt. Commander
- Registriert
- Okt. 2008
- Beiträge
- 1.120
Super TEST! DANKE
Jetzt wäre es noch super wenn ihr den Idle und Last Verbrauch ergänzen könntet.
So könnte man auch mal nachvollziehen wie sparsam die alten High-End Karten waren
Und man würde sehen wie sich Leistung pro Watt entwickelt hat, das wäre auch interessant.
Jetzt wäre es noch super wenn ihr den Idle und Last Verbrauch ergänzen könntet.
So könnte man auch mal nachvollziehen wie sparsam die alten High-End Karten waren
Und man würde sehen wie sich Leistung pro Watt entwickelt hat, das wäre auch interessant.
K
Konsolengamer
Gast
chappy086 schrieb:Von all den GPU´s die ich hatte...
ATI Rage Pro Turbo 8MB onboardmein Einstieg in die PC Welt (400Mhz Celeron mit 32MB Ram und 20GB HDD)
3dfx Voodoo 2 (16MB)
.....
[/B]
Das ist keine Grafikkartenhistory Thread hier! SuFu benutzen, so einen gibt es schon!
https://www.computerbase.de/forum/threads/eure-grafikkarten-historie.235090/
Soll ich jetzt meine 20 Grafikkarten welche ich durchgeballert (angefangen am PC ((ohne C64, Amiga 500, etc...!!!))) mit einer Cirrus Logic 1MB bis zur jetztigen HD 6990) habe auch aufzählen?! Ganz grosses Kino von Dir
Zuletzt bearbeitet:
Interessanter Artikel, allerdings find ich ihn wenig kritisch geschrieben gerade in Bezug auf den Energieverbrauch. Da reitet man auf minimalen Details bezüglich Texturfiltering herum und lässt solch exorbitant Energieverschwendung unkommentiert, das hat ja nichts mit objektiver Bestandsaufnahme zu tun.
Es geht wieder nur um das Spielchen mit den Frames. Schade, schade. Man muss sehen dass man sehr gute Standards mit der FullHD-Auflösung und DX9-11 besitzt wo sich wirklich auch sehr schön aussehende Spiele programmieren lassen. Um weitere Schritte bezüglich Grafikqualität zu machen, ist ganz bestimmt 10-facher Rechenaufwand für die gleiche Auflösung nötig. Um ein perfektes Standbild zu rendern, benötigt man auch heute noch sehr viel Zeit um Fotorealismus annähernd zu erreichen. Ist das nötig für ein Spiel, nein. In bewegten Bilder reicht die Annäherung ohne Einsatz von z.B. Raytrace, welches nochmals eine Verbesserung bringen würde.
Weil die Qualitätsverbesserung im Bild so viel mehr Rechenpower brauchen würde, verkauft die Industrie heute Features wie Physikberechnung die nochmals unsinnige 200 Watt extra verbratet, nur damit jetzt das Blättchen vom Baum realistisch gerechnet zum Boden fällt. Wie doof ist das denn. Ich versteh ja, dass man über die Leistung in einem Computerportal schreiben muss, aber man sollte doch auch die Sinnfrage hinter manchen Entwicklungen stellen.
Heute ist es so dass einige qualitätssteigernde Features (unabhängig von der Auflösung) gleich mal 50% der Rechenpower fressen. Und in Zukunft wenn man das Bild noch verbessern möchte, sich dieser Wert noch viel extremer in Richtung Unsinn verschieben wird. Für 5% Bildverbesserung vielleicht 300% mehr Leistung nötig ist.
Bei der Physikberechnung ist es noch viel extremer, das ist so unendlich unsinnig alles real zu simulieren. Als Beispiel könnte man die Wasserdarstellung nehmen. Die ist heute ohne aufwändige Berechnung (z.B. CUDA) so gut gelöst, dass niemand auch nur auf den Gedanken käme da was realitätsnah zu berechnen. Selbst ein kleines Wellenspiel auf kleinem Raum real berechnet, würde selbst die stärkste Grafikkarte in die Knie zwingen (pro Sekunde müssen ja mindestens 24 Resultate her). Die Spieleprogrammierer bekommen auch Games hin, die optisch sehr, sehr gut aussehen die man auch ohne HD6970 oder GTX580 FullHD gut spielen kann.
Es wird Zeit dass wie bei der CPU auch den Stromverbrauch der Grafikkarten mehr in den Mittelpunkt gerückt wird. Spiele in der Kritik belohnt werden, die auch mit vergleichsweise wenig Rechenpower, sehr gut aussehen.
Es geht wieder nur um das Spielchen mit den Frames. Schade, schade. Man muss sehen dass man sehr gute Standards mit der FullHD-Auflösung und DX9-11 besitzt wo sich wirklich auch sehr schön aussehende Spiele programmieren lassen. Um weitere Schritte bezüglich Grafikqualität zu machen, ist ganz bestimmt 10-facher Rechenaufwand für die gleiche Auflösung nötig. Um ein perfektes Standbild zu rendern, benötigt man auch heute noch sehr viel Zeit um Fotorealismus annähernd zu erreichen. Ist das nötig für ein Spiel, nein. In bewegten Bilder reicht die Annäherung ohne Einsatz von z.B. Raytrace, welches nochmals eine Verbesserung bringen würde.
Weil die Qualitätsverbesserung im Bild so viel mehr Rechenpower brauchen würde, verkauft die Industrie heute Features wie Physikberechnung die nochmals unsinnige 200 Watt extra verbratet, nur damit jetzt das Blättchen vom Baum realistisch gerechnet zum Boden fällt. Wie doof ist das denn. Ich versteh ja, dass man über die Leistung in einem Computerportal schreiben muss, aber man sollte doch auch die Sinnfrage hinter manchen Entwicklungen stellen.
Heute ist es so dass einige qualitätssteigernde Features (unabhängig von der Auflösung) gleich mal 50% der Rechenpower fressen. Und in Zukunft wenn man das Bild noch verbessern möchte, sich dieser Wert noch viel extremer in Richtung Unsinn verschieben wird. Für 5% Bildverbesserung vielleicht 300% mehr Leistung nötig ist.
Bei der Physikberechnung ist es noch viel extremer, das ist so unendlich unsinnig alles real zu simulieren. Als Beispiel könnte man die Wasserdarstellung nehmen. Die ist heute ohne aufwändige Berechnung (z.B. CUDA) so gut gelöst, dass niemand auch nur auf den Gedanken käme da was realitätsnah zu berechnen. Selbst ein kleines Wellenspiel auf kleinem Raum real berechnet, würde selbst die stärkste Grafikkarte in die Knie zwingen (pro Sekunde müssen ja mindestens 24 Resultate her). Die Spieleprogrammierer bekommen auch Games hin, die optisch sehr, sehr gut aussehen die man auch ohne HD6970 oder GTX580 FullHD gut spielen kann.
Es wird Zeit dass wie bei der CPU auch den Stromverbrauch der Grafikkarten mehr in den Mittelpunkt gerückt wird. Spiele in der Kritik belohnt werden, die auch mit vergleichsweise wenig Rechenpower, sehr gut aussehen.
Ab solchem Mist nerv ich mich echt. Mit solchen Sprüchen hat man einfach den Blick fürs Wesentliche verloren, tschuldigung. Da würd ich mal empfehlen wieder an die frische Luft zu gehen und die Prioritäten richtig zu sortieren.Redaktion schrieb:jedoch lässt sich die Qualität des ansiotropen Filters auf den AMD-Karten nicht weiter verbessern – dazu ist eine Hardwareänderung nötig. Dementsprechend sind alle AMD-Karten bei uns zur Zeit auf „Bewährung“, bis die nächste Generation aufschlägt. Dann entscheiden wir erneut, wie wir weiter verfahren werden.
Zuletzt bearbeitet:
F
flappes
Gast
Objektiv alles richtig, subjektiv hat sich seit meiner x1800 auf GTX 480 kaum was getan... liegt natürlich an den Spielen.
Pitt_G.
Admiral
- Registriert
- Aug. 2007
- Beiträge
- 9.266
Sehr interessant finde ich die Tatsache, dass die alten 6800 Ultra Probleme bei der Darstellung des Windows 7 Desktop haben.
Hab ich doch ebenfalls Ärger damit dass bei einer 6800 Ultra AGP der Vista Desktop nicht immer sauber dargestellt werden wollte.
Wenn ich mich richtig erinnere hat dies damit angefangen, dass ich einen Nforce3 Chipsatz zum Einsatz brachte statt dem Uli M1689/bzw der ULi M1575 SB, müsste mal wieder die AGP Karte dort einabuen und schauen was passiert.
Das Nforce 3 Board hatte auch Probleme mit aktivierten FastWrites unter XP, unter Vista hingegen nicht, obwohl ich nicht sagen kann, ob unter Vista Fast Writes überhaupt funktioniert.
Hab ich doch ebenfalls Ärger damit dass bei einer 6800 Ultra AGP der Vista Desktop nicht immer sauber dargestellt werden wollte.
Wenn ich mich richtig erinnere hat dies damit angefangen, dass ich einen Nforce3 Chipsatz zum Einsatz brachte statt dem Uli M1689/bzw der ULi M1575 SB, müsste mal wieder die AGP Karte dort einabuen und schauen was passiert.
Das Nforce 3 Board hatte auch Probleme mit aktivierten FastWrites unter XP, unter Vista hingegen nicht, obwohl ich nicht sagen kann, ob unter Vista Fast Writes überhaupt funktioniert.
Ähnliche Themen
Leserartikel
Baal auf der Suche nach den Energiefressern im PC
- Antworten
- 99
- Aufrufe
- 23.080
- Antworten
- 27
- Aufrufe
- 7.230
- Antworten
- 18
- Aufrufe
- 17.079
- Antworten
- 89
- Aufrufe
- 19.548
- Antworten
- 6
- Aufrufe
- 6.877