Aktuelle Spiele auf alten Karten ATI/nVidia

Je nach Szenario und Spiel verfügen die SM 3.0-Karten sogar über einen Performance-Vorteil gegenüber dem SM 2.0-Portfolio: http://www.hardware-infos.com/tests.php?test=11&seite=3 sowie https://www.computerbase.de/artikel/grafikkarten/far-cry-version-1-2-test.366/seite-4#abschnitt_1280x1024_pixel

Dass SM 3.0 auch ganz grundsätzlich für eine Steigerung der Effizienz bzw. der Leistungsfähigkeit sorgen konnte, zeigt dieser schöne Artikel: http://alt.3dcenter.org/artikel/2004/03-31_a.php

Wo und wie der zusätzliche sichtbare Inhalt wieder für einen deutlichen Bildqualitätsvorteil der SM 3.0-Karten sorgt, müsste im Einzelnen getestet werden. Am grundsätzlichen Bild, dass die ATis im Laufe der Jahre gegenüber ihren alten Konkurrenten die Oberhand zu behalten scheinen, ändert das aber nichts. ;)

Wer die ersten CB-Tests der 7900er Karten mit den letzten bzw. jüngsten Benches vergleicht, der wird auch merken, dass sich dort die Reihenfolge änderte ...
 
Zuletzt bearbeitet:
man baucht sich nur die supportliste neuer Catalysts mit Forceware bzw Nvidias angucken. bei catalyst (selbst beim 8.8) geht der support bis zur 9700pro. bei nvidia gehn sie teilweise nicht mal mehr bis zur 7900gtx. mit meiner 7900gtx hatte ich auch über ein jahr nur einen treiber, da nvidia da nix auf die reihe gebracht hat.

zudem spielt sich die shaderleistung der ATI karten aus,die haben damals auf das richtige pferd gesetzt,was diese karten generell langlebiger macht. In zukunft wirds genau so sein,was sogar leicht zu begründen ist.

da ATI ihre shader skalar aufbaut,und diese via scheduler ansteuert, ist es ein "leichtes" dies per treiber zu optimieren. da die jetztige generation locker noch 5-6 jahre support erfährt wirds in 2 jahren (auch wenns dann die wenigsten merken) eine 4870 schneller sein als eine GTX280. deshalb auch immer die verbesserung mit jedem ATI treiber.


gruß
 
Fazit: Alle alten ATI-Karten wischen den Boden mit den NVidia-Karten. Wer seine Grafikkarte nicht alle 6 Monate wechselt, sollte eindeutig zu ATI greifen.

Ein Kumpel hatte bis vor kurzem noch ne 9800pro drin und konnte damit sogar FEAR gut zocken, während ein anderer Kumpel mit seiner 6800 nur noch am Heulen war (nicht bei Fear).
Wird ja durch den Bericht quasi bestätigt.
 
Unyu schrieb:


Ich denke er wollte damit sagen, dass sich die Performance älterer ATI Karten auch noch mit neueren Treibern zum positiven ändert, während bei Nvidia ab einem gewissen Zeitpunkt eine Stagnation eintritt und man zwar einen neuen Treiber für die Karte bekommt, dieser aber eben auf dem Leistungsniveau eines sehr viel älteren Treibers ist und es somit letztendlich egal ist ob man zur Optik eine neue Versionsnummer hat oder einfach den alten Treiber installiert.
 
jep. neue treiber bringen nur noch verbesserungen bei neueren grakas. ältere werden nicht weiter optimiert.

bei ati werden alle karten ab der HD2 serie zwangsläufig weiter optimiert,da die skalare shaderverteilung weiter optimiert wird. guck euch einfach die leistung der 2900xt damals und jetzt an. ich weiß nicht,ob bereits die 1XXX und die 8XX serie über skalare shader verfügten.


gruß
 
Dann hast du es arg ungünstig geschrieben: "supportliste .... Support bis zur 9700, ... nichtmal 7900" :)

HD2-4 sind ähnlich, so wie GF8-200. ;)
Die GF7 hat ja den Sonderfall, das die BQ mit den Releasetreibern schlechter als jetzt ist, das macht ja den Balken auch kürzer.

Neue Treiber hin oder her, zeig doch mal die aktuelle HD2 Leistung, gibts da Neuigkeiten im Vergleich zur GF8?


btw: Die PCIe Karten wurden nur mit PCIe 4x getestet!
 
Irgendwie finde ich den Vergleichstest nicht besonders aussagekräftig. Es steckt zwar wirklich gute Absicht dahinter und das Thema ist äußerst interessant, aber die Rahmenbedingungen sind nicht besonders glücklich (z.B. Mainboard mit kastriertem PCIe wie Unyu bereits angemerkt hat), wobei noch vergessen wurde anzugeben, ob die AGP- oder PCIe-Ausführung getestet wurde. Dann fehlen auch noch ein paar ganz maßgebliche Informationen, um ein einigermaßen exaktes Bild abzugeben, und manche Aussagen wirken wie einfach in den Raum gestellt, ob sie nun stimmen oder nicht. Es wäre gut gewesen, mehr zum Testumfeld zu erfahren.

Daß die Auswahl der einzelnen Grafikkarten wohl das Resultat dessen ist, was gerade verfügbar war, ist den Testern selbstverständlich nicht anzulasten. Ich gehe davon aus, dass es sich eher um zwei Enthusiasten handelt. Besonders ausgeglichen ist sie aber wirklich nicht. Hätte man da nicht wenigstens noch anmerken können, welches Modell zu seiner Zeit von welchem Modell Konkurrenz hatte?

Was auch noch dazugehört hätte, wäre eine Angabe, in welchem Preisbereich die Karte zum Zeitpunkt, als sie aktuell war, gekostet hat. Wenn man schon Dinge wie Langlebigkeit einer Investition zum Thema nimmt, sollte sich dazu auch äußern.

Schön wären halt auch Hintergrundinformationen gewesen, warum Quake oder auch Serious Sam andere Tendenzen aufzeigen wie die anderen Spiele. Aussagen wie „Nvidia-Karten mögen Quake“ mögen das vielleicht auf den Punkt bringen, es ginge aber schon auch qualifizierter.

Dann wurde die Chance verpasst, die Karten mit einer Treiberversion, die zum Zeitpunkt, wo die Karte verkauft wurde, zu benchen. Daraus hätte man (finde ich) durchaus noch wertvolle Informationen schöpfen können.

Mir geistert sowieso gerade die Idee im Kopf rum, mal einen Bench mit älteren Karten zu machen, wie sich die Performance im Laufe der Zeit wirklich entwickelt. Die Annahme, dass ein möglichst aktueller Treiber gezwungenermaßen der beste ist, kann man wohl mehr und mehr über Bord werfen. Mir macht es den Anschein, die beiden großen Konkurrenten haben sich auf puren Geschwindigkeitszuwachs eingeschossen. Wobei ich den Eindruck habe, dass ATi viele Fehler selbst über Jahre hinweg nicht behebt, während Nvidia versucht, die Performance ausschließlich seiner aktuellen Generation zu verbessern.
 
Zuletzt bearbeitet:
Die PCIe-Beschränkung auf x4 ist m.E. nebensächlich, da die Bedingungen für die Karten trotzdem gleich sind und eine Limitierung bei einer 6800GT oder sogar einer X1800XT nicht wirklich gegeben ist. Ich habe selbst auf dem Board seinerzeit eine X1950XT betrieben. Einbußen: 0-5%, meistens eher 0%.

Auch ein Betrieb meiner 6600GT z.B. auf AGP x4 etwa damals bremste gegenüber AGP x8 die Karte kein Stück aus.

Ich geb' Dir Recht, es wäre wirklich hilfreich gewesen, wenn man noch auf die einstigen direkten "Gegenspieler" hingewiesen hätte (inkl. Preisangabe), so lässt sich das nur durch eigenes Wissen rekonstruieren. In dieser Hinsicht ist der Test sicher zu voraussetzungsreich.

Schön wären halt auch Hintergrundinformationen gewesen, warum Quake oder auch Serious Sam andere Tendenzen aufzeigen wie die anderen Spiele. Aussagen wie „Nvidia-Karten mögen Quake“ mögen das vielleicht auf den Punkt bringen, es ginge aber schon auch qualifizierter.

Naja, was soll man da auch groß zusätzlich dazu sagen? Das ginge nur, wenn man einen tiefen Einblick in die Techniken in die jeweiligen Engines besitzt. Eine Voraussetzung für speziell diesen Test stellt das aber nicht dar. Das Ergebnis bleibt ja so oder so gleich, außerdem hat es ja schon fast "Tradition", dass die diversen Quake- oder Doom-Engines besser auf nvidia-Karten liefen.

Dann wurde die Chance verpasst, die Karten mit einer Treiberversion, die zum Zeitpunkt, wo die Karte verkauft wurde, zu benchen. Daraus hätte man (finde ich) durchaus noch wertvolle Informationen schöpfen können.

Da gebe ich Dir auch Recht, aber das hätte den Test wohl extrem verlängert. Der Aufwand, mit allen Karten jeweils noch einmal andere Treiber durchzutesten, ist exorbitant. Die Ergebnisse sind m.E. auch so aussagekräftig.

Wobei ich den Eindruck habe, dass ATi viele Fehler selbst über Jahre hinweg nicht behebt

Worauf gründet Dein Eindruck? Was meinst Du speziell?
 
Zuletzt bearbeitet:
rumpel01 schrieb:
Worauf gründet Dein Eindruck? Was meinst Du speziell?

Nun, das sind hauptsächlich Erfahrungen im beruflichen Bereich (ich arbeite in einer Firma, die CAD/CAM-Software herstellt und vertreibt). Im ATi-Forum gibt es aber auch Problem-Beiträge von PC-Gamern, die darauf schließen lassen, und nicht etwa auf Unfähigkeit der Anwender oder verbuggte Anwendungen. OpenGL ist z.B. wohl nicht gerade die Stärke der Catalyst-Entwickler.
 
Soweit ich das sehe gibts die im Nvidia-Forum aber auch.

Dass Nvidia-Karten ID-Software-Engines mögen liegt auch daran, dass Nvidia John Carmack z.B. für Doom3 ein Stencil-Monster namens Geforce FX gebaut hat.

Was OpenGL-Probleme angeht: Waren das FireGL-Karten? Deren Treiber sollten doch eigentlich diverse Zertifikate beinhalten, die deren Funktion garantieren. Wenns nur um etwas geringere Performance bei Spielen geht, so s.o. ^^
 
Der Theorie mit ID-Software wäre natürlich entgegenzusetzen, daß auch Vorgänger der Geforce FX besser mit openGL klarkommen. Und Serious Sam, weiß nicht, auf welcher Engine basiert das?

Es liegt vielleicht eher daran, daß Nvidia sich durch den Aufkauf von 3Dfx eine Menge Know-How aneignen konnte, das sich ATi wohl selbst erarbeiten muß(te). Hätte Nvidia diesen Deal damals nicht bewerkstelligt, ich bin mir sicher, die hätten heute nichts mehr mitzureden.

Wegen der openGL-Probleme: Ja, es sind auch FireGL-Karten betroffen. Die Zertifikate sind für die Produkte von Firmen wie Autodesk (AutoCAD). Leider erreichen wir noch nicht mal annähernd vergleichbare Bedeutung auf dem Markt, daher bekommen wir seitens ATi auch eine weniger aufmerksame Behandlung. Was ja auch nachvollziehbar ist.

Du hast Recht, auch mit Nvidia hatten wir selbst schon Probleme. Damals mußten wir unseren ganzen Bestand an Vorführrechnern auf ATi umrüsten, kurz darauf haben wir das Problem mit Nvidia-Karten gelöst, und vor ca. 3 Jahren hat ATi die X1er Serie rausgebracht. Seitdem müssen wir unseren Kunden von ATi-Karten abraten, sofern sie openGL-Visualisierungen mit unserer Software vornehmen wollen. Mit der ersten X-Reihe oder älteren ATi's gibt das hingegen nach wie vor keine Probleme. ATi konnte uns bisher nicht sagen, welche Änderung zu dem Problem geführt hat.

So, jetzt bin ich aber schön in's OT abgeglitten. Hm. Also nicht daß ihr mich falsch versteht. Meine Statements hier sollen nicht in Richtung Pro Nvidia oder umgekehrt gehen. Die stinken mir beide einerseits, und ich hab andererseits bei beiden Verständnis für ihre Schattenseiten.
 
Zuletzt bearbeitet:
Es liegt vielleicht eher daran, daß Nvidia sich durch den Aufkauf von 3Dfx eine Menge Know-How aneignen konnte, das sich ATi wohl selbst erarbeiten muß(te). Hätte Nvidia diesen Deal damals nicht bewerkstelligt, ich bin mir sicher, die hätten heute nichts mehr mitzureden.

Das ist gut möglich, die 3dfx-Karten verfügten im Vergleich über eine exzellente OpenGL-Performance (die ID-Klassiker basieren auf dieser Schnittstelle), während die Konkurrenz in Direct3D meistens gleichauf war.

Erst mit dem Aufkauf von 3dfx verbesserte sich die OpenGL-Situation bei nvidia grundlegend.
 
ich glaub das hat damit zu tun das die x1*** serie im vergleich zur 7*** serie mehr shader hat/te und die jetzigen spiele VIEL mehr auf shader sind...wenn das nicht stimmt dann klärt mich bitte auf :)

mfg D-jAm

Edit: das ist schon heftig die x 1950xtx ist schneller als die gx2 o.O
 
Dies zeigt auch der schon etwas ältere aber immer noch sehr gute Test mit Referenzcharakter von y33h@ vom Ende letzten bzw. Anfang diesen Jahres, in dem deutlich wird, dass die G70/1 gegen die X1900er Karten kein Land sehen: https://www.computerbase.de/forum/threads/roundup-hd38x0-vs-gf8-vs-x19x0-vs-gf7-vs-hd2600.333022/

Die X1900XT überstrahlt da alles im Testfeld, auch eine X1950pro kann sich sehr häufig gegen eine 7950GT durchsetzen. Schade eigentlich, dass die höher getaktete 7900GTX sich nicht einen Weg in das Testfeld bahnen konnte.

btw: Der größte, zuletzt zu verzeichnende Leistungssprung bei den HD2/3 war mit dem Catalyst 8.5 zu bemerken. Diese Ergebnisse konnte ich bei mir nachvollziehen: https://www.computerbase.de/news/grafikkarten/ati-catalyst-8-5-arbeitet-effizienter-mit-dx10.22072/. Aus dem Stand vereinzelt etwa 30% mehr Leistung sind nicht zu verachten, was auch heißen muss: entweder war davor einiges im Argen oder man konnte es sich erlauben, ein paar "Bremsen" zu lösen. Seitdem hat sich subjektiv bzw. aus meiner Warte weniger getan, speziell aber zwischen dem 7.12 und dem 8.4 waren immer wieder kleinere Leistungssprünge zu verzeichnen, meistens nur auf wenige Applikationen beschränkt, aber immerhin.

Trotzdem muss festgehalten werden, dass die G80-Karten ebenfalls das Potential besitzen, noch lange oben mitspielen zu können. Da die Architektur sich nicht grundlegend vom GT200 unterschiedet bzw. in ihrer Grundanlage diesem gleicht, ist anzunehmen, dass zukünftige Optimierungen auch bei den heute "älteren" Geforces zu Verbesserungen führen können.
 
Zuletzt bearbeitet:
... heißt man kann getrost auch zur gtx 260 greifen, ohne angst zu haben, dass die 4870 in einem jahr 20% schneller ist. dann bin ich ja beruhigt :)
 
Das würde ich jetzt nicht so uneingeschränkt stehen lassen. Vor einem Jahr hätte ich niemandem geglaubt, wenn er mir erzählt hätte, daß es Nvidia fertigbringt, die Leistung meiner 7600GS so in den Keller zu fahren, daß mein Mittagspausen-Game nicht mehr spielbar war. Ich Depp hab geglaubt, das läge daran, daß ein zweiter Monitor drangehängt worden ist und hab mir die 7600GT eingebaut. Das hat aber auch nicht viel geholfen.

Mittlerweile bin ich draufgekommen, daß ich gleichzeitig mit dem zweiten TFT den Treiber auf 169.21 upgedatet hatte. Jetzt ist der 93.71 drauf, und eventuell werde ich mich vorsichtig wieder auf eine der nächsthöheren Versionen vortasten, um die Anzeigequalität wieder zu verbessern (die ist leider mit dem momentanen Treiber für den Office-Betrieb eine Zumutung).

Zu Hause werkelt eine 9600GT im Rechner, und selbst da hab ich gerade keine Lust, den 175.19 durch was Neueres zu ersetzen.

Ob man sich definitiv vor so was schützen kann, indem man nur noch Radeons benützt, wage ich zu bezweifeln. Für mich kommt's jedenfalls nur mal übergangsweise in Frage, da ich so gut wie keine Games spiele, die auf D3D oder DirectX laufen.
 
Zurück
Oben