Bericht Bericht: Grafikkarten Evolution

endlich bekomme ich bestätigt, dass meine "alte" GTX 285 immernoch alles packt :-)
 
Herbstloch? Wolfgang auf Shopping-Tour bei eBay? :lol:

Ich bin etwas überrascht, dass die Performance dann doch nur so wenig gestiegen ist. Da macht es wirtschaftlich doch Sinn, nur jede zweite oder gar dritte Generation mitzumachen.

Aber Geräuschentwicklung und Leistungsaufnahme wären wirklich mal viel, viel interessanter gewesen!
 
Ranopama schrieb:
endlich bekomme ich bestätigt, dass meine [...] GTX 285 immernoch alles packt

Wieso brauchst du dafür nen Test?

Wenn ich wissen will, ob meine Hardware ein Spiel in den von mir gewünschten Einstellungen rund läuft, installiere ich es, nehme die entsprechenden Einstellungen vor und lege los.

Wenn es nich rund läuft, wird runter geregelt bis zu dem Punkt ,wo dann doch neue Hardware ran muss.

Hardwaretests sind vor allem für eins sinnvoll, zu vergleichen, was aktuell auf dem Markt ist und wo die eigene nunmehr für die eigenen Bedürfnisse unzureichende Hardware im Verhältnis dazu steht.

Aber sich Tests anzuschauen, um sich selbst auf die Schulter zu klopfen, dass man seine Games auf der eigenen Kiste noch adäquat zocken kann...rofl...
 
Zuletzt bearbeitet:
Merlin-.- schrieb:
Verglichen mit der 3Dfx Voodoo (und der Voodoo 2, die SLI einführte) war die 8800GTX ein Nichts.

Yep, da kann ich Dir nur zustimmen, allerdings wäre ein Testaufbau wohl schlecht zu realisieren gewesen, von der Vergleichbarkeit mit heutigen Ergebnisse sprechen wir lieber gar nicht. :-).

@Zwirbelkatz

Was hat der Stromverbrauch einer High-End-Grafikkarte mit Vernunft oder Unvernunft zu tun? Davon unabhängig, empfinde ich solch indirekt denunzierenden Aussagen einer ganzen Gruppe von Computerspielern und Hardwarebegeisterten wie hier in Deinen Beiträgen als niveaulos. Ich werfe Dir schließlich auch nicht vor das Strom sparen unsozial ist, oder kommst Du mit knapp 31 Euro/Monat für Wohnen, Energie, Wohninstandhaltung zurecht?

@Kasmopaya

Da bist Du leider falsch informiert. Es gab mitnichten Treiberprobleme mit den 3dfx Karten, noch kann man diese für die Pleite verantwortlich machen. Die Treiberprobleme die es gab, kann man mehr oder weniger NVidia in die Schuhe schieben (so man möchte). NV hat nach der Übernahme für die 3dfx Karten keine (vernünftigen) Treiber für das im folgenden Jahr erscheinende Windows XP veröffentlicht. Kann man das aus geschäftlicher Sich sicherlich verstehen, ist Einigen (mir übrigens auch) bitter aufgestoßen, dass NV aktiv die Entwicklung von Treibern einiger Fans behindert hat (leider sind viele Quellen hierzu versiegt)

Neben einigen internen Fehlentscheidungen (z.B. der Kauf von STB und der Absicht nur noch eigene Karten verkaufen zu wollen) und auch Produktverzögerungen, trug zum "Untergang" von 3dfx in hohem Maße die sogenannte "Fachpresse" bei, die es nicht Leid wurde, das Fehlen der 32Bit Farbtiefe der Voodoo2 und (mehr) der Voddoo3 zu kritisieren. Es wäre ja auch nicht schlimm gewesen, hätte zu dem Zeitpunkt tatsächlich Hardware der Konkurrenz (namentlich hier NV TNT2 (Ultra)) existiert, welche performant genug war, die zu dem Zeipunkt verfügbaren Spiele ausreichend in 32Bit zu beschleunigen. Das war aber nicht der Fall. Auf dem Papier stand zwar 32-Bit und die Technik konnte es auch dargestellen, leider in den meisten Fällen unterirdisch performant und jenseits von spielbar, wollte man nicht mit Auflösungen wie 640x480 oder 800x600 spielen.

@Topic

Solche Tests sind immer wieder schön und motivieren mich, doch mal wieder in meiner Hardwarekiste zu buddeln.

Bleibt zu hoffen, dass die nächste Generation tatsächlich auch einmal wieder in Sachen Performance zulegt. So ganz glauben tue ich das nicht, lasse mich aber gerne eines Besseren belehren.

VG
 
Zuletzt bearbeitet:
@Kasmopaya
1. Der Spielemarkt wächst jährlich, nur die Käufer der PC Sparte lassen auf sich warten. Hardware wird verkauft wie noch nie...
Halt vermehrt Konsolen, aber wenn die 400 Watt mit ihrer Grafikkarteneinheit verbraten würde, würden sich wohl einige mehr drüber nerven. Tschuldigung, aber da hat sich eine tolerierte Unvernuft eingeschlichen wird, die einfach nicht mehr real beurteilt wird.

Mich würde eher mal interessieren um wieviel sich ein Bild tatsächlich bei FullHD verbessert, wenn an AA/AF rumschraubt. Mein Eindruck ist, dass das grad bei den oberen Settings (8x / 16x ...) bei FullHD-Auflösung, fast gar nix bringt. Wenn man da etwas zurück geht, gewinnt man gleich 20-30% Frames und spart gleich mal 100 Watt Energie, wenn man sich für ne moderate Grafikkarte entscheidet.

Ich weiss nicht ob ich da nicht richtig informiert bin, aber es ist doch nach wie vor nicht möglich auf eine feste Framezahl zu leveln um so einen günstigeren Stromverbrauch zu erreichen. Was bringen 200 Frames in einem älteren Spiel? Seh ich einfach nicht ein. Das wäre doch auch mal was Sinnvolles wenn da AMD und Nvida aktiv würden. Aber gut, vielleicht hab ich was verpennt. Der IDLE-Verbrauch wurde gesenkt, das muss man ihnen zu Gute halten, immerhin. Aber das ist halt für den typischen Gamer-PC nun nicht das Betriebsszenario, das Ding läuft doch zu 90% unter Volllast.

Dann könnte man auch mal eine Kategorie "sinnvoller Benchmark" erstellen wo man alle Grafikkarten z.B. bei 60FPS levelt, die Qualität gleichsetzt und dann den Stromverbrauch misst. Das ergibt dann eine Wertung grün bis rot bezüglich Energieverbrauch, oder halt schlicht untauglich für dieses Game. Im Moment suggerieren die Benchmark einfach die Framekönige als Heros, was sie in meinen Augen einfach nicht sind. Häufig werden die mit jeder Menge Überschussleistung(FPS) genutzt.

2. Eine GTX 580 die zig Jahre fährt ist deutlich grüner als Karten(Systeme) die man sich jedes Jahr neu kauft. Die Herstellung der Hardware ist extrem Energieintensiv, Umweltverschmutzung ist nicht nur beim Betrieb der Karten vorhanden.
Eine GTX 580 braucht auch in der Herstellung mehr Energie als eine kleinere Karte. Monster zahlen sich bezüglich Verbrauch nie aus, auch wenn du sie 3 Jahre nicht ersetzt. Das würde wahrscheinlich nur dann aufgehen, wenn du pro Tag höchstens 15 Minuten gamen würdest. :D Und das ist vermutlich nicht das durchschnittliche Szenario. ;) Aber ich geb zu, das würde mich auch mal interessieren.

Denk mal drüber nach bevor du immer high End so runter machst. Ich für meinen Teil kanns nicht mehr hören.
Mir persönlich gehts nicht ums Highend runtermachen. Es geht einfach drum, dass man hier im Artikel der Grafikkartenevolution gar nichts vom Stromverbrauch erwähnt, obwohl der sicher 10x wichtiger als die zitierte AF-Quality-Einbusse bei AMD.

3. Sind die Karten nur ein Nebenprodukt vom GPGPU Sektor, und der Sektor ist so grün, das was da eingespart wird, wird im Dektop dann nicht wieder verschwendet. Beim Kauf einer GTX 580 finanziert man gleichzeitig die GPGPU Entwicklung von NV. Grüner gehts nicht.
Das einzige was Grün ist, ist die Logo-Farbe von Nvidia. Genau das Umgekehrte ist doch der Fall. Um sich die Entwicklung einzusparen, wurde der Chip so aufgeblasen, dass er sehr viel unnötigen Ballast fürs Gaming mitführt. Da kann ich jetzt nicht wirklich viel Sinnvolles drin erkennen. Grosser Chip = grosser Energieverbrauch. AMD schwenkt auch in diese Richtung, aber das ist nur im Hinblick auf die Entwicklungsvereinfachung ein sinnvoller Schritt. Bezüglich Stromverbrauch ist es leider ein Rückschritt.
 
Zuletzt bearbeitet:
Ich weiss nicht ob ich da nicht richtig informiert bin, aber es ist doch nach wie vor nicht möglich auf eine feste Framezahl zu leveln um so einen günstigeren Stromverbrauch zu erreichen.

Gibt's doch, nennt sich VSync.
 
Die Revolution bei den Grafikkarten lässt noch auf sich warten :D
Mal schauen wie lange es braucht, momentan sind es ja eher mini Schritt voran.
 
laryllan schrieb:
Davon unabhängig, empfinde ich solch indirekt denunzierenden Aussagen einer ganzen Gruppe von Computerspielern und Hardwarebegeisterten wie hier in Deinen Beiträgen als niveaulos.
Ahja. Es kann sich jeder kaufen, was er möchte. Nirgendwo habe ich das Gegenteil behauptet. Ich kritisiere es hingegen, dass Fortschritt - wie auch in sehr vielen anderen Bereichen unserer Gesellschaft - auch hier mit der Brechstange erzwungen wird. Die Leute kaufen es scheinbar. Diejenigen, die schnelle UND effiziente Chips gleichzeitig wünschen, die werden als Querulanten und Spinner verlacht.
Dass du persönlich dich dabei angesprochen fühlst, solltest du mit dir selbst ausmachen. :)

Ich werfe Dir schließlich auch nicht vor das Strom sparen unsozial ist, oder kommst Du mit knapp 31 Euro/Monat für Wohnen, Energie, Wohninstandhaltung zurecht?
Wie kann etwas wie Stromsparen unsozial sein, wenn ich damit nicht mal Dritte tangiere? Und was hat diese krude Formulierung mit Wohungsinstandhaltung udlg. mit dem Thema zu tun?

hmd schrieb:
Mir persönlich gehts nicht ums Highend runtermachen.
Die Innovationslosigkeit kann man tadeln. Diese wird sowohl "von uns Energie-Orientieren" als auch von den Leistungsenthusiasten kritisiert. Denn letztlich führen uneffiziente Boards dazu, dass unter Umständen niedrigere Taktrate gefahren werden müssen oder weniger Recheneinheiten untergebracht werden können, damit die PCI-Express Restriktionen nicht komplett verletzt werden.
 
laryllan schrieb:
[...] Es wäre ja auch nicht schlimm gewesen, hätte zu dem Zeitpunkt tatsächlich Hardware der Konkurrenz (namentlich hier NV TNT2 (Ultra)) existiert, welche performant genug war, die zu dem Zeipunkt verfügbaren Spiele ausreichend in 32Bit zu beschleunigen. [...]

Also ich meine mich zu erinnern, dass ich damals problemlos Counterstrike in 32 bit Farbtiefe und 1024x768 bzw. 11XXx???? mit meiner TNT2 gespielt habe ... aber was solls. 3Dfx is lang Geschichte - hab aber immernoch ne Diamond Monster 3D irgendwo im Schrank ;)
 
Zwirbelkatz schrieb:
Schön zu hören, dass es doch noch einige (ältere) Semester gibt, die sich nicht jeden Mist verkaufen lassen. :)

Zwirbelkatz schrieb:
Ahja. Es kann sich jeder kaufen, was er möchte. Nirgendwo habe ich das Gegenteil behauptet.

Schon klar ;)

Selbstverständlich fühle ich mich damit angesprochen, ist doch schon eine einzelne 6970 in Deinen Augen "nicht mehr zeitgemäß" (ich gehöre dementsprechend zu denjenigen "(jüngeren) Semestern", die sich "jeden Mist" andrehen lassen, also versuch Dich nicht mit Hilfe von Wortklauberei, Zwinkersmilie und "nicht Geschriebenen" herauszuwinden. Deine Absicht ist hier klar.

Zwirbelkatz schrieb:
Wie kann etwas wie Stromsparen unsozial sein, wenn ich damit nicht mal Dritte tangiere? Und was hat diese krude Formulierung mit Wohungsinstandhaltung udlg. mit dem Thema zu tun?

Da hab ich wohl zuviel von Dir erwartet.

PS: Natürlich kauf ich den "Mist", wo sonst soll die benötigte Leistung herkommen? Von 5x6670er?

@Child
Ich sagte ja nicht, dass es kein Spiele gab, nur die Mehrzahl waren zu der Zeit in 32Bit unter 1024x768 leider nicht zu gebrauchen (ich hatte selbst eine TNT2 Ultra + 2xV2, Erstere war damals ein totaler Fehlkauf)

Genug OT jetzt.
 
Zuletzt bearbeitet:
laryllan schrieb:
Deine Absicht ist hier klar.
Ich vertrete eine Linie und keine Absicht. Klare Antworten von dir wären mir lieber gewesen, als Überheblichkeit. Falls du meinen monatlichen Stromabschlag gemeint haben solltest, so liegt dieser bei 30€. Dass ich gewisse Karten nicht gut finde, heißt nicht, dass andere sich diese nicht trotzdem kaufen können.


Unter den Gesichtspunkten der Sparsamkeit geht bei "Grafikkarten Evolutlion" bei der künftigen HD7000 Serie hoffentlich in die richtige Richtung. Dort wird es sowohl eine Sektion für Enthusiasten geben und es wird Rambus verbaut werden. Gleichzeitig kommen aber wohl Karten, die für Spieler mit 1900er Auflösung gut ausreichend sind und dabei wenig verbrauchen. Ob das dann der guten Arbeit von AMD zuzuschreiben ist oder an der Stagnation des Spielemarkts und der Konsolenportierung liegt, ist noch mal eine andere Frage.
 
Zuletzt bearbeitet:
Ein wirklich genialer Test, finde ich sehr interessant zu sehen wie das 'alte Eisen' gegen Aktuelle Grafikkarten antritt. Hatte selbst einige der gelisteten Karten.

Danke :daumen:
 
Wolfgang schrieb:
Die Radeon HD 2900 XT war bereits damals enttäuschend und heute ist das immer noch so – mehr als 58 Prozent mehr Performance als beim Vorgänger ist nicht drin. ]

Das ist wohl mehr als Schwachsinn.
andere Generationen lieferten weniger ...

Den Satz hätte man angepasst beim Test mit AA bringen können, aber nicht so :freak:


ansonsten ist der Test schön, hab mir soetwas immer gewünscht, war sicherlich viel arbeit, das respektiere ich, auch wenn ich mir noch mehr Karten gewünscht hätte, aber das soll alles andere als ein vorwurf sein, die aufzubringende Zeit und kompatibilitätsprobleme sind sicherlich so problematisch, das ihr gerne selbst noch viel mehr getestet hättet.
Also nicht falsch verstehen, war echt ein guter Test.
 
Die hohe Leistungsaufnahme ist schon ein Problem, zumal die Karten von Generation zu Generation auch eher mehr Verbrauchen. Das weit aus größere Problem was dadurch entsteht ist die Abwärme -> Laute Lüfter bzw. laute Kühlung. Das ganze leise zu bekommen geht nur recht schwer, da natürlich die Kühler fest montiert sind. -> teurer Spaß

Ein weiteres weit aus größeres Problem ist der Leistungshunger von Spielen, vor allem da diese heute so gut wie gar nicht mehr auf die Hardware optimiert werden.

Bin zwar ein "Gegner" von Konsolen, bin aber echt am überlegen wenn die PS4 raus kommt auf MAC + Konsole umzusteigen. Hat man sich mit weniger rum zu ärgern und eine niedrigere Geräuschkulisse. Heute kann man an der Konsole ja zum Glück auch mit Maus und Tastatur spielen.

Zwirbelkatz schrieb:
Ich kritisiere es hingegen, dass Fortschritt - wie auch in sehr vielen anderen Bereichen unserer Gesellschaft - auch hier mit der Brechstange erzwungen wird. Die Leute kaufen es scheinbar. Diejenigen, die schnelle UND effiziente Chips gleichzeitig wünschen, die werden als Querulanten und Spinner verlacht.
Dito auch wenn ich ersteres etwas anderes sehe, bin ich beim zweiten Punkt ganz deiner Meinung. Diese Zielgruppe wird leider nur "Müde" belächelt wobei es hier heute sicher genug Leute -> Kunden gäbe die so etwas suchen. Zum ersten Punkt finde ich es etwas übertrieben, aber es sind halt wirklich nur kleine Schritte die mit erhöhtem Stromverbrauch erkauft werden.
Hier bleibt die Frage offen würde es sich nicht mehr lohnen zu optimieren? ^^
 
Interessant, aber unvollständig...

Stromverbrauch, und in Zukunft immer wichtiger werdende Leistung bei GPU unterstützen Berechnungen fehlen leider völlig?!
 
naja irgendwie müssen die hersteller ihre produkte ja an den mann bringen und wenn die aktuelle technik für spiele der nächsten 10 jahre reichen würde, würden sie ja nix mehr verkaufen können ;)
also macht man spiele künstlich hardware und speicherhungrig und gut ist. ich für meinen teil behalte mein haupt-spielesystem ganze 5 jahre und da ich kein grafik- und effektefanatiker bin, geht das spielend. bei mir steht der spielspass im vordergrund. wenn ich tolle bilder sehn will, geh ich ins kunstmuseum ;)

meine hauptspielesysteme:
cyrix II 266 mx, s3 + voodoo1
athlon 1400, geforce 2 mx400 (tdp 25 watt)
core 2 duo t5500, 7900gs mobile (noch aktuell) (tdp 25 watt)
mit der zeit bekomme ich zwar auch immer wieder modernere grafikkarten in die finger (meine sammlung dürfte mittlerweile aus ca 50 isa, pci, agp und pci-e karten bestehen), aber mein hauptsystem wird nach dem motto "never change a running system" behandelt :D

mein kumpel hat früher immer >500,- € für seine grafikkarten ausgegeben (9700pro, 9800xt, x850xt pe, x1900xtx). mittlerweile hat sich das aber auch geändert. aktuell werkelt bei ihm ne 4650 ;)
also neu kaufen müssen muss man definitiv nicht. die frage ist, wie sehr lasst ihr euch vom marketing begehrlichkeiten wecken. wie sehr "braucht" ihr kleine grafikverbesserungen wie aa, af, ssaa, physx, etc. oder ultra hohe auflösungen?
der spielespass ist bei 1024 x 768 ohne aa und af und ohne physx der gleiche. vor jahren waren die leute davon sogar fasziniert wie toll das ist. und nun lassen sich die leute einreden, dass 1650 x 1050 schlecht aussieht und 8 x aa nicht ausreicht und es ohne physx nicht geht... dann braucht ihr euch nicht beschweren, dass die karten immer mehr leistung fressen, um den ganzen kram noch berechnen zu können. manche profi cssler schalten den ganzen mist sogar extra aus um sich davon nicht stören zu lassen :D
 
Zuletzt bearbeitet:
Ich hab zumindest beachtet dass der Stromverbrauch im Idle bei meinen Gesamtsystemen immer gefallen ist. Jedes Mal wenn ich CPU/Graka usw. aufrüste verbrauchte der PC im Idle weniger als vorher. :D

Was eigentlich wichtiger ist als bei Last, denn die meisten PCs laufen ja eh nur zu 98% im Idle oder fast-idle.
 
@Zwirbelkatz

ich glaube nicht, dass es da ein größeres Stromsparwunder geben wird. Im Gegenteil :D Grafikkarten sind eigentlich immer fetter geworden wobei da so langsam das Limit erreicht sein müsste, die GTX480 ist ein schönes Negativbeispiel.
 
Zurück
Oben