Test Test: Grafikkarten 2009

meeee schrieb:
Ich komme nochmal auf das zurück, was ich vorher bemängelt habe:
Es stimmt zwar, das das Core i7 Extreme System warscheinlich die GPU's voll ausreizt aber wie schon gesagt, haben nur wenige solch ein System.
Es würde meiner Meinung nach eher Sinn machen Konfigurationen zu testen, die bei einem Großteil der Leserschaft am warscheinlichsten sind.
Schließlich geht es darum, welche GPU zu diesem Zeitpunkt vom Preis-Leistung-Verhältnis her am Besten zum System passt.
Man kann so nur Mutmaßungen anstellen, welche GPU zu welchem System passt.
Vielleicht wäre eine Unterteilung in drei Klassen nicht schlecht:
Extreme Gamer(gibts ja schon), Mid-Range und Low-Budget.
Was soll denn solch ein Test-System bringen? Damit du dann nicht mal einschätzen kannst ob die teuren GPUs auch tatsächlich schneller sind? Die würden ja alle oben irgendwann limitiert werden.

Ein solcher Test soll nicht die Durchschnitts PCs berücksichtigen, sondern auch ermöglichen eine GPU zu kaufen die ich in meinem nächsten System vielleicht noch verwenden kann nach dem aufrüsten - dann bin ich da wo heute Highend ist.

Das Mid und Low-Budget definiert sich über den Preis und nicht über die Leistung.

Jeder soll einschätzen können was die Graka leistet und nicht wie sie in einer mittleren Konfig performt - um festzustellen welche Grafik zu welchem System passt müssten dann ja 10 Testsysteme den ganzen Parcour durch machen und man wäre am Schluß keinen deut schlauer als jetzt auch.
 
Wenn man wissen möchte, wie groß die CPU sein muss, dann sollte man bei den CPU Benches nachschauen gehen, denn dort wird mit einer 5870 getestet und dann sieht man, welche CPU die 5870 noch ordentlich mit Daten versorgen kann.

https://www.computerbase.de/2009-12/test-prozessoren-2009/24/#abschnitt_performancerating

Sobald eine kleinere GPU verbaut wird, wird auch der Unterschied zwischen den CPU´s schrumpfen. Somit sollte man seinen idealen PC zusammen stellen können.

Wie Complication richtig sagte, es wird wohl eher darauf hinauslaufen, wie man das Geld verteilt, da man idR eine Obergrenze hat für das gesamte System.
Für mich wäre ein Quad das wichtigste, daher kommen eigentlich nur 4 CPUs in Frage
X4 620, X4 925, i5-750, i7-870
Welche das Rennen gewinnt, liegt dann nur noch am Geld. Bei GPUs ist es recht eindeutig. 5770, 5850, 5870, je nach Geldbeutel. NVidia wäre für mich erst bei der nächsten Gerneration wieder interessant.
 
MacPok schrieb:
Solange du keine hinreichende (Gegen-)Begründung für das Phänomen abliefern kannst, ist dein Zynismus völlig Fehl am Platz - bis auf Spekulationen kannst auch du keine stichfesten Belege abliefern.


Ich muss überhaupt gar keine Gegenbegründung abliefern. Das 9.11 den AF Bug besitzt, ist nämlich Fakt. Mehr wurde gar nicht gesagt. Der Redakteur behauptet, er hätte es sonst bemerkt. Lustigerweise zeigt hier ein Beispiel das genaue Gegenteil. Da er keine genauen Gründe für den Unterschied nennen konnte und das Bild auch scheinbar 16x AF zeigen soll, muss ich annehmen, das dort AF nicht korrekt funktioniert. Dass das nicht immer mit performance Verlusten einhergeht, ist auch klar. War hier aber erstmal zweitrangig.


MacPok schrieb:
Du lamentierst hier nur herum.

Falls es dir noch nicht aufgefallen sein sollte, du bist hier im Kommentar Thread des Artikels. Hier dürfen Lobhuldigungen gepostet werden wie auch Ungereimtheiten oder kritische Töne. Wenn dir dieser Umstand nicht gefällt, solltest du dem Thread besser fern bleiben, schont deine Nerven. Was du gerade machst, ist nichts weiter als ein Angriff.


MacPok schrieb:
Also: Es ist ja i. Allg. gut und richtig, dass du auf sowas bzw. Fehler (?) hinweist, aber versuch dich auch mal in die Lage von Wolfgang zu versetzten. Du kannst nicht mal eben verlangen, dass er noch mal n Satz Karten durch die Savegames jagt, was evtl. wieder und wieder zum selben Ergbeniss führt.

CB sollte es wie die PCGH handhaben. Savegames online stellen. Transparenz ist hier das Wort. Aber nein, dann könnte man ja die Fehler leichter aufdecken. Nach der Trotzreaktion erwarte ich von CB aber eh keine Verbesserungen. Selbst wenn sie merkten, das sie Mist gebencht hätten, würden sie das nicht zugeben.
 
Inwiefern kann eine Spielszene einer nVidia besser liegen als einer ATi? Die Rechenvorgänge bleiben ja die gleichen; daher sagt mir mein mit Fettadern durchzogenes Spatzenhirn, dass wenn schon ein Unterschied zwischen den Karten in dieser Hinsicht bestünde, dieser wohl auch generell auftreten müsste und nicht nur bei Anno 1404 spezifischen Szenen.
Du hast zwar schon eine Erklärung bekommen, aber doppelt gemoppelt kann ja nicht schaden: Bei jedem Setting oder Game wird die Architektur jeder Karte anders ausgelastet, das liegt dann der einen mal der anderen besser, gleichzeitig sinkt und fällt auch der Stromverbrauch bei jeder Karte je nach Setting. Darum ist auch eine Zusammenfassung also das Ranking so wichtig(gibts leider für den Stromverbrauch nicht), das zeigt dann den Querschnitt, wobei man immer noch jedes Game einzeln für sich bewerten muss, je nachdem was man spielt. Ein hohes Ranking ist kein Grant dafür das eine Karte in XY Game auch super performt, oder wie hier auch für 30" und HD-Mods perfekt ausgelegt ist. Wenn zb. Fermi nur 30% in moderaten Auflösungen sagen wir mal 22" und 1AA/1AF und dafür ein paar 100% schneller bei HD Mods und extremen Settings arbeitet, ist sie für mich nicht im Schnitt 30% schneller sondern, in den Settings in denen es mir wirklich auf Leistung ankommt, dann richtig schnell... Aber das darf natürlich jeder für sich entscheiden, wo seine Karten schnell sein sollen, wobei die extremen Settings schon eine gewissen Blick in die Zukunft erlauben, wenn in ein paar Jahren die Karte immer auf Anschlag läuft, bzw. am Limit mit dem Vram! (wie zb. die 8800GTX heute)

Wolfgang schrieb:
Ja, es ist komisch, es ist aber so. Haben wir nochmal nachgemessen, haut aber hin. Warum auch immer. Die SKalierung in Anno 1404 bei ATi war schonmal teilweise komisch, da scheint einfach noch irgendwo was (im Treiber) zu haken.
Kann schon sein das die HD 4890 im Treiber einen Bug hat, das starke einbrechen der HD 5800er bzw. Vorsprung Einbüßerei der neuen Generation wird damit aber nicht geklärt.

Stehen die extrem aufwendigen Frametimeverläufe eigentlich fest(von den Games her), oder könnte man da im Test noch kurzfristig reagieren und so eine interessante Stelle wie bei Anno benchen?

Soll wie immer konstruktive Kritik sein und es ist sowieso hier immer meckern auf hohen Niveau. Wenn wir hier nicht von der Qualität der Artikel überzeugt währen, dann würden wir uns hier auch nicht tummeln. (war ein verstecktes Kompliment;))



Ja wie gesagt, irgendwas im treiber funzt nicht perfekt. Nebenbei spielt die Auflösung eh kein Mensch.
Mal sehen wie der Catalyst 9.12 wird.
Also nix mit Bandbreitenlimit oder großflächigem v-Ram Limit.
Oh doch. irgend was bremst, PCGH hat auch schon öfters genau solche Ergebnisse mit anderen Titeln unter Vram lastigen Titeln gehabt.(HD 5870 genauso schnell wie GTX 285, also Vorsprung war wieder weg, wo sind also wieder die 30-40% Vorsprung hin?) So leicht kommste nicht davon mein 89er,:D es ist nicht nur die Auflösung sondern auch Titel die extrem Vram lastig sind...
Der Treiber der HD 4890 spinnt vielleicht, aber die der HD 5800er funktioniert einwandfrei, und die HD 5970 ist vermutlich schneller, bzw. bricht nicht so ein wegen der Bandbreite, also auch nix mit kaputten Treiber.
Auf jeden Fall braucht kein 30" Besitzer oder HD Mod User von einer HD 4890 oder GTX 285 auf eine HD 5800 aufrüsten, soviel ist schon mal sicher... Performance Gewinn gleich 0 oder sogar ein Downgrade!


Es stimmt zwar, das das Core i7 Extreme System wahrscheinlich die GPU's voll ausreizt aber wie schon gesagt, haben nur wenige solch ein System.
Die neue CPU könnte schon mal die unterschiedlichen Ergebnisse zu den alten Tests erklären, die hier einige gepostet haben. Und gefällt euch die neue CPU immer noch?:rolleyes:
 
Zuletzt bearbeitet:
Je schneller die CPU, desto besser. U.a. ein Grund, warum die HD5870 teils zulegt - es sei denn, Wolle sieht das anders *lach*
 
@Kasmopaya

Danke

CB sollte es wie die PCGH handhaben. Savegames online stellen. Transparenz ist hier das Wort. Aber nein, dann könnte man ja die Fehler leichter aufdecken. Nach der Trotzreaktion erwarte ich von CB aber eh keine Verbesserungen. Selbst wenn sie merkten, das sie Mist gebencht hätten, würden sie das nicht zugeben.

Ich will da jetzt keine große Diskussion vom Zaune brechen aber was soll es denn groß bringen, Savegames zu veröffentlichen? Damit wir Fragen akademischer Natur besser klären können, wie sich eine Grafikkarte verhält, wenn man sie einer Belastung aussetzt, die vielleicht in drei Jahren erst Usus sein wird? Zumal man sich sowieso erst das betreffende Spiel kaufen müsste, egal ob es einem gefällt oder nicht, um da irgendetwas nachvollziehen zu können. Außerdem wäre so eine Maßnahme bei Games, die kein Schlauchlevel-Design aufweisen nur sehr bedingt sinnig, da schwer exakt reproduzierbar. Find ich halt.

EDIT: Und die betreffende(n) Grafikkarte(n) bräuchte man auch. Was bei der 5870 und der 5970 momentan auch nicht gerade leicht ist (und kostspielig). Eine Veröffentlichung wäre dann faktisch nur eine nette Geste und würde vermutlich nur dazu führen, dass die, die keine Karten haben, wild über irgendetwas spekulieren, was ihrer Meinung nach so oder so auslasten würde usw. . Bashing lässt grüßen.
 
Zuletzt bearbeitet:
Saves? Jeder, der will, kann es reproduzieren - schaden tut das keinesfalls. Bei non-Schlauchlevels schwer exakt reproduzierbar? Man muss nur eine passende Stelle finden und penibel benchen. Ist idR kein Problem.
 
Man muss nur eine passende Stelle finden und penibel benchen. Ist idR kein Problem.

Genaue Bewegungsvorgabe vorausgesetzt, wage ich hinzuzufügen. Ich hab mir das exakte Nachlaufen eines bestimmten Weges zwar immer etwas schwer vorgestellt, aber wenn du das sagst. Allerdings wären diese minimalen Diskrepanzen wohl auch nicht so schlimm, insofern hab ich wohl oben diesbezüglich einen Blödsinn behauptet. Das Kartenproblem bleibt aber trotzdem :-) .
 
@ Athlonscout

How-2 gelesen? :rolleyes: 20 sec mit ~5 sec Vorlauf.

@ Fetter Fettsack

Klar, als GroMo wirds schwierig. Zudem sollte man 3-4 Runs mitteln und wenn die (was idR der Fall ist) gut laufen, hast du eine Streuung von unter 1% (etwa average 40,1 / 40,9 / 40,5/ / 40,3).
 
Zuletzt bearbeitet:
y33H@ schrieb:
Saves? Jeder, der will, kann es reproduzieren - schaden tut das keinesfalls.
Was soll man denn da reproduzieren? Das man bei einem völlig anderen System an Position X 20fps weniger hat, als im Test?

Kasmopaya schrieb:
Kann schon sein das die HD 4890 im Treiber einen Bug hat, das starke einbrechen der HD 5800er bzw. Vorsprung Einbüßerei der neuen Generation wird damit aber nicht geklärt.

Ich sehe z.B. im Fall von Anno nicht, das die 5000er ihren Vorsprung einbüßt, vielmehr das die 4000er auf einmal schneller rendert unter 8xAA, gegenüber 4xAA.
Ich hab keine Ahnung warum das so ist, aber ich wüsste nicht was das mit VRAM oder Bandbreiten Limitierung zu tun haben soll.

Kasmopaya schrieb:
Oh doch. irgend was bremst, PCGH hat auch schon öfters genau solche Ergebnisse mit anderen Titeln unter Vram lastigen Titeln gehabt.(HD 5870 genauso schnell wie GTX 285, also Vorsprung war wieder weg, wo sind also wieder die 30-40% Vorsprung hin?) So leicht kommste nicht davon mein 89er,:D es ist nicht nur die Auflösung sondern auch Titel die extrem Vram lastig sind...

Also wenn ich mir diesen Test von PCGames Hardware so anschau, sehe ich nichts von einer Speicherlimitierung, interessanter weise rendern da die beiden GTX285 unter 2650x auch schneller als unter 1920x. Die 4FPS im Gesammtranking der 2GB zur 1GB GTX entsammen aber auch nur von einigen 0.1-1FPS Unterschieden der jeweiligen Games, und das sind ja wohl eher Messugenauigkeiten. Von einer Limitierung kann hier wohl kaum die Rede sein.

Das irgendwann mit extreme Settings oder gar Modifikationen tatsächlich der VRAM aufgebraucht wird, ist aber keine Hexerei. Jede Hardware kann mit Software bis Ultimo ausgereizt werden, völlig egal ob sie 100 oder 10.000€ gekostet hat. Sowas hat aber auch absolut keine Relevanz, und kann nicht der Beleg dafür sein, sämtliche Karten mit deutlich mehr VRAM oder Bandbreite auszustatten.

Ständig behauptest du, die Entwickler und Ingenieure wären nicht dazu fähig der GPU die nötige Basis mit zu geben. Wer weiss - vielleicht hast du irgendwann nach der tausendsten Behauptung ja einmal recht.

Auf diese Weise ist aber ein jeder ein Wahrsager.
 
Zuletzt bearbeitet:
milamber! schrieb:
Was soll man denn da reproduzieren?
zB mit seinem aktuellen Sys benchen um zu sehen, ob sich eine neue Karte oder CPU lohnt. Vergleichen halt.

Btw: Wo sind in deinem Link zwei GTX285 zu sehen bzw. wo rendert eine schneller unter 1920 als unter 2560? Du hast ein normiertes Ranking verlinkt, in welchem die GTX285 prozentual in 2560 näher an der GTX295 liegt, weil der der Speicher ausgeht.
milamber schrieb:
Die 4FPS im Gesammtranking der 2GB zur 1GB GTX entsammen aber auch nur von einigen 0.1-1FPS Unterschieden der jeweiligen Games, und das sind ja wohl eher Messugenauigkeiten.
Erstens sind das Prozent - keine Fps (!), zweitens ist die 2G etwa in Clear Sky (rechnerisch) gut 30% flotter in 2560 als die 1G. Das sind keine Messungenauigkeiten, zumal mindestens zwei, idR aber 3-4 Runs gemittelt werden, die idR um nur 1% voreinander abweichen.
milamber schrieb:
Von einer Limitierung kann hier wohl kaum die Rede sein.
Richtig, mit schnöden MSAA und ohne Mods limitieren 1G selbst in 2560 selten, mit SSAA oft.
 
Zuletzt bearbeitet:
@y33H@

Euer Video suggeriert mir da eher 14 max 15 sec.

Mir gehts da auch nicht um 5 sec hin oder her. Die Frage ist halt ob solche Kurzsituationen ob nun 14 oder 20 sec wirklich Rückschlüsse auf die wahre Performance aufzeigen.

Bei dem Prozessortest von Volker wurden ja auch die Schwachstellen des Core Architektur bei Anno aufgedeckt, was bei euch mitnichten der Fall ist (wenn ich mir so deine Kommentare auf CB anschaue könnte man fast schon von einer gewollten Verzerrung sprechen).

Ein anderes Beispiel wäre im Grakabereich z.B. GTA IV, wenn bei hohen Einstellungen der VRAM volläuft (geschieht erst nach deutlich über 20 sec.) und es zu einem kurzen VRAM Ruckler kommt. Das wird von solchen halbherzigen Benches leider nicht aufgedeckt und findet bei euch auch keinerlei Erwähnung.
 
@ Athlonscout

Das Video soll die Szene auch nur veranschaulichen und nicht 100% identisch abbilden. Man sollte sich nur auf Suggestion verlassen, sondern das How-2 lesen, bevor man was von 15 sec "behauptet". Zum Thema "was bei euch mitnichten der Fall ist": Wir warten rund 5 sec und dann wird für 20 sec Fraps angeworfen - bei Volker siehts ähnlich aus. Und Volker hat in einer Szene eine Schwachstelle gefunden - wir haben zufällig eine Szene gefunden, in der die i3/i5/i7 herrschen. Die "Wahrheit" liegt in der Mitte. Benches sind nur Momentaufnahmen, mehr nicht. Keine absoluten Aussagen.

Und zum Thema GTA4: Der VRAM läuft auch in 20 sec voll, sobald man den Multi hochdreht. Ist der VRAM voll, kommt es nicht zu kurzen Rucklern, sondern die Fps fallen schlicht auf einstellige Werte. Mit unserem Multi ist dies aber nicht der Fall - kannst es gerne probieren und einen Frameverlauf posten. Du pauschalisierst, der VRAM würde volllaufen - ohne manuell gesetzen Multi ist das selbst auf 512er Karten nicht der Fall. Nur mal so am Rande.

EDIT
PCGH schrieb:
Um das Stream-Sparverhalten von GTA 4 auszuhebeln, benötigen Sie zusätzlich den Parameter "-availablevidmem" in Kombination mit einer Zahl. "-availablevidmem 1.5" (mit einem Punkt, keinem Komma!) suggeriert dem Spiel 50 Prozent mehr verfügbaren Videospeicher, es handelt sich also um einen Multiplikator. Anschließend geht das Spiel beim Datenstreaming nicht mehr so zimperlich vor, mit der Konsequenz, dass mehr Details dargestellt werden, obgleich dabei der lokale Videospeicher überläuft. Dies hat zur Folge, dass die überschüssigen Daten über den PCI-Express in den relativ langsamen Hauptspeicher ausgelagert werden. Unsere Benchmarks auf der folgenden Seite illustrieren den Einbruch.
 
Zuletzt bearbeitet:
y33H@ schrieb:
zB mit seinem aktuellen Sys benchen um zu sehen, ob sich eine neue Karte oder CPU lohnt. Vergleichen halt.
Es ging um die Transparenz, und das 'überprüfen' der Ergebnisse.

Und selbst für den einfachen Vergleich taugt das selbst testen nicht. Oder was soll ich da Vergleichen, wenn ich ne 8800GT mit nem Dual Core Pentium teste, und das dann mit ner 5850 gleichsetze, die von nem 4GHz Quad befeuert wurde?

y33H@ schrieb:
Btw: Wo sind in deinem Link zwei GTX285 zu sehen bzw. wo rendert eine schneller unter 1920 als unter 2560? Du hast ein normiertes Ranking verlinkt, in welchem die GTX285 prozentual in 2560 näher an der GTX295 liegt, weil der der Speicher ausgeht.

Stimmt, mein fehler. Ich bins gewohnt mit mouse over den Vergleichswert auswählen zu können, das hat mich verwirrt (hab mich eh schon gewundert). Ich schaue sonst nie auf PCGames Hardware.
Zwei GTX285 sind da trotzdem im Test vertreten.

y33H@ schrieb:
Erstens sind das Prozent - keine Fps (!), zweitens ist die 2G etwa in Clear Sky (rechnerisch) gut 30% flotter in 2560 als die 1G. Das sind keine Messungenauigkeiten, zumal mindestens zwei, idR aber 3-4 Runs gemittelt werden, die idR um nur 1% voreinander abweichen..

Stimmt, bei Clear Sky sind es wirklich mehr wie nur 1 FPS.
Bei 9 zu 6,8 FPS hätte sich die Anschaffung einer 2GB Karte ja echt rentiert. :D

Du hast mich überzeugt, ich werde in Zukunft das "Mehr VRAM für Grafikkarten"-Banner immer fleißig hoch halten.

y33H@ schrieb:
Richtig, mit schnöden MSAA und ohne Mods limitieren 1G selbst in 2560 selten, mit SSAA oft.

Na, dann weiss ich ja wo ich in Zukunft keine Tests lesen werde, wenn ich mir einen 30" Monitor auf den Schreibtisch gestellt habe. ;)
 
milamber! schrieb:
Zwei GTX285 sind da trotzdem im Test vertreten.
Hmmm, ich kann die im HD5850-Test nicht entdecken. Screenshot?

Wegen dem Vergleichen: Eine HD5850 mit nem fetten QC mit einem DC und einer 88GT zu vergleichen, finde ich recht spannend, zumal sich ab 1680 mit 4x MSAA die CPU oft kaum noch auswirkt bei einer HD5850.
milamber schrieb:
Du hast mich überzeugt, ich werde in Zukunft das "Mehr VRAM für Grafikkarten"-Banner immer fleißig hoch halten.
Statt "unspielbar" nur noch "bedingt unspielbar" *g* Oder höre ich da leicht Ironie, mein Guter? :p
Na, dann weiss ich ja wo ich in Zukunft keine Tests lesen werde, wenn ich mir einen 30" Monitor auf den Schreibtisch gestellt habe.
Naja, SSAA-Tests in 2560 sind *hust* eher unspannend bei aktuellen Titeln. Mit 2x SSAA habe ich mich mit ~40 Fps durch MW2 "gequält" :D
 
y33H@ schrieb:
Wegen dem Vergleichen: Eine HD5850 mit nem fetten QC mit einem DC und einer 88GT zu vergleichen, finde ich recht spannend, zumal sich ab 1680 mit 4x MSAA die CPU oft kaum noch auswirkt bei einer HD5850.
kannst du das etwas näher erklären? Warum wäre das spannend?
 
Weil ein DC mit einer 88GT sehr verbreitet ist und daher ein idealer Ausgangspunkt ist, um auf einen flotten QC und eine HD5850 aufzurüsten :)
 
Wenn mir mir jemand eine 88GT gibt, ich teste gerne ;-) .
 
Zurück
Oben