Test: Prozessoren

Hallo,

naja, ich dachte schon, da gibt es eine neue Seite, die abkupfert.

Aber um mal auf das eigentliche Thema zu kommen:

Wenn neue Hardware getestet wird, dann interessiert mich primär nur ein Punkt, nämlich wie hoch die maximale Leistungsfähigkeit dieser ist. Dann kann ich mir ausrechnen, ob dieser "Mehrwert" eine Neuanschaffung rechtfertigt.
 
Dann frage ich mich doch allen ernstes, warum du sie erwähnt hast, wenn doch vorher explizit von Single-GPUs die Rede war und du dich auf ein Zitat beziehst, dass ausdrücklich nur Single-GPUs anspricht. Du willst offensichtlich dem zitierten Teil mit der 9800 GX2 widersprechen, aber hast dennoch nie fälschlicherweise vorausgesetzt, dass dies auch eine Single-GPU-Karte sei? Also bitte, mir ist schon bewusst wo der Irrtum gelegen haben könnte, aber hier jetzt so zu tun, als ob das alles ja völlig korrekt gewesen, geht dann ja doch etwas zu weit. :D
 
Zuletzt bearbeitet:
Tatsache, ups.

Dennoch bleibt es ungeklärt (bis auf den Verbrauch), warum keine 9800 GX2 genommen wurde, bzw warum keine übertaktete 4870 X2 / GTX 280 / (mehrere der zuvor genannten).
Das beschränken auf Mittelklasse Single GPU Karten ist keine Selbstverständlichkeit. Wolfgangs Erklärung hierfür muss mir auch entgangen sein.
Wenn du mir hier auch noch auf die Sprünge helfen köntest. ;)
 
Zunächst mal macht Volker die CPU-Tests. Er hat auch gesagt, dass die Absicht war typische Umgebungen als Testsystem nachzubilden. Von daher fallen SLI etc. raus und dazu zählen ja auch die Dual-GPU-Karten. Bei der GTX280 kann man sich streiten, aber diese war sowohl preislich, als auch vom Energieverbrauch damals eine ganz eigene Liga. Übertaktet würde das nur noch krasser. Nachdem wie gesagt ja der Energieverbrauch des vorherigen Testsystem als zu Grafikkarten-lastig kritisiert wurde, denke ich hat man sich eher auf eine ausgewogenere Lösung konzentriert.

Generell ist ohnehin die Frage, wie sehr die Ergebnisse der Spieletests denn ausschlaggebend für einen CPU-Test sein sollten. Volker hat auch das bereits angesprochen.

Und um es mal mit dem Test zu sagen:

Der zweite wichtige Punkt ist die neue Grafikkarte. Nachdem wir das komplette letzte Jahr eine nicht gerade stromsparende ATi Radeon HD 2900 XT im Einsatz hatten, setzen wir ab heute auf Nvidias erste (relativ stromsparende) 55-nm-Lösung im High-End-Segment, die GeForce 9800 GTX+. Ein wichtiger Grund für die Auswahl ist schlichtweg, dass die Karte aktuell nicht mehr benötigt wird, aber auch die Konstellation aus hoher Performance bei annehmbarer Leistungsaufnahme und relativ geringen Temperaturen unter Volllast haben dieses Modell ins Spiel gebracht.

https://www.computerbase.de/2008-11...reme-edition/7/#abschnitt_das_neue_testsystem

Das ist übrigens die Seite die du weiter oben selber verlinkt hattest.
 
Ich sehe das erste mal überhaupt etwas so wie Unyu - Die viel zu schwache Grafikkarte bei den CPU-Tests versaut so einiges.

Bei den Grafikkartentests verwendet ihr auch keinen E8400, nur weil der QX9750 viel mehr Strom verbraucht und ihr ihn gerade eben irgendwo rumliegen habt. Ein CPU-Test ist imho nur ein CPU-Test, wenn eben diese auch limitiert, genauso wie es auch mit Grafikkarten gemacht wird. Was ich mindestens genauso dämlich finde ist, dass im 3DMark Vantage-Test Nvidia GPU-PhysX aktiviert ist.... Das verstehe ich nicht und werde ich nicht verstehen. 3/4 der Punkte dort kommen von der GPU, was hat das bitteschön in einem CPU-Test zu suchen?? Ganz nebenbei ist eine GTX+ erst nach dem Release von GT200 und RV770 erschienen, also kann man das Datum der Tests nicht als "Ausrede" nutzen. Die GTX+ ist nur gekommen, weil die normale HD4850 von ATI schneller und günstiger, als eine 9800GTX war und sonst Nvidia keine Konkurrenz gewesen wäre. Genau deshalb ist NACH dem Release der ATI-HD48x0 Karten (Welche selbst 1 Woche nach dem GT200 released wurden) die 9800GTX+ erschienen. Ihr schreibt selbst, dass ihr in Zukunft mehr unter 640 und 800 Benchen wollt, damit die CPU limitiert. Warum baut ihr dann nicht einfach ne GTX-285 ein? Da würde die CPU unter Garantie wesentlich früher limitieren, weil die GTX-285 im Vergleich mit ner GTX+ garantiert 50% schneller ist.

Außerdem verbraucht die GTX-2x0 Serie nur unter Last mehr Strom, als die GTX+, insbesondere im Idle verbraucht der GT200 um einiges weniger. Der Preis spielte zwar in einer anderen Liga, aber dann müstet ihr beim GPU-Test auch maximal nen Q9550 nehmen, weil der QX9770 kostet über 1000€

Versteht das jetzt bitte nicht als Flame, eure Tests sind weiterhin sehr gut und vor allem das Design erreicht eine unübertroffene Übersicht. Aber wenn ihr einige Kleinigkeiten an euren Tests verändern würdet, wäret ihr noch besser. Was haltet ihr von einem Großen CPU-Test nach Release der i5 Prozessoren, der ähnlich wie der GPU-Test Ende 2008 aussieht? Also mit einem gescheiten Testsystem, wo ausschließlich die CPU bremst - Damit meine ich ne GTX-285 (bzw. nen RV870/GT300, sofern bereits Released) und 6GB/8GB RAM sowie deaktiviertes PhysX bei 3DMark Vantage.
Denn bei nem CPU-Test interessiert mich weder ne RAM-Limitierung, noch ne Grafikkartenlimitierung.
 
Zuletzt bearbeitet:
Das PhysX-Thema wurde dir doch bereits erklärt, warum trägst du es hier wieder rein? Und wenn du das Zitat zum Thema Grafikkarte nicht liest, auch nicht mein Bier.

Weiterhin solltest du auch die CPU-Tests erstmal lesen:
Das Gesamtrating setzt sich schlussendlich nur aus dem Bereichen Office, Multimedia und den Spielen zusammen. Da die theoretischen Tests wie 3DMark, Cinebench, Sandra und die Errechnung der Zahl Pi keine direkte Aussage über die Performance im Alltag zulassen, kann man mit diesen Werten auch kein objektives Ergebnis finden.

Alle CPUs haben dort zudem die gleich Voraussetzung, weil immer die gleiche Karte verwendet wird, also was soll es denn bitte? Oder spielt es irgendeine Rolle, wie lang der Balken ist?

Und inwiefern siehst du in den Standardtest jetzt ein Problem? Tatsache ist, dass z.b. Crysis bei HT4U auch mit einer GTX285 im Alltagstest völlig gleiche Ergebnisse über die CPU-Palette hinweg bringt: http://ht4u.net/reviews/2009/amd_phenom2_955/index34.php

Was genau limitiert jetzt was? Es sei auch angemerkt, dass hier die CPU-Test mit 1280x1024 gemacht werden. Das dürfte sich also bei den Alltagstest in etwas wieder ausgleichen. Die Karte wird ja nicht übermäßig in Anspruch genommen. All das könnte man auch selber aus den Test rausfiltern, insofern verstehe, dass ich langsam kein Verständnis mehr für so manche Aussage habe.

Versteh auch du mich nicht falsch. Kritik ist ja erwünscht, aber unter alltäglichen Auflösungen ein reines CPU-Limit zu erzeugen wird schwer. Deswegen wird ja auch und wohl wieder vermehrt in sehr niedrigen Auflösungen gestest. Viel hilft viel ist leider nicht immer die Lösung.

PS: Vielleicht sollte ich noch anmerken, dass auch ich nur interessierter Beobachter bin, von daher nichts davon unbedingt Meinung der Redaktion sein muss oder den tatsächlichen Ursachen entsprechen muss. ;)
 
Zuletzt bearbeitet:
Das können hier Moderatoren drehen und wenden wie sie wollen, aber ich stimme eXEC-XTX in allen Punkten voll und ganz zu.
Zumal direkt auf Crysis zu verlinken ein schlechter Witz sein soll, oder? DAs ist so ziemlichd as GPU limitierenste Spiel am Markt. Ledier habt ihr nicht die selben Spiele getestet, aber Far Cry 2 zeigt hier schon recht große Unterschiede. Schade das HT4U hier nur CPU gebencht hat die so oder so nahe beinander liegen und keine X2 Modelle mit dabei sind.
Im übrigen, wenn ich mir den Grid Benchmark bei euch ansehe wird überdeutlich wie klar die GPU hier limitiert. Wenn ich meinen Q6600 auf 2,4Ghz laufen lasse habe ich mit der 4870 1GB bei Grid deutlich weniger Fps als mit 3Ghz. Der Test ist völlig fürn Poppo. Wenn ihr das nicht einseht weiß ich auch nicht weiter. Dann muss manhier ja ziemlich starrsinnig sein
Ich will aber hier nochmal meinerseits betonen as es mir rein um die Spiele geht. Die Benchmark mit den Anwendungen sind sehr gut.

Macht doch einfach mal eine Umfrage hier, dannwerdet ihr sehen das viele der gleichen Meinung sind.

Mal unabhängig davon, wäre es vielleicht auch Sinnvoll ein paar richtig CPU limitierende Spieel ins Programm auf zu nehmen.
 
Ja Moment, wenn Crysis das GPU-limitiertste Spiel schlechthin ist, wieso wird es dann bei HT4U auch in den Test aufgenommen? Wenn dort doch angeblich darauf geachtet wird, um jeden Preis genau das GPU-Limit zu vermeiden.

Aber keine Bange, gibt ja noch mehr Vergleichstests dort: http://ht4u.net/reviews/2009/athlon_250_phenom_550/index32.php

Und ich halte die HT4U Tests für super, aber sagt mir mal, wo jetzt der so schrecklich verfälschende Unterschied ist? Ja CB verwendet eine schwächere Grafikkarte. Und? Es kommen die gleichen Ergebnisse beim Test raus. Es verfälscht also keineswegs das Ergebnis. Außer dass ihr eure Konfig nicht 1:1 mit der aus dem Test vergleichen könnt.

Oder hier FarCry 2 vs FarCry 2: http://ht4u.net/reviews/2009/athlon_250_phenom_550/index29.php
https://www.computerbase.de/2009-04...und-955-black-edition/26/#abschnitt_far_cry_2
https://www.computerbase.de/2009-04...und-955-black-edition/19/#abschnitt_far_cry_2

Persönlich seh ich ja beim CB Test ja keine andere Limitierung als bei dem von HT4U.
 
Zuletzt bearbeitet:
Und wieder Crysis verlinkt, und wer hat behauptet das HT4U darauf speziell achtet kein GPU-Limit zu erzeugen.

Und ich weiß nicht wo du gleiche Ergebnisse siehst. Zumal ihr unterschiedlich testet, mit größtenteils unterschiedlichen Spielen.
 
@HappyMutant: Das mit 3DMark Vantage ärgert mich fürchterlich, weil ich den 3DMark CPU-Test sehr aussagekräftig finde. Dort wird genau angezeigt, wie viel bei einer Ordentlichen Optimierung ein CPU skaliert und es skaliert hier so ziemlich alles, vom FSB zum Cache zu Takt zu Kernen. Mich interessiert dieser Score sehr, aber mit dem dämlichen GPU-PhysX vernichtet ihr jede Aussagekraft. Ob der Wert in das Gesamtrating einfließt ist doch hier völlig irrelevant?! Mich interessiert der CPU-Score von 3DMark Vantage. Und kein dreckiges PhysX.

Wie es Eon bereits nannte ist Crysis DAS GPU-Spiel auf dem Markt. Wie wärs mal mit z.B. "The Witcher"? Hier limitiert selbst mein i7 bei 3,5Ghz! Das ist zwar auch nur wegen Fehlendem Multicore Support, aber ich find dieses Spiel passt sehr gut in einen CPU-Test. GTA4 wäre auch ein hervoragendes Game für einen CPU-Test, genauso wie Empire Total War. Das alles sind Games, die von der CPU limtiert werden. Man muss ja nicht ausschließlich solche Games nutzen, aber eine saubere Mischung wäre wünschenswert. Es gibt mittlerweilen so viele Spiele, für die ein DualCore nicht mehr reicht, man sollte zumindest ein paar Quad-Unterstützte spiele in den Parkour einbauen. Mal ein paar Beispiele:

- Riddick Assault on Dark Athena (Benötigt sowohl CPU als auch GPU)
- Empire Total War (Sehr CPU-Lastig)
- GTA4 (Quad fast doppelt so schnell wie Dualcore)
- The Witcher
- ArmA-2 (Benötigt sowohl extrem CPU als auch GPU)
- Prototype

Überhaupt fällt mir eines auf - Alle aktuellen Games, die von der PCGH getestet werden profitieren stark von Quad-CPUs. Multicoresupport ist mittlerweilen zwar nicht Standard, aber zumindest eingependelt und daher sollte man auch den Benchmarkparkour erneuern und eine ordentliche Grafikkarte sowie mehr RAM für Dualchannel-Systeme nutzen.
 
Zuletzt bearbeitet:
@: Ich spreche schon vom Fazit am Ende eines Tests.Also das gerade was nicht nur aus dem zusammenrechnen von Balken besteht. Kommen da ganz andere Sieger zustande?

Und ich habe ja extra FarCry 2 verlinkt. Weder hier noch da GPU-limitiert imn niediriger Auflösung, dafür hier und da limitiert im Alltagstest. Während Crysis auch hier und da GPU-limitiert ist. Sollte es also eben doch so sein, dass es nicht primär darauf ankommt, wie dick die Grafikkarte ist, sondern wie man eben testet? Das es auch auf den Mix ankommt?

Nun ja und ich schloss aus der Aussage, dass HT4U bessere Tests veröffentlicht und der Kritik hier, dass es vorallem die Grafikkarte hier versaut, dass HT4U an diesem Punkt es anders macht. Daraufhin zeigt ich auf, dass die Unterschiede nicht so gewaltig sind.

@eXEC-XTX: Ja aber was ändert den PhysX konkret an dem Verhältnis? Das ergebnis wird doch überhaupt nicht verfälscht, da alle die gleichen Voraussetzungen haben.

GTA 4 wäre ein ganz furchtbares Spiel für CPU-Tests, da gerade da stabile Ergebnisse selten zustande kommen und obwohl es mit den Kernen skaliert. Es skaliert zudem teils völlig unnachvollziehbar. Einerseits kein RAM-Limit haben wollen, dann aber GTA 4 vorschlagen, was im PCGH Test wirklich absurd empfindlich auf die Latenzen und die Menge reagiert: http://www.pcgameshardware.de/aid,6...raxistest-Vorteile-bei-GTA-4/CPU/Test/?page=2
 
Zuletzt bearbeitet:
HappyMutant schrieb:
Auch war es nicht so, dass die 9800GTX+ damals die schnellste war, sondern eine der schnellsten
Dem möchte ich widersprechen. Eine der schnellsten? Schneller waren/sind GTX260-192, GTX 260-216, GTX 280 und einigen Fällen auch 8800 GTX/Ultra. Macht im Worst-Case fünf Modelle, die flotter sind - von "eine der schnellsten" zu sprechen, finde ich n bissl gewagt ;)
HappyMutant schrieb:
Vorher wurde halt dafür der Stromverbrauch des Gesamtsystems regelmäßig massiv angegriffen, weil die Grafikkarte eine verhältnismäßigen hohen Anteil daran hatte.
Wer kritisiert das? Der einzige Nachteil ist der absolut höhere Verbrauch, mehr nicht. Unabhängig von der Grafikkarte benötigt CPU X so oder so mehr/weniger Strom als CPU Y :freak:
HappyMutant schrieb:
Die Karte wird ja nicht übermäßig in Anspruch genommen.
Das ist korrekt. Aufgrund von nur 512M wird die GTX+ aber in ihrer Rohpower eingebremst.
[...] unter alltäglichen Auflösungen ein reines CPU-Limit [Anmerkung: in Spielen] zu erzeugen wird schwer
idR schon, da man die Optik samt Auflösung und AA/AF hochtreibt. Spiele wie GTA4, Empire oder aktuell Prototype aber plätten die CPU - es gibt immer wieder Titel, die (bedingt, nicht absolut) ein CPU-erzeugen.

Ich persönlich kritisiere nur, dass man für die Grafikkarten-Spiele-Benches (!) einen 4,0-GHz-Yorkie nimmt, der alles in den Schatten stellt, was man kaufen kann (idR auch den 975 XE), für die CPU-Spiele-Benches (!) aber eine Midrange-Karte mit (zu) wenig Speicher. Andererseits ist es recht spannend, wann die GTX+ limitiert - nur fände ich das in einem eigenen Artikel besser und nicht in einem CPU-Test. 800 x 600 verfälscht das Bild teils, da NV offenbar auf höhere Settings optimiert; 1.024 x 768 ist oft flotter.

Ansonsten - CB, weiter wie gehabt :)
 
y33H@ schrieb:
@eXEC-XTX: Ja aber was ändert den PhysX konkret an dem Verhältnis? Das ergebnis wird doch überhaupt nicht verfälscht, da alle die gleichen Voraussetzungen haben.
Was ist hier schwer zu verstehen? Der PhysX-Enabled Score ist 75% von der GPU abhängig. Mich interessiert die GPU in nem CPU-Test nicht, ich will wissen, wie gut sich die CPU alleine schlägt. Die Skalierung ist ohne PhysX eine völlig andere. Dort hätte ein Q9650 locker 50% mehr Power, als ein E8400. Mit PhysX sind es gerademal etwa 20%.... Das Ergebnis wird völlig stumpfsinnig verfälscht.


y33H@ schrieb:
Ich persönlich kritisiere nur, dass man für die Grafikkarten-Spiele-Benches (!) einen 4,0-GHz-Yorkie nimmt, der alles in den Schatten stellt, was man kaufen kann (idR auch den 975 XE), für die CPU-Spiele-Benches (!) aber eine Midrange-Karte mit (zu) wenig Speicher. Andererseits ist es recht spannend, wann die GTX+ limitiert - nur fände ich das in einem eigenen Artikel besser und nicht in einem CPU-Test. 800 x 600 verfälscht das Bild teils, da NV offenbar auf höhere Settings optimiert; 1.024 x 768 ist oft flotter.

Dem schließe ich mich an

Nochwas: Der Gesamtverbrauch des Systems (Strom) würde durch eine GTX-285 sogar sinken im Vergleich zur GTX+! Denn man ermittelt dort ja die Temperaturen mit Prime und im Idle, d.h. die GPU hat zu beiden Testzeitpunkten den Idle-Status und verbraucht sogar WENIGER als eine GTX+
 
Zuletzt bearbeitet:
eXEC-XTX schrieb:
Mich interessiert die GPU in nem CPU-Test nicht, ich will wissen, wie gut sich die CPU alleine schlägt.
Das ist freilich was anderes. Je länger der Balken, desto geringer die prozentualen Unterschiede.
 
y33H@ schrieb:
Macht im Worst-Case fünf Modelle, die flotter sind - von "eine der schnellsten" zu sprechen, finde ich n bissl gewagt ;)

Okay dann halt eine der "schnelleren". Die GTX260-216 gab es zu dem Zeitpunkt der Planung noch nicht, die 8800GTX müsste man schon als gleich schnell bezeichnen und wenn ihr mal das Zitat lesen würdet: Die gewählte Karte war nun mal dauerhaft verfügbar.

Wer kritisiert das?

Lies dir die Kommentare zum alten Testsystem durch. Auch da konnte man gegen Wände reden.

Ich betone nochmal, ich habe und ich will gar nicht Einblcik in alles haben. Ich sehe was getestet wird und was dazu in den Test gesagt wird. Aber selbst das wird hier ständig übergangen. Und Begründungen muss man auch erstmal aus der Nase zeihen. Okay, PhysX verfälscht also den CPU-Score. Kann ich nichts zu sagen, aber schön, dass man es mal erfährt, das es so sein soll. Spitze wären da natürlich noch Belege.

Was ich aber immer noch nicht verstanden habe, wo der qualitative Unterschiedzwischen HT4U-Test und CB-Test bei den Benchmarks ist.

Und verdammt eXEC-XTX, weder gab es GTA 4 zu dem Zeitpunkt noch eine GTX 285 und wenn das erklärte Ziel ist, dass Testsystem vergleichbar zu halten, können nicht ständig die Bestandteile gewechselt werden. Überhaupt schlägst du Spiele vor, die teilweise derart bugy sind, das ich hier direkt den nächsten Beschwerde-Thread aufmachen könnte, weil da die Vergleichbarkeit völlig zu recht in Zweifel gezogen wird.
 
Zuletzt bearbeitet:
Bei HT4U sieht man bei anderen Spielen die Unterscheide deutlicher. Allerdigns haben diese auch mittlerweile nur noch veraltet Spiele im Testprogramm. Sie haben ebenfalls nachgelassen.

Im ggrunde wird es schlichtweg Zeit neue Spiele und eine stärkere Grafikkarte in euer Programm aufzunehmen da das jetzige Setup schlichtweg keine Aussagekraft mehr hat.

Und das was übergehen betrifft, Argumente und klare Aussagen wie das Beispiel Grid werden schlchtweg übergangen und gar nicht erst kommentiert.
 
@Mutant: Deine Beweise bekommst du. Ich bin gerade dabei einmal den 3dM Vantage CPU-Test mit 2 und mit 4 Kernen und danach das Gleiche ohne PhysX durchzuführen, dann hast du deinen Beweiß.
Das es die 285 nicht gab ist zwar okay, aber dann nimmt man halt die 280, so schwer zu verstehen? ArmA2 ist das einzige buggy Spiel, bleiben noch

- Riddick Assault on Dark Athena (Benötigt sowohl CPU als auch GPU)
- Empire Total War (Sehr CPU-Lastig)
- GTA4 (Quad fast doppelt so schnell wie Dualcore)
- The Witcher
- Prototype
 
HappyMutant schrieb:
Auch da konnte man gegen Wände reden.
Wie so oft :( Nu ja ...
HappyMutant schrieb:
und wenn ihr mal das Zitat lesen würdet: Die gewählte Karte war nun mal dauerhaft verfügbar.
Wäre (!) ich ketzerisch, würde ich nun fragen: Wie gut ist denn ein 4,0-GHz-Yorkie dauerhaft verfügbar *scnr* Aber das tue ich nicht. Und wenn, dann müsste ich es Volker fragen. Dafür trete ich aber nicht hier den Thread breit.
 
Zurück
Oben