News Test von 131 aktuellen Prozessoren

R-47 schrieb:
Bitte beachten das der Screenshot mit dem i5 mit einer GTX 295 anstatt einer GTX 280 wie beim E6600 durchgeführt wurde..

Die Szene ist absolut CPU-limitiert (in einem anderen Forum gibt's einen 20 Seiten langen Thread mit dutzenden Testern dieser Szene). Du kannst da eine X1800 XT reinsetzen und kriegst exakt die gleichen FPS.
Ergänzung ()

Ich zitiere mal noch mal aus einem Review vom 3DCenter.

Far Cry 2 ist ein nahezu perfektes Beispiel dafür, wie sehr Timedemo-Benchmarks ohne große CPU-Belastung doch die Realität verfälschen und ein Spiel irrtümlicherweise in die Ecke der Grafikkarten-Limitierung stellen können. Zwar ist der üblicherweise eingesetzte Ranch-Benchmark nicht einmal ein Timedemo, da die Spiel-K.I. auch bei diesem weiterhin mitläuft. Allerdings passieren hierbei keine Aktionen, welche die Spiel-K.I. dazu bewegen, größere Berechnungen auszulösen. Demzufolge schlummert die Spiel-K.I. in diesem Test eher vor sich hin als daß sie wirklich aktiv wird.

http://www.3dcenter.org/artikel/intel-core-i5-750-lynnfield-review/benchmarks-far-cry-2

Vergleiche dazu den Test von CB, wo fast sämtliche CPUs gleichauf liegen: https://www.computerbase.de/artikel...i7-870-test.1077/seite-23#abschnitt_far_cry_2 Das ist in der Realität (1680 x 1050, 4x AA, Ultra High Quality) eben NICHT so. Ein i5-750 ist 18 % schneller als ein Q9550. Bei CB liegt die Differenz bei 0.
 
Feyn schrieb:
Die Szene ist absolut CPU-limitiert (in einem anderen Forum gibt's einen 20 Seiten langen Thread mit dutzenden Testern dieser Szene). Du kannst da eine X1800 XT reinsetzen und kriegst exakt die gleichen FPS.


Naja, ganz so ist es nicht. Bei entsprechend schneller CPU und Qualitätssettings geht die Karte in die Knie. Aber in dem Fall spielts natürlich keine Rolle.

Aber ich versteh nicht was hier manche so auf die bösen, praxisfernen Benchmarks rumreiten. Man bekommt diese Ergebnisse genauso in "praxisnahen" Benchmarks hin, in sagen wir üblicher Auflösung von 1680x1050. Einige scheinen echt noch nichts von Simulationen gehört zu haben oder kennen keine Spiele, die einfach nur nach CPU Leistung schreien. Im übrigen kommt es auch drauf an wie man testet.

GTA4, Arma2, The Witcher Enhancement, Tropico 3, GTR2, X3 Terran Conflict oder sicherlich auch Rollenspiele, selbst teilweise ältere wie Gothic 3 und Oblivion (siehe Beispiel oben). Oder Grand Prix 4, ein 7 Jahre altes Spiel. Startet da mal im Regen von hinten, da ist selbst ein i5 noch nicht ausreichend schnell. Nur ein paar Beispiele. Das testet natürlich kaum einer, von save games ganz zu schweigen. Logisch das in Stalker die CPU salopp gesagt keine Rolle spielt. Mit einer entsprechend schnellen GPU wird das CPU Limit nach hinten gesetzt. Wenn mit einer 9800 GTX keine Unterschiede sichtbar sind, muss das nicht für eine HD5870 gelten. Lobenswert zu erwähnen ist die PCGH. Man kann dort die savegames runterladen und die gleiche Szene benchen. Eine timedemo erzeugt meist nie die gleiche Last wie im Spiel selber. Das wäre praxisfern. Aber ich bin mir sicher, dass man nächstes Jahr, wenn das neue Testsystem bereit ist, auf CB mehr Unterschiede sehen wird. Auch wenn CB nicht den großen Anspruch hat.
 
Zuletzt bearbeitet:
Wir halten also fest,es gibt Leute die wollen einfach nicht verstehen,warum man einen Cpu Test nicht Grafikkarten limitieren darf.Obwohl ihnen von dutzenden anderen Testseiten(CB jetzt mal aussen vor gelassen) die Wahrheit förmlich entgegenspringt.

Es wurden hier ja nun mit der französischen Seite eingeschlossen schon so einige präsentiert,mitunter auch 3D Center.Aber selbst das wird für die unverbesserlichen hier nicht ausreichen,selbst wenn man ihnen noch tausend andere Seiten präsentieren würde.Weil sie entweder gar nicht über das Gesagte nachgedacht haben aus Sturheit oder einfach Angst haben das die Firma der sie die Treue halten auf einmal ganz schlecht darstehen würde wenn sie jetzt von ihrem Glauben abweichen würden.


Und bevor die Aussage wieder hochkommt nein ich bin kein "Intelfanboy" oder "AMD Hasser"auch wenn ich nun einen Core i7 im Rechner habe,war es früher wer sollte es meinen,ach du Schreck:freak: ein Athlon FX aus dem Hause AMD.

Nun ratet mal warum es damals ein Athlon FX war,na die Realisten werden es wissen,weil er zum damaligen Zeitpunkt die bessere Leistung bot,als die Konkurenz von Intel.

Und ja selbst damals hat meiner einer an realitätsnahen (für die Unverbesserlichen natürlich realitätsfremden)CPUTests,die Kaufentscheidung für die CPU fest gemacht u das sind nunmal nicht die Mumpitz Tests in denen ich sehe das alle Prozessoren egal welcher Güteklasse die selben Fps hervorbringen bei 2000er Auflösungen,nur weil die Grafikkarte von heute sagt "nöh ich will nicht mehr mitspielen".
Nein es waren die Tests in denen der CPU die Schweissperlen über den Heatspreader gelaufen sind u sie bippernd um Gnade winzelte u dazu gehören nunmal auch wenn es einige immer noch nicht kappiere mögen,Tests in niedrigen Auflösungen in denen die Grafikkarte kein Sterbenswörtchen mehr Einfluss nimmt auf das Endergebniss.

So Flaschen leer ich habe fertig:freaky:
 
Man kann auch in "normalen" Spieleauflösungen benchnen, das ist nicht die Frage. Die PCGH macht das doch auch. Auch da setzen sich schnellere CPUs von den langsameren ab. Natürlich kommt es drauf an wie man testet (save games, timedemos, wie anspruchsvoll die rausgesuchte Szene), mit welcher Grafikkarte und vor allem welche Spiele. Ich hatte schon ein paar aufgezählt. Anno 1404 hätte auch noch erwähnen können.
 
scully1234 schrieb:
Wir halten also fest,es gibt Leute die wollen einfach nicht verstehen,warum man einen Cpu Test nicht Grafikkarten limitieren darf.Obwohl ihnen von dutzenden anderen Testseiten(CB jetzt mal aussen vor gelassen) die Wahrheit förmlich entgegenspringt.
Absurd, denn in Grafikkartentests meckert niemand, das die Grafikkarte zu sehr limitiert.

Schaffe89 schrieb:
Nunja, die ergebnisse ähneln denen von CB aber enorm, also war das schimpfen auf die Grafikkarte wohl doch nicht so berechtigt.
Die Performance eines Phenom 965BE´s ist halt sogut wie gleich wie die Performance eines i5 750, auch wenn ne stärkere Graka eingesetzt wird als ne 9800gtx. Da hat sich nicht sonderlich viel drann geändert, als beim CB Test.
Ich weiss nicht welches Rating du meinst.

Du stellst jetzt den test als Warheit schlechthin dar um CB schlecht zu reden, obwohl die Ergebnisse auch nicht viel anders sind.
Dafür wahren auch die Realitätsfernen Benches bei CB da. Die Warheit lag wohl irgendwo zwischendrinn.
Crysis bei Hardware.fr sieht leider bei 30 FPS absolut GPU limitiert aus. Dennoch erkennt man doch recht gut, das die Pentium D bei 10 FPS stehen, meinst du nicht?
Bei CB ist das GPU Limit ein Stückchen höher. Es sieht so aus als ob alle CPUs locker ausreichen. Hardware.fr beweist das Gegenteil.

Als nächstes kommen von dir Forderungen nach einer HD5970, damit man sieht wie viel schneller ein CPU ist.^^
Bestimmt nicht, AFR verfälscht mit der höheren CPU Last das Ergebnis. Warst du nicht der, der im 5970er Artikelfred nach einer schnelleren CPU gerufen hat?

Außerdem, mit den richtigen Einstellungen, Situationen, Titeln reicht auch eine 9800 GTX+ mit einem Vorkriegstreiber.

aspro schrieb:
Meine Güte, kannst du mal aufhören in jedem zweiten Post auf deinen Timedemos rumzureiten? Es wird langweilig.
Kommt davon, wenn mir jemand etwas von "realitätsfern" erzählt und gleichzeitig auf CBs Benches zeigt.

Dir haben CBs "realitätsnahe" Einstellungen gefallen, ich habe dir nahe gelegt das sie nicht "realitätsnah" sondern "praxisfern" sind.

Darum gehts auch nicht, sondern schlicht und einfach um realitätsferne 800x600 vs. reale Auflösungen und ich finde beide Testmethoden haben ihre Daseinsberechtigung. Und jetzt darfst du mir nochmal ohne das Wort 'Timedemo' erklären, wieso zweiteres nichts aussagen soll.
Mit dem richtigen Tester kann auch eine "praxisnahe" Auflösung verwendet werden. http://www.3dcenter.org/artikel/intel-core-i5-750-lynnfield-review
Am Ergebnis ändert sich nichts, ausser das der Tester mehr Arbeit hat.

Du kannst mir dafür mal erklären, was an hohen FPS Zahlen im GPU Limit toll ist. Bekanntermassen gibt es forderndere Situationen als bei CB. Findest du es interessant die 60 bzw 200 FPS bei CB zu beobachten, während es im selben Titel Situationen mit weit weniger FPS ergeben?

Dann will ich dich nicht aufhalten, schnapp dir der Pentium D805 und ab gehts.

Woher willst du überhaupt wissen, dass die nicht auch Timedemos verwenden? Bei Crysis steht sogar explizit da, dass sie den integrierten CPU Test verwenden. Bei den anderen nichts bestimmtes. Oder hab ich was überlesen?
Google Übersetzung sagt zu Anno: "Wir verwenden ein Backup mit einer Stadt von 46 600 Menschen, die wir zum Teil sichtbar aus einer Fernsicht."
Crysis ist so eine Sache, wenn es eine Timedemo ist, ist sie schonmal deutlich besser als CBs.
 
Zuletzt bearbeitet:
Hallo,

ich habe hier kurz die Diskussion über die Speileauflösung bei CPU Benchmarks überflogen.

Irgendwie kann ich nicht verstehen, wie es überhaupt zu einer Diskussion kommen kann.

Es geht in einem CPU-Benchmark darum die Leistung der CPU auf zu Zeigen oder?
Ich hab da mal ein Bild gebastelt :lol:

325326-Beispiel_T.jpeg


Die maximale Leistung der CPU ist bei 100% Auslastung gegeben.

Bei Test 1 kann man diese nicht erreichen, da die GPU vorher ans Limit stößt. Somit ist es unmöglich die maximale Leistungsfähigkeit der CPU zu testen.

Bei Test 2 ist die GPU nicht Ausgelastet und somit die CPU-Leistungsgrenze messbar.

Alles andere gehört in die Rubrik Kaufempfehlung, Preis/Leistung, Fazit usw. Aber nicht in einen Benchmark!

Wenn also gefragt ist, welche CPU ist am leistungsfähigsten kann es nur diese eine art zu benchmarken geben, nämlich ohne andere limitierende Elemente. Da gibt es doch auch nix zu diskutieren??! :confused_alt:
 
Zuletzt bearbeitet:
Und warum schneiden dann die AMDs bzw. die Q9000er bei GPU-Limits bis zu 10% besser ab als die Core i7 ?
Woran liegt das ??
 
low settings sind für cpu nicht aussagekräftig, da die cpu auch auf high gefordert wird.
sie unterstützt ja die grafikkarte, oder was sagt ihr zum skandal des intel igp und 3dmark?
 
Die Behauptung, es sei mit 800*600 und LOW-Settings getestet worden, wurde zwar schon auf einer der ersten Seiten richtig gestellt. Aber es liest es offenbar niemand.

Afin de mettre en évidence au maximum les écarts lié au processeur, nous mettons toutes les options graphiques au maximum histoire de le charger plus que de raison, tout en limitant la résolution à 800*600 afin d’éliminer un éventuel lissage par la puissance de la solution mono-GPU utilisée sur la configuration de test. (p.1)
Deutsch (Hervorhebung von mir): Um den grösstmöglichen Abstand zwischen den Prozessoren zu zeigen, setzen wir alle grafischen Einstellungen auf das Maximum (...), limitieren gleichzeitig aber die Auflösung auf 800*600, um eine allfällige Verfälschung der Resultate zu vermeiden, die sich aufgrund der Einzel-GPU des Tests ergeben könnte.

Weiter hinten (p.12) zeigt sich, dass sich die Jungs sehr exakt überlegt haben, was sie tun, um die Leistungsfähigkeit der CPUs (und eben NICHTS ANDERES) zu messen:
GTA IV fait parti de nos tests du fait de sa lourdeur ainsi que de ses optimisations multithread. Encore une fois tous les détails sont poussés au maximum, exception faite des textures pour ne pas dépasser la mémoire vidéo disponible, le tout en 800*600.
Deutsch: GTA IV gehört zu unserem Testprogramm einerseits wegen seiner hohen Anforderungen (=an die Hardware), anderseits wegen seiner Multithread-Optimierungen. Wie gehabt sind alle Details auf Maximum gestellt, mit Ausnahme der Texturen, weil wir nicht das Limit des Grafikkartenspeichers überschreiten wollten, das Ganze auf 800*600.

Offensichtlich sind das nicht Einstellungen für die Spielepraxis, sondern eben Parameter zur Eliminierung von Nebeneffekten, die die Messung der reinen Prozessorleistung beeinflussen bzw. verfälschen könnten. Deshalb wird in Arma 2 die Sichtweite auch auf 10 Kilometer gesetzt oder in Anno 1404 ein Save mit einer Totalen einer Siedlung mit 46 600 Einwohnern in maximalen Details, aber minimaler Auflösung, getestet.

Ich bilde mir jetzt nicht ein, diese Übersetzungen brächten irgend jemanden von vorgefassten Meinungen ab :D Sie mögen demjenigen helfen, der mitdenken möchte, aber durch die falschen Behauptungen auf den vorderen Seiten über "Praxistest" etc. verunsichert ist.

Fazit: Es ging beim Test um den Vergleich der Leistungsfähigkeit von CPUs, nicht um den Vergleich der Spieleleistung von CPUs.
 
kann mir jemand erklären, warum die i7 beim computerbase test bei crysis hinter den phenom II liegen, im realitätsfernen test allerdings deutlich davor? wieso sind die in der hohen grafik schlechter?
 
Schuhmi86 schrieb:
kann mir jemand erklären, warum die i7 beim computerbase test bei crysis hinter den phenom II liegen, im realitätsfernen test allerdings deutlich davor? wieso sind die in der hohen grafik schlechter?


Die sind da nicht schlechter, schau mal genau hin.
 
Es ist völlig egal ob AMD nun bei Spielen 5% oder 10% oder 15% schneller/langsamer ist als ein Core i7 im overallrating und in wichtigen Indsturiebenchmarks liegt AMD ganz klar hinten. Wäre es tatsächlich so, das AMD z.B. mit seinem 965er nur 2 oder 3% hinter dem Core i7 975 EE liegen würde, dann würde diese CPU keine 150€ kosten, sondern im Vergleich zum Core i7 975 EE vielleicht nur 100€ billiger sein, also so etwas um 700€ bis 800€ kosten, joa AMD will nämlich auch Kohle verdienen. Nur leider wird man keinem OEM diese CPU für 700€ oder 800€ andrehen können, da die Differenz in der Leistung zu gross ist.
Hinzu kommt noch die Qualität der Chipsätze usw. und die ist bei Intel deutlich besser.
 
-=Azrael=- schrieb:
Hinzu kommt noch die Qualität der Chipsätze usw. und die ist bei Intel deutlich besser.

Unter welchen Gesichtspunkten?
 
Insbesondere die Stabilität und die Performance des Raid/AHCI Controllers ist bei Intel deutlich besser. Schwierigkeiten wie ich sie unter AMD/Nvidia/VIA Chipsätzen hatte, hatte ich bei Intel nie.
Die selben HDD's erreichen z.B. bei meinen X58 bis zu 20MB/S mehr als bei meinen alten 780g oder bei jetzigen nforce720a. Insbesondere bei sehr grossen oder vielen kleinen Daten bricht die Performance derbe ein, bei 720a sogar soweit das der Rechner kurzzeitig freezt, inbesondere wenn man von USB auf SATA bzw. eSATA kopiert oder umgekehrt. Beim 780g wurde der ganze Rechner einfach nur extrem träge oder falls man zuviel kopiert hat (z.B. 200 GB an kleinen Datein) dann ist die Kiste bei 100 GB mit einen BSOD ausgstiegen warum auch immer, auf einem Intel Board keine Probleme, letzendlich hat sich das Board ey verabschiedet.
 
@ Azreal Die Erfahrung hab ich jetzt nicht gerade. Die Chipsätze sind nach objektiven Tests in etwa gleichgut.
 
also mich hat euer gerede und diskusion bezüglich der Realitätsfernen-/nahen benchmarks schon irritiert....wollt mir im nächsten monat auch einen neuen rechner zulegen, bin zocker will aber trotzdem preisbwusst einkaufen...ist anscheinend eine reine glaubensfrage, ob zukünfitge spiele so cpu fordernd werden, dass sie den phenom limitieren lassen oder nicht. auf derzeitigen, realitätsnahen settings schlägt sich der performanceunterschied zwischen pII/i7 nicht in den framszahlen nieder ...

hat einer ne glaskugel:)
 
Azrael: Dann postuliere ich mal das Gegenteil:

Ich hatte bisher mehr Probleme mit Intel-Chipsätzen. Liegt aber daran, dass ich seit 10 Jahren keine Intels mehr auf Boards habe (als Northbridge/Southbrige). Damals hat Intel nach ein paar brillianten Boards (BX-Chipsatz anyone? - Wars glaub ich...) nur noch Müll produziert.
Wenn dir der Chip mit BSOD beim Speichertransfer wegfliegt, liegt es daran, dass du das falsche Board hattest. Bei mir rennen NVs, und ein paar ATIs selbst auf Gurken in Rechenzentren. Am Durchsatz scheitert es da nie. Aber wer RAID auf nem Integrierten Chipsatz fährt, hat ohnehin ein Problem mit der Realität. Dass die Dinger nunmal keine Power bringen, ist altbekannt. Die 7er und 8er Generation mit Raidcontroller bei Intel waren z.B. auch keine Musterknaben. Bei 20MB/s war da schlicht Schicht im Schacht. Wer RAID will, macht entweder n richtiges Software-Raid (dann limitiert auch kein integrierter Controller mehr) oder man investiert die paar hundert Euro in ne RICHTIGE Raidkarte.

lecker_bierchen: Im Prinzip isses heute egal. Die Prozessoren im gleichen Preissegment liefern etwa die gleiche Leistung, wobei AMD für weniger Geld immer auch etwas weniger Power liefert. Ich hab bisher noch keinem Kunden zu nem I7 geraten. Und drunter isses schlicht egal. Selbst einen Quad brauchst du nur, wenn du den PC verdammt lange haben willst oder in absehbarer Zeit Multicore-Anwendungen laufen lassen willst. So lange es den 720BE von AMD gab, war das meine Allround-Empfehlung. Günstig, 3 Kerne (damit genug Power) und mit 2.8GHz in der Basis-Ausstattung auch dort i.O.
Derartige Allrounder haben sie leider ausm Programm genommen. Aber ohne genauere Infos, was du machen willst, kann eigentlich jeder nur warten, dass die eigene Kristallkugel aus der Reinigung kommt. ;-)

Regards, Bigfoot29
 
@Schaffe89
Meine Erfahungen im privaten und zum Teil beruflichen Umfeld sind anders. Dennoch setze ich das ein was am besten zum Anwendungsszenario passt das kann sowohl Intel als auch AMD sein, oft hast du aber solchen Luxus nicht, da wird bei grossen OEMs eingekauft, die für die Stabilität der Systeme garantieren usw. und wenn du ein mal wegen einem Hersteller viel Geld verloren hast, dann überlegst du es dir zweimal ob du wieder die selbe Hardware kaufst, insbesondere dann wenn es der eine Hersteller auf den anderen abwälzt und du sitzen gelassen wirst, selber aber feststellst das der Controller mit Intel Hardware einwandfrei läuft.

@lecker_bierchen
Wenn du schon ein Rechner kaufen willst warte bis Feb/März oder am besten bis zur Cebit zumindestens bis AMD sein 6 Kerner auf dem Markt hat. Die Preise werden wieder ins rutschen kommen, Core i3/5 kommen ja auch noch im Januar und ich könnte mir vorstellen das die aufgrund der hohen Taktraten auch sehr gut für Gamer sein werden. Zumindesten würde ich die Vorstellung und die Tests der Core i3/5 abwarten.
 
Ball_Lightning schrieb:
auf derzeitigen, realitätsnahen settings schlägt sich der performanceunterschied zwischen pII/i7 nicht in den framszahlen nieder ...


Und das ist falsch. Durch ständiges wiederholen wird es nicht richtiger.
 
Zurück
Oben