Test Test: Was bringt bei AMD der L3-Cache? (Teil 2)

Die CPU wurde aus einem Ganz einfachen Grund Untertaktet , damit beide CPUs mit dem selben takt laufen und man sehen kann das der L3 cache in manchen fällen limitiert;).
Ich selber finde den X4 620 sau geil für den Preis , er lauft bei mir mit 3,4Ghz mit nur 1,28V Stabil und er ist mir schnell genug für jedes spiel .
 
Ich find es nicht korrekt wie ihr den Athlon 620 schlecht redet. Bei ht4u wird dieser nicht so schlecht geredet. Mann muss das P/L Verhältniss sehen und das dieser bei einigen Spielen ganz gut da steht. Ausserdem ist dieser erst auf den markt gekommen und der Preis sollt noch weiter fallen. Man muss es auch so sehen, multicore ist Pflicht und 4 kerne erst recht. Und ein 4 kerner für unter 80 Euro ist schon sehr gut, denn manche haben es nicht so fett auf dem konto. Ich habe mir den 630er bestell für 89 Euro und das finde ich ein top P/L, denn sowas muss CB deutlich mit berücksichtigen. Un warum testet ihr immer nur mit einer alten nvidia und nich mit noch anderen VGA-karten oder ein komplettes Spider-system?
 
Irgendwie passt das Fazit nicht zu den Textergebnissen. Einzig in Spielen bringt der L3-Cache wirklich einen Vorteil, im Bereich Multimedia dagegen gar nichts. Das P/L-Verhältnis spricht allerdings (wie man in dem älteren Test erkennen kann, hier leider nicht beim Namen genannt) durchweg gegen den L3-Cache und der zusätzliche Stromverbrauch muss hier ja auch noch eingerechnet werden.

Fazit für mich: Die CPUs mit L3-Cache sind perfekt für Gamerkiddies, deren PC+Stromkosten Papa und Mamma bezahlen.
 
Ich finde es interessant zu sehen wie gering der Vorteil der Phenoms ist. Trotzdem wage ich zu behaupten, dass mit höherem Takt z. B. 3 Ghz oder mehr der Vorsprung der Phenoms ein gutes Stück größer sein wird.

MfG Pantherfibel
 
TheK schrieb:
und der zusätzliche Stromverbrauch

Welcher zusätzliche Stromverbrauch? der X4 810 ist sparsamer im Test.

(Der X4 940 ist eine 125W CPU, es gibt aber auch schon einen X4 945 mit 95W.)

TheK schrieb:
für Gamerkiddies, deren PC+Stromkosten Papa und Mamma bezahlen.

Bla bla Strom, siehe oben!
Der Phenom II X3 ist auch nicht teurer als dieser Athlon X4, dafür bietet der phenom für die meisten mehr Performance, da drei schnelle Kerne für die meiste Software wichtiger ist, als vier langsame. Wenn man dagegen irgend ein Video convertieren will, kann man auch mal die CPU ein paar Minuten länger rechnen lassen. Wer sitzt schon davor und wartet bis das Video fertig ist?
Der Phenom II X4 ist zwar teurer, bietet dafür sowohl in Schwach-Threaded als auch in Stark-Threaded-Anwendungen mehr Leistung.


wamp schrieb:
bei einem X3 710 haettest du aber in den anderen bereichen (z. b. encoden) die schlechtere wahl getroffen!
und weiterhin ging ich von einem festen buget aus.

Wenn ich encodiere, dann sitze ich nicht vor dem PC und warte bis alles fertig ist, sondern mache etwas anderes, da sind mir ein paar Minuten nicht so wichtig. Wenn ich aber Spiele und Framedropes habe, weil der Cache der CPU grad mal zu klein ist, dann ist das eher störend.

Bei einem festen Budget muss es außerdem nicht zwangsweise richtig sein, eine starke GPU zu kaufen und die dann mit einem langsamen Prozi zu betreiben. Wenn man zum Beispiel aufrüsten will, so wäre ein X4 945 95W + schwächere DX10.1-GPU und später aufrüsten auf eine stärkere DX11-Graka die bessere Alternative, als eine DX10.1-HD4890 mit einer schwachen CPU und späteres Aufrüsten auf einen X4 945.

Nitschi66 schrieb:
Ich finde immernoch das circa. 12% mehr stromverbrauch des GESAMTEN systems zu viel für nen l3 cache ist
IlDuce88 schrieb:
ja also der 900er rechnet sich wohl garnicht. 2Mb mehr Cache und keine Verbesserung beim Spielen und dazu noch Stromverbrauch en masse!
Ihr habt wohl die Beiträge vorher nicht gelesen? X4 940 ist eine 125 W-CPU auf einer komplett anderen Plattform mit DDR2 und langsamen HT-Takt und langsam Taktktendem L3-Cache. Der X4 945 95W wäre schneller und sparsamer
 
Zuletzt bearbeitet:
ihr habt alle nen schaden ...

danke volker für den tollen test ...

da bekommen die leute hier gratis alles vorgekaut ... wissen umsonst! ... UND IHR MÜSST NICHTS TUN AUSSER LESEN! ... und trotzdem wird gemeckert ...

ich fasse es nicht ey ...
 
silent-efficiency schrieb:
Welcher zusätzliche Stromverbrauch? der X4 810 ist sparsamer im Test.

(Der X4 940 ist eine 125W CPU, es gibt aber auch schon einen X4 945 mit 95W.)

Ihr habt wohl die Beiträge vorher nicht gelesen? X4 940 ist eine 125 W-CPU auf einer komplett anderen Plattform mit DDR2 und langsamen HT-Takt und langsam Taktktendem L3-Cache. Der X4 945 95W wäre schneller und sparsamer

LOL du weist aber das die Watt angabe TDP ist und nicht verbrauch oder? Und das ein großer teil der zur zeit verkauften Athlons II X4 auf Deneb-Kern bassiert und nicht auf Propus und daher der erhöhte Stomverbrauch.
 
Ja, ich weiß was TDP bedeutet und ich weiß auch, dass der X4 940 mit 125W TDP real mehr verbraucht als X4 945 mit 95W TDP (X4 945 mit 95W verbraucht ungefähr genau so viel, wie ein X4 810) und ich weiß auch, dass man den Verbrauch auf verschiedenen Mainboards mit auch noch unterschiedlichem Speicher nicht vergleichen kann.
 
Zuletzt bearbeitet:
silent-efficiency schrieb:
Ja, ich weiß was TDP bedeutet und ich weiß auch, dass der X4 940 mit 125W TDP real mehr verbraucht als X4 945 mit 95W TDP (X4 945 mit 95W verbraucht ungefähr genau so viel, wie ein X4 810) und ich weiß auch, dass man den Verbrauch auf verschiedenen Mainboards mit auch noch unterschiedlichem Speicher nicht vergleichen kann.

jo genau. Was mich aber wundert, das der AII 630 fast genau so viel verbraucht wie der PII 920. Interessant oder? Deneb-Kern, sag ich nur. Aber nur bei den ersten AII, was sich noch ändert.
 
Gefällt mir der Test. Überlege mir schon länger, nächstes Jahr einen AMD zuzulegen. Kommt von AMD in naher Zukunft (halbes bis 3/4 Jahr) was neues?
 
@strubo0
Ende 2010 rechen Optimisten mit dem 32nm Bulldozer als Opteron. Somit könnte Anfang 2011 der 32nm Desktop kommen. Vielleicht wird es noch vorher einen Phenom II X6 geben. Sonst wird wohl ein neues Stepping folgen und der Ausbau und die Verfeinerung der aktuellen Produkte.
Ich denke dass Sockel AM3 mit einem Phenom II X6 zwingend sein könnte und auch die 32nm nicht mehr auf AM2+ laufen werden.
 
Also falls der Bulldozer wirklich die erste 32nm CPU von AMD sein sollte, dann wird dieser weder auf AM2+ noch auf AM3 laufen, da man hier wohl zu extreme änderungen am Chipdesign vornehmn wird. Zum Releasetermin des Bulldozer kann ich noch sagen das ich hier eher Pesimist bin und eher mit Q3-Q4 2011 mit einem erscheinen der Servervariante rechne.
Mitte Ende 2010 wird wohl erstmal eine umstellung auf des Phenom 2 auf 32nm kommen und dies als Testlauf für die Fertigung des Bulldozer in 32nm genommen.
 
@ H€553

Hier gings aber um den Bulldozer und nicht um die Fertigungsgröße. Falls der Bulldozer nicht der erste in 32nm gefertigte Prozzi ist, ist es ein Shrink oder ein Refresh o.ä. Dieser hat dann aber nichts mit einer komplett neuen Architektur gemeinsam und somit kann er vermutlich auch noch im jetzt existenten Sockel betrieben werden.
 
Eine Frage an die Redaktion: Trotz niedrigerer Frequenz (Phenom II X4 940 @ 2,60 GHz) verbraucht die CPU unter Last im Vergleich zu den Anderen doch auffällig mehr. Wenn Sie den Prozessor heruntertakten, wäre es dann nicht richtiger, wenn dieser auch von der Spannung her heruntergesetzt würde?
 
Hmm, für ein Jahr ein komplett neues System kaufen? Das lohnt sich glaube ich nicht.Dann kaufe ich mir lieber nen immer billigeren 775 (4Kern) und überbrücke das Jahr.
Auf Nahelm hab ich irgendwie kein Bock. Momentan hat Intel einfach meine Sympatie verloren.
 
@greatest:
Ich denk das wäre schon möglich, nur ging es in dem Test nicht darum. Es wurde sich nur auf den L3 cache konzentriert.
@CB: Guter Test, danke für die Informationen!:daumen:
 
HawkEy3 schrieb:
Es wurde sich nur auf den L3 cache konzentriert.

Jo, trotzdem kann ich aus dem Test leider kaum Infos bzgl. Games entnehmen. Ich mein, wenn ich keine normale Auflösung teste, kann ich ja gar nicht feststellen OB der fehlende L3 Cache in der NORMALEN Auflösung sichtbare Nachteile hat. Hier nehme ich an, das die Games - ohne Angabe der Auflösung - so wie der Rest in 800x600 gebencht wurden.

In den normalen Tests wird in den Kommentaren immer über die 9800GTX+ geheult - nur hab ich lieber Tests am GPU Limit als Tests die eine geringe Aussagekraft haben. Vgl. Corei7 vs. 955BE, lt. den Tests in 800x600 müsste ja der i7 sowas von davonziehen...was bleibt übrig? Nüx, im Schnitt sind beide so gut wie gleichauf obwohl der i7 die 800x600er Tests extrem dominiert hat.

Ich weiß ja nicht wie viele es auch interessiert hätte, aber ich hätte gern nach dem Lesen des Tests gewußt:
Der Athlon II X4 verliert im Schnitt in der Auflösung (z.B.) 1680x1050 rund XY % auf den Kollegen mit L3-Cache, bei den spielflussrelevanten Min-FPS liegt der Unterschied bei ZX %. Grobe Schnitzer sind z.B. bei Spiel hastenichgesehn & blabla zu verzeichnen, in anderen Spielen ist der Unterschied nur mess- aber nicht spürbar.

So, damit genug Kritik (im positiven Sinne als Verbesserungswunsch) geübt, sonst ist der Test in den anderen 2 Bereichen wiedermal erstklassig :daumen: Vielen Dank!
 
Zuletzt bearbeitet:
Es wird auch gemunkelt, dass ein Phenom 3 2010 kommt.
Eventuell heißt er dann so, weil ein stark verbessertes Stepping ansteht.
 
Zurück
Oben