Test Test: AMD Phenom X4 9850 Black Edition

Äh? bei dem Test wurde doch überhaupt gar kein Intel mit getestet? Woher willst du also Wissen wo der bei vergleichbarer Hardware gelegen hätte? Du kannst doch nicht hergehen und einen Test für den AMD heranziehen wo ganz bewusst der niedrigmöglichste Wert ermittelt wurde durch unterschiedliche MBs und beim Intel irgendein Board nehmen und diesen Aspekt außen vorlassen. Entweder macht man diese Prozedur auch für Intel und vergleicht die kleinsten Werte oder man nimmt bei beiden irgendein MB, die von der Ausstattung und preislich ähnlich sind.

Aber das was du da grade machst ist eine gezielte Manipulation zugunsten AMDs.

Im übrigen schreibt der Autor des Testes als Einleitung schon, dass der Phenom mit B3 Stepping mehr Strom braucht als der mit B2 Stepping was sich doch absolut mit den Erkenntnissen von CB deckt.
 
ja, das liegt auch nahe wenn die 9x50er mit 1,3V statt 1,25V wie die vorherigen befeuert werden.

verbrauchen die neuen Phenoms nun mehr? nein, es ist nur werkseitig eine etwas höhere Spannung eingestellt, was zu einem höheren Stromverbrauch führt.
Um aber zu so einer Aussage zu kommen müsste man aber wenigstens mit gleicher Spannung gebencht werden und dann unterschiede im stromverbrauch feststellen.

der einzige unterschied des 9750 mit 125W TDP und 95W TDP liegt gerade an diesem Spannungsunterschied. 1,3V zu 1,25V kann man in den Datenblättern nachlesen.
Phenom 9750 Voltages 125W Version - 1.20/1.25/1.30V
Phenom 9750 Voltages 95W Version - 1.10/1.15/1.20/1.25V


Deswegen ist auch der Mehrwert eines 95W 9750 gleich null kann man das geldsparen und selbst 1,25V einstellen.

nun sag mal welche TDP dann ein 9750 mit 1,1V ich habe die Messwerte schon auf der ersten seite gepostet.

https://www.computerbase.de/forum/threads/test-amd-phenom-x4-9850-black-edition.402658/#post-4217670

und das ein schlechtes Netzteil Verbrauchsdifferenzen verstärkt haben wir hier ja schon bewiesen.
 
Zuletzt bearbeitet:
HappyMutant schrieb:
@GreatEvil: Auch woanders steht, dass der Phenom mehr Energie braucht. Das ist also keine Erfindung. Und nun ja, die Platine wurde lange vor dem THG-Test ausgewählt. Weiterhin sind das genau die Probleme, auf die jeder Käufer stoßen kann. Und das der 9850 in diesem Stepping bei uns extrem mehr verbraucht, dass hat weder was mit dem MB (auf dem schon die anderen Phenoms liefen) noch mit dem NT (mit dem auch die Intels liefen) zu tun.
Das ändert nichts an der Tatsache, dass ihr das schlicht verbockt habt. Der Test ist schlicht und ergreifend falsch, egal, wie logisch die Ergebnisse sind - sie stimmen einfach nicht. Da sind etliche Systeme, die schlimmer sind als eures, übertaktet oder mit SLI, die nicht soviel brauchen wie die angegebenen.
@Fairy Ultra: Ich denke Volker wird die Anregungen für die Planung der nächsten Testplattform in Betracht ziehen. Es bleibt halt auch Fakt, dass ein Multicore-Prozessor heutzutage immer noch auch Programme beliefern muss, die nicht multithreadded sind. Insofern ist eine Plattform die beides gerecht abdeckt eben nicht ganz einfach. Je nach Schwerpunkt ist die Klientel, die sich beschwert eine andere. Zumal hier Dual-Cores und Quads auch gegeneinander antreten.
Da möchte ich widersprechen. Als Leser ist es mir scheissegal, wie schnell die CPU beim 4 Jahre alten Quake4 läuft und das dürfte übergreifend so sein. Natürlich gibt es die einen die das sehen wollen und andere, die wieder anderes sehen wollen. Darum geht es hier aber nicht. Die Spieleauswahl ist einfach nicht logisch, das ist das Problem und das ist unabhängig vom Leser. Man weiss ja in etwa, wohin sich der Spielemarkt entwickelt und eben in diese Richtung muss man gehen anstatt in die Vergangenheit zu gucken, was oft gespielt wurde. Ob das jetzt 100 oder 200FPS bei Quake4 sind, ist nun wirklich sowas von egal. Aber wie eine CPU in wirklich CPU-Lastigen Titeln wie CMR-Dirt abschneidet, ist dann schon sehr interessant. Die Auswahl ist so schwer eben nicht. Man nimmt halt wirklich fordernde Titel, und da gibt es eben Strategietitel, je fordernder desto besser, und XBox-Actiontitel. Beide Arten sind sehr CPU-Lastig und aktuell. Was anderes ist mir als Leser einfach nur egal, zumal ich weiss, wie die Zukunft der PC-Spiele aussehen wird: Multiplattform soweit das Auge reicht. Also alles stark MT-optimierte Titel (XBox und PS3 können immerhin mindestens 6 Threads verarbeiten, haben als faktisch 6 logische Kerne (XBox360) bzw. 8 physikalische(Cell)). Mich interessiert doch, wie die entsprechende CPU und Zukunft abgehen wird und nicht wir steinalte Spiele darauf laufen.
Bei euch macht es sogar den Eindruck, als wäre die Spieleauswahl kein Zufall, weil ihr gezielt so ins Klo gegriffen habt und das gibt mir dann schon zu denken. Die Auswahl des steinalten (immerhin 7 Monate alten) Catalyst 7.10 rundet diesen Eindruck übrigens ab. Ich finde, es ist eine Frechheit, egal bei welchem Test, einen so alten Grafiktreiber zu verwenden.
 
Zuletzt bearbeitet:
@GrinderFX

Nur der BE ist ein Ausreißer was den Energieverbrauch betrifft! (1.3V VCore mMn zur besseren Übertaktbarkeit)
Alle anderen liegen nah beieinander, hätte man hier aber das MSI-Board (-ca. 30W)genommen, wären die AMD-Phenoms sparsamer trotz 65nm Fertigung. ASUS und Gigabyte sind hier fehlerhaft, nachgewiesen!

Intel hat halt hohe Produktionskosten in Kauf genommen, um damit Marktanteile zu gewinnen. Hat mMn hoch gepokert und damit gewonnen. AMD wollte sparen und ist damit eingfahren! *g* Aufgrund der 45nm Fertigung können die Preise aber von Intel mithalten!
Auch bin ich der Meinung, dass die gute Übertaktbarkeit maßgeblich zum erfolg des Core2s beigetragen hat. Dies ist, so denke ich, aber auch direkt vom Cache abhängig, da dieser eine bessere Kühlung mit sich bringt. (mehr Oberfläche bei geringerer Hitzeentwicklung im Vergleich zum echten Kern!)
 
Zuletzt bearbeitet:
claW3581 schrieb:
... und irgendwie ist es klar dass intel z.t. schneller ist, da es 2 dual-cores sind, welche natürlich in einigen anwendungen vorteile haben.

Ich würde diesen mentalen Querschläger mal damit begründen, dass du deinen Beitrag um halb 1 in der Nacht eingestellt hast. Falls du das ernst meinst.... wie kommst du denn zu so'n *** Mist?!? :freak:

Ansonsten finde ich es nur noch recht traurig bzw. lächerlich wie sich dieses Thema hier entwickelt hat. Einige hitzige Diskussionen kann ich noch verstehen, aber das ständige rumgereite auf grundlegenden Dingen nervt (siehe Beitrag von "neo").

Es ist nun mal leider so, dass die K10-Architektur von AMD (Barcelona) mehr oder weniger ein totes Pferd ist. Das schlimme daran ist, dass die erste (Tod-)Geburt dieses Pferds sogar mit nur drei Beinen in den Markt gebracht wurde (TLB-Bug).
Dann wurde versucht (typisch Dakota-Indianer), mit einer neuen Revision (B2 --> B3) das tote Pferd schneller zu machen.
Dann wurde das tote Pferd mit mehr Hafer gefüttert (höhere Kernspannung), was zwar das Pferd etwas schneller gemacht hat auf Kosten mehr Wärme, höherer Stromverbrauch und gleichschlechtem Übertaktungspotenzial.

Ich hoffe einfach darauf, dass AMD mit dem bevorstehenden shrink etwas Boden wieder gut machen kann, dann aber möglichst bald mit einer neuen Architektur wenigstens etwas gegen Intel vorbringen kann. Ansonsten ist es bald vorbei mit dem lukrativen Desktop-Geschäft. Ich habe keine Lust auf ein Intel-Monopol, dass sich bereits heute andeutet:
es gibt schlicht keine Konkurrenz für Intel im Bereich Dual-Core ab 2,5 GHz und Quad-Core ab 2,66 GHz Taktung, was man auch daran sieht, dass die Preise für standardmäßig höher getaktete CPUs von Intel schnell in die Höhe gehen. AMD kann nur davon träumen in Stückzahlen Prozessoren für $999 zu verkaufen!

Na ja, mal sehen was kommt...

VG,
Dena.
 
Quake geht ja noch, das hat ja wenigstens noch Multicore Support, wenn das spiel gepatched ist.

Oblivion wäre z.b. auch noch ein guter Benchmark. (von den älteren Spielen)

Gerade hier habe ich noch eine deutliche Verbesserung gemerkt.
mit nem x2 3800 lies sich das Spiel eigentlich ok spielen brach nur manchmal bei vielen gegnern ein auf 20-30
(bei hohen auflösungen, hab nen 24er)

durch den wechsel auf den Quad sind diese verschwunden, die average/max frames sind gleich, aber die min frames sind wesentlich besser. (eigentlich limitiert ja die GPU in so hohen auflösungen, dennoch ist anscheinend eine gute CPU wichtig.)
(ähnliche erfahrung in Trackmania, was es kostenlos über steam gibt; hab nich soviele games)

Das war doch z.b. gerade das Argument bei der Einführung des Core 2.
nur etwas bessere max frames, aber wesentlich bessere min frames. als die alten x2.

das gleiche gilt jetzt auch nur dies mal für den Quad. (Prinzipiel egal ob intel oder amd!)
 
Zuletzt bearbeitet:
@Sommerwiewinter

Dann ists ja noch dümmlicher als ich gedacht habe. XD wir sollen jetzt also Messungen vergleichen die mit unterschiedlicher Stromversorgung gearbeitet haben ja? ISt mir durchaus klar, dass ein besseres NT dort noch einsparungen macht. Das ändert aber nichts daran, dass der Phenom eine Stromschleuder ist. Jetzt fängst du gleich noch an und vergleichst die Werte von Toms mit den Intel werten von CB. XD

Außerdem ist das doch wurscht. Das die Werte je nach Netzteilgüte variieren ist doch jedem normal denkendem Menschen klar. Aber der Intel hatte auch mit dem Nachteil dieses Netzteiles zu kämpfen. Also ist das doch schnuppe, schließlich verbraucht der Intel mit dem besseren NT auch wieder weniger strom.
 
es geht um das ausmaß und nicht um das OB.

"Den gewichtigsten negativen Aspekt am neuen Prozessor von AMD kann man am Ende der Tests natürlich nicht unter den Tisch schieben. Die Rede ist von der in unserem Test deutlich gestiegenen Leistungsaufnahme der schnelleren Phenom-Prozessoren."

wenn der unterschied nur wesentlich kleiner ist wenn man ein richtiges netzteil verwendet so sollte man doch mal überlegen ob das Fazit so noch gültigkeit besitzt

Das mit dem netzteil schlägt auch beim undervolting messwerte ein, dort wird dann überproportional viel gespart.

es sind eben extreme in beide seiten, und vergleichbarkeit so ohne weiteres schwer.
 
Zuletzt bearbeitet:
KLEMSI schrieb:
@GrinderFX

Nur der BE ist ein Ausreißer was den Energieverbrauch betrifft! (1.3V VCore mMn zur besseren Übertaktbarkeit)
Alle anderen liegen nah beieinander, hätte man hier aber das MSI-Board (-ca. 30W)genommen, wären die AMD-Phenoms sparsamer trotz 65nm Fertigung. ASUS und Gigabyte sind hier fehlerhaft, nachgewiesen!

Du solltest das NT nicht aus dem Auge verlieren...
Sicher ist ein AMD + effizientes NT sparsamer als ein Intel + ineffizientes NT.
Aber mit guten NTs auf beiden Systemen ist halt der Unterschied nicht ganz so dramatisch, wie ihn CB darstellt. Bei 20-30W, welche ein AMD-System mehr verbraucht, hätte ich nix gesagt.

Aber noch das Fazit auf die fehlerhafte Messung zu beziehen, halte ich für Grenzwertig.
Denn 552W 9850 gegenüber einem Q6700 mit 467W ist einfach falsch, bzw. durch das NT verfälscht.
 
@ Mustis
Was Crysis haben könnte interessiert mich nicht. Die Frage was eine potente CPU ist oder nicht, ist subjektiv zu beantworten. Ich weiß nur, was ich selber sehe. Siehe Anhang (CPU @ 3.0 GHz).
 

Anhänge

  • Crysis auslastung.JPG
    Crysis auslastung.JPG
    111,9 KB · Aufrufe: 500
@ sommerwiewinter

Hallo? Ich bin ja der selben Meinung! Vielleicht hast du mich auch falsch verstanden!

Hätte CB das MSI Board genommen, wäre der Verbrauch um 30W niedrieger. Ohne Netzteileffizenz!

Außerdem sind die 1.3V zum Übertakten gedacht! Darum auch der freie Multiplikator! Wenn ich einen Intel übertakte und VCore erhöhe frisst der ja auch mehr Strom!

AMD ist hier der Meinung: geben gleich 1.3V, dann brauchen die nur mehr den Multi zu erhöhen. Denn wer nicht übertaktet braucht ja keine BE

Das ist halt meine Meinung!
 
@ Fairy Wieso denn zum Geier? Die B2 Stepping wurden doch mit demselben Netzteil getestet. Alle aktuellen CPU Tests von CB wurden doch mit diesem Netzteil getestet, sind also Vergleichbar. und selbst wenn macht das vll 10-15 Watt aus, was nicht wirklich weltbewegend ist.

@ mat_2 sehr aussagekräftig wenn man nicht sieht wo deine KI und Physik einstellungen sind. ;) Vorallem ist dein Prozessor doch ganz schön ausgelastet auf beiden Kernen, dafür dass du 3,45 Ghz hast was deutlich über dem schnellsten kaufbaren Werten liegt. was man aber eben auch schön sieht, ist das beide Kerne relativ gleichmässig genutzt werden. Also machen mehr Kerne durchaus Sinn, höhere Taktraten dagegen nicht unbedingt. wenn man jetzt (bitte beachten das dies nicht wirklich realistisch ist) mal annimmt du hättest nur einen Kern und wie man sieht sind beide Kerne zeitweise über 50% dann hättest du an diesen Stellen mit einem Einkerner gleichen Taktes Ruckler durch die CPU. Wo das jetzt egnau was beweisst, von dem was du gesagt hast, kann ich noch nicht ganz nachvollziehen. ^^
 
Zuletzt bearbeitet von einem Moderator:
Mustis schrieb:
@Sommerwiewinter

Dann ists ja noch dümmlicher als ich gedacht habe. XD wir sollen jetzt also Messungen vergleichen die mit unterschiedlicher Stromversorgung gearbeitet haben ja? ISt mir durchaus klar, dass ein besseres NT dort noch einsparungen macht. Das ändert aber nichts daran, dass der Phenom eine Stromschleuder ist. Jetzt fängst du gleich noch an und vergleichst die Werte von Toms mit den Intel werten von CB. XD
Willst du mich provozieren?
Ich habe nie behauptet, dass der 9850 ein Stromsparwunder ist bzw. weniger als Intel verbraucht. Wer sich hier lächerlich macht, überlasse ich hier anderen.

Ich werde mich von dir nicht hinreißen lassen, ein Falsche Aussage zu tätigen, um mich in der Luft zerreißen lassen. Für wie beschränkt hältst du mich? ...oder ist das Niveau einfach so hier, dass ich ne Ausnahme bin?
Mustis schrieb:
Außerdem ist das doch wurscht. Das die Werte je nach Netzteilgüte variieren ist doch jedem normal denkendem Menschen klar. Aber der Intel hatte auch mit dem Nachteil dieses Netzteiles zu kämpfen. Also ist das doch schnuppe, schließlich verbraucht der Intel mit dem besseren NT auch wieder weniger strom.
Noch einmal für dich...
AMD braucht mehr, selbst mit einem gut gewählten Board und NT... da gehen wir konform.
Nur in der Definition "Stromschleuder" gehen unsere Meinungen auseinander.
Denn in dem Fall kannst die Werte (effektiver Verbrauch und Wirkungsgrad) nicht addieren, sondern multiplizieren (kein gradliniger Verlauf).

Ich stelle nur einen alternativen Blickwinkel dar, welchen jeder überdenken kann (nicht muß). Je nach dem, wie kritisch er mit Artikeln dieser Art umgeht ;)

Ist für mich nicht weiter tragisch, da es Meinungen sind. Warum soll ich dich von meiner Überzeugen? ...da brauchst du mich auch nicht persönlich angreifen.
 
@Klemsi
Genauso ist das Multi hoch 3 Ghz mit 1,3 Volt auf Auto macht meiner auch.
2500 macht der mit 1,2 Volt also ist das richtig was Du sagst.
 
@ Sommerwiewinter
Du hast dem CB-Test weltfremdheit vorgeworfen. Zumindest fasse ich es so auf wenn du einen Link postest mit dem Kommentar, dass dieser sich mit der Realität deckt. Und da sage ich, nö. Der CB-Test ist genauso real.
 
@ Mustis
Das ist jetzt aber nicht war oder?! Sag mal liest du eigentlich auch?!
mat_2 schrieb:
Steht in meinem Post. Auch in meiner Sig steht "Bench-Config".

Alle Settings @ High. Klar, das kann ich hiermit nicht beweisen, aber welchen Grund hätte ich zu lügen :freak:. Nicht einmal ein E6600 @ Standardtakt wäre bei Crysis zu 100% ausgelastet. Willst du mir weismachen, eine im Schnitt 60%ige Auslastung bei nem Dualcore, wäre ein Grund, sich nen Quad zu kaufen?! Man beachte außerdem, dass eine CPU deutlich stärker als die andere belastet wird.
 
HOT schrieb:
Das ändert nichts an der Tatsache, dass ihr das schlicht verbockt habt. Der Test ist schlicht und ergreifend falsch, egal, wie logisch die Ergebnisse sind - sie stimmen einfach nicht.

Und trotzdem hat es keiner auch nur beantworten können, wieso das falsch sein muss und was wir davon haben sollten. Also die Ergebnisse sind logisch aber falsch. Erklärung? Keine. Liefert man Antworten, sind die zwar richtig, weil logisch, aber falsch, weil nicht sein kann, was nicht sein darf? Sehe ich das richtig?

Und wieso trotz allem immer noch vom NT angefangen hat, dass von den Messwerten her eindeutig nur eine Schwankung von rund 5 % bei der Effizienz aufweist, weiß ich nicht. Aber einige sollten mal von der Vorstellung wegkommen, dass hier 100% Effizienz gegen 25% lief.

Ich finde, es ist eine Frechheit, egal bei welchem Test, einen so alten Grafiktreiber zu verwenden.

Wie oft denn noch. Es geht um eine stabile Testplattform. Der Treiber wurde zu Beginn festgelegt und beeinflusst nur die Grafikkarte. Es ist völlig egal, denn alle CPU-Tests liefen mit diesem Treiber. Und wenn er nicht das Optimum aus der Karte rausholt ist das auch latte, dann hat die CPU eben mehr zu tun. Auch wenn es dich ankotzt daraus kein Nachteil basteln zu können, das bloße Alter ist völlig irrelevant, solange die Karte damit harmoniert. Und das tut eine 2900er. Was anderes hast auch du bisher nicht zeigen können.

Also Jungs und Mädels, irgendwann wird es lächerlich. Und wundert euch bitte nicht, wenn überhaupt keine offiziellen Statements mehr in den Kommentaren kommen. Was hier teilweise an hanebüchenen Unterstellungen verzapft wird, dafür müssten sich manche in Grund und Boden schämen.

So bleibt es eben dabei, dass die konstruktiven Kritik zur Kenntnis genommen wird und für spätere Tests vorgemerkt wird und der Rest sich in seinem eigenen Dreck suhlen kann. An einer Verbesserung und objektiven Berichterstattung liegt diversen Leuten nichts, nur das hier ihre CPU mit möglichst ganz speziellen Tests gewinnt. Und wenn man noch die CPU nimmt und da dreht und hier noch das Board nimmt, dann ist das fast so gut wie der Intel von der Stange (Das MSI ist im Übrigen deutlich langsamer als das Gigabyte, aber man greift sich selbstverständlich immer den Punkt raus, der gerade taugt). Und sobald der Test so "angepasst" ist, kommen dann die Intel-Jünger aus dem Luxx-Forum und hauen dann eben statt der AMD-Fans auf die Kacke.

Vielleicht sollte man in der Konsequenz alle Vergleichstest untereinander einstellen. Das hilft zwar dem interessierten Leser nichts, sorgt aber definitiv für das Seelenheil diverser Fangruppen.

Hier geht es nicht mehr darum, objektive Fehler aufzudecken, denn dafür könnte man ja Argumente anbringen, warum es denn schlecht sein soll (z.b. den Treiber zu verwenden) und vorallem auch mal die Aussagen aufgreifen, die im Test stehen und auch die hier von mir vorallem gemacht wurden (dass das NT keinesfalls derart die Ergebnisse verzerren kann, dass die Relationen nicht mehr stimmen). Stattdessen, wird auch nach fünf Seiten der ewig gleiche Vorwurf gemacht ohne auch nur ein Millimeter auf die Gegenargumente einzugehen.

Es muss doch möglich sein, sich in einem sachlichen und vorwurfsfreien Ton auszutauschen. Es kann doch nicht sein, dass heute soviel Misstrauen herrscht, dass man sofort mit teils wirklich unverschämten Verdächtigungen und Andeutungen ankommt und lieber blind dreimal dasselbe wiederholt, statt auch nur einmal auf die vorgebrachten Punkte einzugehen.

Schönen Dank auch.
 
Zuletzt bearbeitet:
@ mat_2 Na bei 3 GHz trifft es doch noch mehr zu was ich schreibe als bei 3,45Ghz. Ein Singelcore wäre hier vollkommen ausgelastet bei 3 wie auch bei 3,45 GHZ. Die Diskussion drehte sich doch grad (auch) darum, das angeblich sowohl Dual- als auch Quads eigentlich unnötig sind und ein Singelcore reichen würde. Bisschen Transferleistung darf ich doch erwarten.

Und High ist bei Crysis nicht die höchste Einstellung. ^^ Stell mal Physik und Ki auf Very High. Theoretisch müsstest du alles auf Very High stellen und dann schauen wie hoch die CPU ausgelastet wird. Das die GPU vorher die FPS limitiert musst du mir im übrigen nicht erst erklären. Es geht hier aber um die Auslastung bei Dual- bzw. Quadcores, die ja angeblich so nutzlos seien für das Gros der Menschheit.
 
Zuletzt bearbeitet von einem Moderator:
Wie nutzlos die Leistung der Quads bei den neuen Games ist sieht man hier deutlich.
http://www.forumdeluxx.de/forum/showthread.php?t=489330

Bei den nächsten Games wird man das genauso deutlich sehen.
Multithreadet Games gibts ja schon genügend für Konsolen sollte nicht so schwer sein die auch für den PC Multithreadet hin zu bekommen.
 
Zurück
Oben