News Neue „Bulldozer“ und Preisanpassungen kleinerer Modelle

@playcom
Habe einmal meine Werte in Deinen Satz eingetragen. Gemeint ist der i3.

Mein System verbraucht Desktop 35 Watt und Volllast 75 Watt es ist 1/2 Jahre außer (GFK) alt und war Billig 0% übertaktung der CPU und ich kann alle Spiele FULL HD Spielen ohne das mein CPU heiß wird usw.. lasst euch nicht von playcom Verarschen.
 
mambokurt schrieb:
Wenn die Benchmarks da gravierende Unterschiede zeigen würden, würde ich mir das auch überlegen: https://www.computerbase.de/2011-11...-teil/11/#abschnitt_battlefield_bad_company_2
Dirt3, BF BC2, alles Spiele die von einer hohen Anzahl Kerne eigentlich profitieren. Trotzdem liegt der Corei3 meist unter 10% hinter dem 8150, und der kostet 100% mehr. Was helfen mir denn die 4 Kerne, wenn sie (selbst wenn sie genutzt werden) immer noch kaum schneller sind als der Dualcore? Und wir sprechen hier vom Flagschiff von AMD, nicht von einer CPU in annährend der selben Preislage.

[...]
Bleibt eigentlich nur noch die Treue zum Sockel bei AMD, die klar für sie spricht. Wenn man denn vorhat, die CPU aufzurüsten. [...] Ich habe in all den Jahren niemals eine CPU aufgerüstet. Einmal getauscht mit einer gebrauchten, weil die alte defekt war, aber aufgerüstet nie. Wenn man öfter kleinere Summen in die Aufrüstung investiert, mag sich das lohnen. Ich für meinen Teil nehme lieber alle 4-5 Jahre 600€ in die Hand und kaufe einfach einen neuen Rechner.
Danke, dass deine Verhaltensweisen für alle verpflichtend sind. Ich habe mir noch nie einen kompletten PC geholt(Notebooks ausgeschlossen).
Und zum Fettgedruckten, wenn du es doppelt schreibst, dann hilft das doppelt?
Entweder kannst du dem Prozessor zu wenig nutzen fürs Geld vorwerfen oder ihm das Flaggschiff sein Vorwerfen, so wie du es schreibst ist es einfach nur redundant.
Desweiteren sind die Tests auf Computerbase realitätsafern, das habe ich schon weiter vorne geschrieben. Es kann durchaus sein, dass der Unterschied unter Realbedingungen grösser ist.
Nichts desto trotz ist klar, dass die CPU kein meister der Preisleistungsskala ist und sein wird.
Und überraschender weise ist das völlig normal, teurere CPUs liefern nicht die gleiche Preisleistung wie Performance CPUs.

Herdware schrieb:
Leider ist es offenbar bei Bulldozer ganz anders. :(

Mit der selben (alten) Software läuft ihm ein alter Phenom II mit weniger Cores und niedrigerem Takt davon. Angepasste Software wird, wenn überhaupt, es erst geben, wenn die erste Bulldozer-Generation schon zum Alteisen gehört.
Alle Tests die ich kenne sehen den Bulldozer in der Leistung vor seinem Vorgänger. Jetzt schon. :o

pipip schrieb:
Ich bin schon seit langen drauf gekommen, der x6 war nicht nötig, mit dem x3 war ich schon gut bedient. Aber was rede ich hier, sowas kann man nicht nachvollziehen.
Deswegen habe ich mir Ende letzten Jahres noch einen 720er für mein Zweitsystem gekauft.

Wintel schrieb:
Man muss sich doch nur mal die CPU´s in Preisbereich XY ansehen und dann für sich entscheiden was besser ist.
Der FX-6100 kostet mit Cashback kaum mehr als 100 Euro und bietet rund 15% weniger Spieleleistung ( im Mittel) als ein i3 2120 für dasselbe Geld, dafür aber in etwa 20% mehr Anwendungsleistung ( multithreaded noch mehr).
Da muss halt jeder selbst wissen, für was er eher Prioritäten hat.
Wobei ich die "Spieletests" mit Vorsicht geniessen würde. Denn da werden oftmals völlig absurde Bedingungen getestet.
Im von hier bekannten GPU braucht CPU Test kommt der i3 auf 8%(PerformanceGK) bzw. 22/25%(HighendGK) Mehrleistung zum X2 560. Und den sollte ein FX-6100 schon schlagen. Ein Modul mehr, mehr Takt. Wie man auf durchaus gängigen Performance-Karten dann auf einmal 15% mehr Leistung schaffen soll.....bleibt ein Rätsel.

cornix schrieb:
Der FX-8XXX ist eigentlich nicht mehr als ein Hunderter wert. Selbst dann würde ich mir ernsthaft überlegen, nicht doch noch 50€ draufzulegen um den i5-2400 zu nehmen.
:evillol: Mach doch. Soll ich dir ne PN schicken, wenn der 8xxx bei 90€ ist?
 
playcom schrieb:
'

Der Mythos Intel sei besser ist falsch würde AMD nicht geben dann würden die Preise für die Intel dinger noch Teuerer sein das ist erst mal Fakt,

Klar würde Intel als Monopolist teurer sein; wenn es nur AMD gäbe wäre halt AMD teurer

Aber Intel ist derzeit einfach besser und das mit Abstand. Fürs gleiche Geld mehr Leistung und weniger Verbrauch.

Das sind Fakten, alle anderen Behauptungen sind nicht realistisch.

Man kann nur hoffen das AMD die Kurve kriegt und wieder ein Konkurrent darstellt. Aber mit der BD-Architektur wird das die nächsten Jahre nicht passieren. Dazu ist das einfach zu weit an Desktop-Ansprüchen vorbeientwickelt.
 
Ich wage einfach mal zu behaupten, dass in 3 Jahren ein FX 6100 im Schnitt schneller ist als ein i5 2500. Nicht etwa, weil es dann mehr Mehrkernoptimierte Programme gibt, sondern weil es dann endlich vernünftige Compiler gibt. Unter Linux kann man mit dem passenden Compiler tlw mehr als die doppelte Leistung aus dem Prozessor raus holen. Bis aber bei Windows passende Compiler der Standard sind, wird es leider noch ein wenig dauern. Ich befürchte, dass Windows 8 da noch nicht perfekt sein wird.
 
Der FX 8150 wurde doch auf den meisten Hardwareseiten um es vorsichtig aus zu drücken sehr grob getestet, die Mühe haben sich die wenigsten gegeben auf die neue Architektur ein zu gehen. Ht4u hat einen Spielenachtest gebracht, der mich positiv überrascht hat.
http://ht4u.net/reviews/2011/amd_fx_8150_bulldozer_3d_spiele/

Aber auch mehrere, sehr intensive Benchmarktest eines Users habe ich bezügl. des FX 8150 entdeckt, die Zeigen dass der FX 8150 doch gar nicht so schlecht ist, manchmal schlägt er sogar in Benchmarks die großen Intel Modele.
http://translate.google.de/translat...ardforum.com/showthread.php?t=1663621&act=url

-Einfach nur lächerlich wie man eine i3 CPU hier mit der FX 8150 manchmal sogar vergleichen möchte.
-@Volker, vermisse hier ebenso einen Test der kleineren FX Modele, die u.a. gegen die i3 CPU antreten, -die i3 CPU hat schliesslich auch einen separaten Test bekommen, obwohl diese CPU manchmal in Spielen so nah an den i5 2500 liegt ;)
 
Zuletzt bearbeitet:
Der i3-2100 ist nun mal in den meisten Spielen schneller als der FX-8150 und bei der Singlethread-Leistung ebenfalls. Das ist ein Fakt. Der FX-8150 kann - wenn es gut läuft - an den sparsameren i7-2600K herankommen und schon in zwei Monaten heißt der Gegner Ivy Bridge: Schneller und noch sparsamer. Der Test von HT4U zeigt, dass die CPUs (oh Überraschung) im Grafiklimit näher zusammen rücken. Dumm nur: Das FX-System frisst mehr Strom, eine neue GraKa-Generation schiebt das Grafiklimit und der FX ist wieder abgeschlagen.

Im Mittel ist gerade der FX-8150 viel zu teuer und stromfressend angesichts des i7-2600K. Interessant - wenngleich in Spielen kein Hit - ist der kleinere FX-8120, gerade in der 95W-Version. Der pulvert zwar auch mal eben 40 bis 50 Watt mehr raus als ein ähnlich teurer i5-2500K, ist aber wenigstens im Anwendungsbereich teils stärker.
 
mace1978 schrieb:
Danke, dass deine Verhaltensweisen für alle verpflichtend sind. Ich habe mir noch nie einen kompletten PC geholt(Notebooks ausgeschlossen).
Und zum Fettgedruckten, wenn du es doppelt schreibst, dann hilft das doppelt?

Ich habe meine Argumente aus 3 vorhergehenden Posts nur zusammengefasst, was ich auch geschrieben hatte, du aber nicht mit zitiert hast. Und nein, meine Verhaltensweise ist für niemanden bindend, ich habe bewußt _mir_ und _ich_ geschrieben, nicht dir oder man weil sich das ganz allein auf meinen persönlichen Geschmack in meiner kleinen Welt in meiner winzigen Ecke von Deutschland in der hintersten Ecke meiner Wohnung bezog.

mace1978 schrieb:
Entweder kannst du dem Prozessor zu wenig nutzen fürs Geld vorwerfen oder ihm das Flaggschiff sein Vorwerfen, so wie du es schreibst ist es einfach nur redundant.
Desweiteren sind die Tests auf Computerbase realitätsafern, das habe ich schon weiter vorne geschrieben. Es kann durchaus sein, dass der Unterschied unter Realbedingungen grösser ist.
Nichts desto trotz ist klar, dass die CPU kein meister der Preisleistungsskala ist und sein wird.
Und überraschender weise ist das völlig normal, teurere CPUs liefern nicht die gleiche Preisleistung wie Performance CPUs.

Ist das wirklich so redundant? Mir ist durchaus klar, dass ein Flagschiff kein Preisleistungssieger wird, aber sich teilweise von einer halb so teuren CPU schlagen zu lassen kann doch auch nicht das Ziel sein -.- Und klar kann es sein dass der Unterschied unter Realbedingungen größer ist. Das gern genutzte Argument 'wenn ich gleichzeitig IM anhabe und Mailclient' usw wird ja immer wieder gebracht, _ich_ für _meinen_ Teil in _meiner_ kleinen Zockerwelt habe aber beim Zocken nichts im Hintergrund laufen, ich will einfach keine IM wenn ich gerade plündernd durch irgendein Dungeon ziehe ;) IMHO sind CPUs bei soetwas auch schon lange nicht mehr der Flaschenhals, wenn du im Hintergrund nicht irgendwelche Passwörter per Bruteforce bearbeitest kommen Ruckler eigentlich eher durch I/O zu Stande als durch deinen IM der da im Hintergrund idled...

Gruß, Mambo
 
y33H@ schrieb:
...- wenngleich in Spielen kein Hit - ist der kleinere FX-8120, gerade in der 95W-Version. Der pulvert zwar auch mal eben 40 bis 50 Watt mehr raus als ein ähnlich teurer i5-2500K, ist aber wenigstens im Anwendungsbereich teils stärker.

Hast du da auch eine Quelle zu der Behauptung des doch recht deutlichen Verbrauchsunterschiedes bei gleicher TDP?

Meines Wissens ist die 95W Version des 8120 noch gar nicht erhältlich!:rolleyes:
 
Die 95W-Version ist OEM only, hier und da aber zu bekommen. PCGH hat den u.a. getestet.

Und natürlich habe ich Werte - wie immer! Behauptungen kennzeichne ich als solche :rolleyes: Schau halt selbst bevor du mir eine Behauptung unterstellst ... meine 40 bis 50 Watt für den Lastverbrauch sind sogar niedrig angesetzt:

http://www.pcgameshardware.de/aid,675663/ [80 Watt Differenz]
http://www.hartware.de/review_1414_3.html [40 Watt Differenz]
http://www.xbitlabs.com/articles/cpu/display/amd-fx-8120-6100-4100_8.html#sect0 [55 Watt Differenz]
http://www.legionhardware.com/articles_pages/amd_fx_8150fx_8120fx_6100_and_fx_4170,7.html [78 Watt Differenz]

EDIT
Ah jetzt verstehe ich - meine 40 bis 50 Watt bezogen sich auf die 125W-Version des FX-8120, war zugegeben unglücklich formuliert von mir - sorry. Die 95W-Version des FX-8120 verbrät "nur" rund 40 Watt mehr als der i5-2500K im einzigen mir bekannten Test - effizient ist das aber leider immer noch nicht im Vergleich.
 
Zuletzt bearbeitet:
@y33H@

Bitte reagiere mir gegenüber nicht immer gleich so aggressiv und interpretiere nicht immer gleich irgendwelche Unterstellungen auf einfache Rückfragen von mir!;)

Welcher Test der 95W Version kennst du denn? Wenn ich deine Links anschaue, kommt hier m.E. immer die 125W Version zum Einsatz.
 
Entschuldige, ich habe den 95W FX-8120 nicht ins Diagramm gepackt (hole ich morgen nach! THX). Der macht load 143 statt 181 Watt. Von wegen aggressiv - es stört mich ungemein, wenn ich etwas als Fakt darlege und es immer wieder angezweifelt wird, obwohl ich praktisch immer Belege habe :(
 
y33H@ schrieb:
Lustig ist hier auch der Vergleich zwischen dem i3-2100 und dem ach so interessanten FX-4170:

i3-2100:

Performance-Index = 55,5
Idle = 42 Watt
Load = 76 Watt

FX-4170:

Performance-Index = 54,4
Idle = 43 Watt
Load = 163 Watt

Unter Last mehr als das Doppelte aus der Steckdose ziehen aber gleichzeitig nicht einmal an die Performance von einer 1,1 GHz langsamer getakteten und lediglich mit SMT statt CMT ausgestatteten CPU heranzureichen, kann man nur noch schwer positiv argumentieren.

Da helfen dann ein paar Euro Preisvorteil und vielleicht die Option fürs Übertakten in einem sehr begrenzten Rahmen.
 
Der pulvert zwar auch mal eben 40 bis 50 Watt mehr raus

Achso, dann darf man gewisse NV Karten nicht mehr empfehlen, die sry, öfters auf volllast sind als eine CPU.

http://www.pcgameshardware.de/aid,675663/
Interessant der Link, da schneidet der FX 4170 in games am besten ab (Nur FX betrachtet). Was sagt uns das ?

Simon
der teufel steckt im detail. Es reicht ein Game wo der FX bsp komplett absackt ( Dual core optimiert) und kein zündender Turbo, und schon gibt es so ein Ergebnis.

Unter Last mehr als das Doppelte aus der Steckdose ziehen aber gleichzeitig nicht einmal an die Performance von einer 1,1 GHz langsamer getakteten und lediglich mit SMT statt CMT ausgestatteten CPU heranzureichen, kann man nur noch schwer positiv argumentiere
Schau mal auf Anandtech, wirst du einen Test vom Opteron sehen. CMT bringt genau 50% , anders bei Intel <25%.
Muss dir aber leider sagen, ich bin gerade zu faul eines der Games rauszusuchen wo die 2M optimal ausgenutzt werden.

Man sieht, dass offensichtlich nur 2 cores den deutlichen Nutzen bringt, und der Turbo des 2500k einiges bringen sollte.
Ich bin gespannt wie es in paar Jahren aussieht. Dann wird man wohlmöglich FX am besten Beurteilen können.

FX-8120 verbrät "nur" rund 40 Watt mehr als der i5-2500K im einzigen mir bekannten Test
Wenn man im Endeffekt ein 2500k kauft und eine NV hat man dann den Gleichen Verbrauch wie einem FX 8120 mit einer Radeon xD Würde ich dann Grafisch einen Unterschied merken eigentlich :O ?

Aja stimmt :D Verbrauch ist nur beim Prozessor interessant :) da zahlt man gern einen Mehrwert :D
Aber bei einer HD 7770 :D ist das ein Schwachsinn, da zählt nur Leistung :D
 
Zuletzt bearbeitet:
Wie wird denn bei PCGH überhaupt der Lastzustand gemessen?

Wenn ich mir diverse Tests anschaue (bspw CB, die von y33H@ verlinkten Tests) liegt eigentlich der i7 3930/60 fast immer verbrauchsmäßig teils deutlich über dem 8150!
Warum ist das auf PCGH nicht der Fall?
 
x264 HD, wie es im Diagramm steht :rolleyes:

Zudem sind's durchweg sparsame Boards - auch bei Sockel 2011. Dies ist bei kaum einem anderen Review der Fall. CB etwa nutzt ein Asus P9X79 Pro und das ist alles, aber nicht sparsam.

EDIT
http://ht4u.net/reviews/2011/intel_sandy_bridge_e_hexa_core/index16.php

HT4U nutzen das sparsame DX79Sl Siler und da ist der FX-8150 auch nahezu auf dem Level des i7-3960X. Hier wird jedoch LinX genutzt, was die Integers des FX meines Wissens nicht auslastet (und da hat der FX eben nur vier statt acht).

pipip schrieb:
Achso, dann darf man gewisse NV Karten nicht mehr empfehlen, die sry, öfters auf volllast sind als eine CPU.
Eine GTX 580 ist immer noch weitaus effizienter als ein FX-8150. Der FX-8150 und der i7-2700K sind zudem beide 32 nm, das ist bei der Geforce und der Radeon nicht der Fall - da hat AMD den Fertigungsvorteil für sich.
 
Zuletzt bearbeitet:
Sorry, vertippt. Muss natürlich FX-8150 heißen ... gegen die Radeon kommt die GTX fei nicht an. Dafür braucht's Kepler ;-)
 
Ja aber der Vergleich hinkt sowieso. Während die GTX580 zwar den höchsten Verbrauch hatte, war sie allerdings auch in der Performance deutlich über einer 6970 anzusiedeln. Mit der 7970 sollte man die Karte nicht vergleichen, das wäre unfair, weil da ja ein Jahr Entwicklung dazwischen stecken.

Aber der FX8150 hat nichtmal die Performancekrone, außerdem kam er gut ein Jahr nach den Sandy Bridges raus. Dafür ist das Ergebnis einfach nur traurig.

Seht es doch mal so der FX4xxx verliert teilweise bei Cinebench etc. gegen Q6600 CPUs diese sind 5 Jahre alt. Von Nehalem mag ich gar nicht erst sprechen. AMD liegt bei den CPUs einfach 3 Jahre zurück und kann dies evtl. mit der APU Lösung aber wieder ausgleichen. Nur von der reinen CPU Leistung werden die die nächsten Jahre niemals an Intel ran kommen.
 
pipip schrieb:
Achso, dann darf man gewisse NV Karten nicht mehr empfehlen, die sry, öfters auf volllast sind als eine CPU.
Naja mir wäre keine AMD Karte bekannt, die 40-50W weniger verbraucht und dabei noch schneller ist.
Das Kunststück schafft vielleicht die 7970, aber es empfiehlt ja wohl keiner mehr eine GTX580.
 
Davon ab zieht eine GTX 580 in Spielen rund 220 bis 250 Watt und eine HD 7970 etwa 190 bis 210 Watt, zudem ist letztere schneller - eine GTX 580 ist angesichts des bald erscheinenden GK104 ziemlich obsolet, wie "bensen" schon sagt. GTX gegen die HD sind 15 bis 20 Prozent mehr, was die Geforce zusätzlich zieht - was weit von dem entfernt ist, was ein FX mehr frisst als ein Sandy Bridge (teils Richtung 100 Prozent!).
 
Zurück
Oben