News Bulldozer im Handel: Nur FX-8150 fehlt noch

folgerichtig ist deine aussage, aus meiner sicht, totaler nonsens. intel konnte die preise nicht erhöhen(mir persönlich ist da auch schnuppe, obs intel ist, oder die händler).

Bei erscheinen der CPUs war der Fehler, der Wohlgemerkt die Chipsätze P und H67 und NICHT die CPUs betraf, noch gar nicht bekannt! Das war erst einen Monat später der Fall!
Also wer hier Nonsens erzählt wäre da noch zu klären ;)

Edit: Die Preise wurden übrigens schon vor Marktstart festgelegt, das macht man meistens so wegen Bestellungen der Händler und so.
 
Zuletzt bearbeitet:
@Fischkopp

Bei erscheinen der CPUs war der Fehler, der Wohlgemerkt die Chipsätze P und H67 und NICHT die CPUs betraf, noch gar nicht bekannt! Das war erst einen Monat später der Fall!

ein fehler beim chipsatz der mobos betrifft ja überhaupt nicht die cpu. diese beiden elemente haben ja rein gar nichts miteinander zu tun.*:evillol:

ich wies darauf hin, das der fehler, eine preiserhöhung nicht ermöglicht hätte. worauf du nicht eingegangen bist. da du ja wusstest, das dies kaum zu leugnen ist. es ging mir ja darum, deine aussage zu relativieren, da sie als vergleich untauglich ist.

ein monat benötigte es also, den fehler überhaupt zu ent-decken*:freak:

merkst du nicht, wie du gerade meine aussagen untermauerst?

greez

Edit: Die Preise wurden übrigens schon vor Marktstart festgelegt, das macht man meistens so wegen Bestellungen der Händler und so.

was heute genauso gehandhabt wird. bei amd und bei intel.

noch immer hast du meine aussagen nicht widerlegt.
 
was heute genauso gehandhabt wird. bei amd und bei intel.

noch immer hast du meine aussagen nicht widerlegt.

Dann zeig mir bitte ein einziges Beispiel in dem Intel die Großhandelspreise erhöht hat!
Das war bei erscheinen des Phenom I nicht der Fall und ist es auch jetzt nicht!
Aja wenn deine Logik so Lückenlos ist, hätte Intel ja die Preise bei erscheinen der B3 Chipsätze erhöhen können, haben sie das?

Der Chipsatzfehler war ausgeräumt und die CPUs verkauften sich nach wie vor! Von Konkurrenz weit und breit keine Spur ;)

Edit: Passt vielleicht auch ganz gut, von wegen Intel Preispolitik: https://www.computerbase.de/news/pr...uch-als-pentium-und-celeron-nachfolger.28439/
 
Zuletzt bearbeitet:
http://www.golem.de/1110/86974-8.html

ja ich glaube wenn ich jetzt einen Spiele-pc kaufen wollen würde und ein bisschen Geld über hätte würd, würd ich wenn ich könnte auf den BD2 warten, wenn nicht würd ich den BD1 kaufen trotz allem.

Warum, 1. kann ich mit Intel nix anfangen, nicht böse gemeint, aber ist jetzt bei mir halt so (könnte jetzt begründen warum), und warum würde ich nicht nen Phenom II kaufen, weil BD1 einfach mehr Leistungspotenzial hat, kommt jetzt auch noch ein bisschen auf die Preisentwciklung an, aber für Spiele reichen ja alle genannten.

Ich finde auch das hier Computerbase unseriös vorgegangen ist, wie man es richtig macht sieht man hier und golem ist keine Amd-fanboy-seite:

http://www.golem.de/1110/86974-8.html ( Kein Fazit )

naja egal. Höchstens der Stromverbrauch könnte Probleme machen, wenn ich mit einem Phenom ein Netzteil weiter verwenden könnte und mit einem FX nicht wäre das vielleicht ein grund aber die 4core variante müsste doch nicht so schlimm sein?

Ansonsten will ich noch was dazu sagen, AMD hat eine History das sie gerne neue Erweiterungen Designs umsetzen die neu sind, die von Software erstmal schlecht unterstützt werden, denke da besonders an 64bit, bis dort eine Mehrheit 64Bit windows eingesetzt haben vergingen wohl Jahre nach dem Release des ersten amd64, auch die ersten Dualcores und glaub auch quadcores? kamen von amd, bei den Dualcores haben in Benchmarks von den damals aktuellen spielen auch Single-core Prozessoren besser ab geschnitten, aber damals wollte jeder nen 2. core weil 1. cool 2. es wirklich fürs Multitasking sehr nett war, in kleinem Mase gilt das wohl für den 8core jetzt auch wieder, schon alleine deshalb fänd ich den interessant (wobei es dabei natürlich auf den Preis an kommt).

um es mal auf einen Punkt zu bringen, amd hat damals auch so viele amd64 verkauft weil sie auch in 32bit die besseren Prozessoren waren, sie waren von der Preisleistung und Stromverbrauch Intel-cpus überlegen und dem Vorgänger auch. Wenn ich das mit heute vergleiche, wäre der athlon 64 wohl damals als "schwarzer freitag"-prozessor abgestempelt worden wäre er genau gleich gewesen in 64bit aber wäre stark in 32bit eingebrochen.
Nun war 64bit länger ein großes Problem weil praktisch 64bit Windows xp gefloppt ist und es kaum treiber gab und nix, daher wäre das schlimmer gewesen, einen neuen Sheduler schreiben ist kein Problem auch steht ein anderes Windows vor der Tür, daher sehe ich gute changen das BD hier doch noch einies wett macht und im Nachhinein anders beurteilt wird. Wir werden sehen ;)

Was man aber sicher festhalten kann ist das sie sich (zu) früh auf den Markt mit dem Produkt getraut haben, ich hoffe Amd hat sich dabei was gedacht und profitiert mehr davon wie sie vielleicht an Image/Kunden oder so bei Gamern verlieren ;)
 
Zuletzt bearbeitet:
@Fischkopp


Dann zeig mir bitte ein einziges Beispiel in dem Intel die Großhandelspreise erhöht hat!

ne du. der fall ist deiner beweislast unterlegen(das spielchen mit dem drehen, funktioniert nicht so richtig, bei mir). du behauptest ja, das intel(oder die händler) dies nicht tut.
die sache ist ja nicht die, das mich interessiert, obs nun explizid intel, oder die händler sind. wie du selbst von mir zitiertest.

dem kunden ist das schlicht schnuppe. diese unterteilung ist vielleicht für deine argumentation wichtig. in der sache ist sie letztendlich egal. intel sowie amd sind firmen, da findest du keine moral. da gehts um profit.

der preis stieg mit der zeit. da der fehler elliminiert wurde und amd kein leistungstechnisch gleichwertiges produkt liefern konnte. damit sind wieder die HäNDLERPREISE gemeint. denn nur das ist für den endkunden wichtig/relevant.

dein vergleich, ist also nach wie vor nonsens.

nix für ungut.

weiter bist du auf keinen einzigen punkt, meiner aufgeführten argumente auch nur annähernd, eingegangen. was für mich eher heisst, das du keiner ernsthaften diskussion nachkommen möchtest.

greez
 
das du keiner ernsthaften diskussion nachkommen möchtest.
Doch gern :)
Aber da ich eben am Abendbrot essen war ;)

Also nochmal:

Du schreibst das der Fehler im Chipsatz eine Preiserhöhung unmöglich gemacht hat. Dem könnte man durchaus zustimmen!

Aber Intel hat die Preise bereits im August 2010 offen gelegt und an der Vorgängergeneration orientiert:
https://www.computerbase.de/news/pr...uch-als-pentium-und-celeron-nachfolger.28439/

Dazu stand da schon fest das der 2600K eine Preisklasse unter dem I7 870 bei erscheinen liegen würde, trotz deutlich höherer Leistung! (Siehe auch im Link oben!)

Edit: Der I7 870 hatte eine Preisempfehlung von 530 Euro: https://www.computerbase.de/artikel...ite-41#abschnitt_preisgestaltung_und_ausblick

Die Preise für Händler haben sich für die SB Topmodelle seit dem zumindest bis September 2011 nicht geändert, denn da sind ein paar SBs im Preis gesenkt worden: https://www.computerbase.de/news/pr...dy-bridge-und-preissenkungen-offiziell.32733/

Die nächste Preisanpassung ist für Ende Oktober vorgesehen, wohl mit erscheinen des 2700K!
Da wird man dann sehen was an Sprüchen wie "Intel steigert jetzt die Preise!" dran ist. Wobei auch Intel "nur" verkaufen will und die Preise, wie man am Beispiel Lynnfield zu Sandy Bridge sieht, sogar eher gesenkt hat!
 
Zuletzt bearbeitet:
Was lasst ihr euch auf die Diskussion ein, dass Intel an der Preisschraube dreht? So ein Mist muss man erst mal selbst glauben und dann hat man andere Probleme als Realitätsverlust.
Der FX-8150 ist ein Papierkätzchen, der wird wenn überhaupt nur in minimaler Auflage kommen, wieso sollte AMD für die Schrottpresse produzieren? Selbst wenn er auf das Preisniveau des 2500K fällt, verbrät er noch immer abartig viel Energie. Als Desktop CPU gibt es für die meisten User bessere Alternativen. AMD muss halt die Zeit zur Revision überbrücken.
 
tarrabas schrieb:
diese aussagen von CB zeigen deutlichst, das da noch etwas geht(optimierungen). ... einen abschliessenden test, mit der entsprechenden ausstattung ala mobo und ev windows8 wird eher zeigen, was die neue amd-cpu wirklich kann.

Bis dahin gibt es wahrscheinlich den BD1 schon im B3/C0 Stepping oder schon den BD2.
Außerdem kommt im nächsten Jahr Intels Ivy Bridge und wird nochmal in puncto Effizienz zulegen.

Somit lohnt sich ein Kauf der jetzigen FX Prozessoren nicht, da sie ihre Leistung nur zum Teil ausspielen können und beim Stromverbrauch nicht mehr zeitgemäß sind.
 
@Tarrabas:
Ich habe mir übrigens, trotz des Desaströsen Stromverbrauchs des FX8150 bei OC, einen FX 8150 vorbestellt!
Da ich gespannt bin wie die Real Life Performance der CPU in Multithreadanwendungen (also ganz ohne 4 Kern Beschränkung und co.) aussieht.

Edit: Da es hier ja auch hinpasst:
KillerGER87 schrieb:
Erste FX 8150 lieferbar laut Geizhals bei HoH und bei getgoods
MFG
 
Zuletzt bearbeitet:
@Fischkopp

hach, ok, ich merke, wir haben aneinander vorbeigeredet. mir ging es explizid um deinen vergleich.

ich persönlich sehe keine irgendwie geartete unstetigkeit in der preispolitik seitens intel anders als andere hier anprangern. ich sehe jedoch, das intel, seit es amd in einigermassen konkurrenzfähiger leistung gibt, die preise senkte. damit meine ich gesamtheitlich, da ein mitbewerber eben die preise senkt. was soweit ich weiss, jeder gemerkt haben dürfte.

als beispiel :

als der core 2 duo auf den markt kam, kaufte ich mir den damaligen 4. besten prozzi, für ca 450 sfr. heute bekommt man für ca 290 sfr einen i7 2600. womit gesamtheitlich der preis gesunken ist, meiner meinung nach. sieht man schon daran, das man für ein vernünftiges system keine 2600 sfr mehr benötigt.

Ich habe mir übrigens, trotz des Desaströsen Stromverbrauchs des FX8150 bei OC, einen FX 8150 vorbestellt!
Da ich gespannt bin wie die Real Life Performance der CPU in Multithreadanwendungen (also ganz ohne 4 Kern Beschränkung und co.) aussieht.

da sind wir einer meinung. da ich immer auf die zukunft blicke, soweit möglich. ich sehe durchaus potenzial in der cpu. auch wenn manche leider einen zu kurzen blick haben. hätte ich gerade den bedarf, würde ich mir ev auch einen bulli holen. da MEINER erfahrung nach, die leistung im oberen segment für mich passend ist. da meine rechner praktisch alle minimum 5-8 jahre laufen. auf die zukunft gerichtet, dürfte der bulli ne weile mitspielen können. klar, da kann ich mich auch irren. ist wie immer in der it. nichts ist unmöglich.*s

das der verbrauch desaströs ist. nuja, ich denke mir, da kann man mit dem mobo noch einiges herausholen. von daher bin ich gespannt, was passieren wird. amd hätte da noch ne gute chance, das ganze hinzubiegen. natürlich falls die mobo-hersteller mitziehen. ich vermute mal(ohne beweise), das die mobos einiges reissen können. sind ja schon neue chipsätze auf dem weg. nicht, das dies das steuer grundlegend herumreissen könnte. doch so wahnsinnig viel, benötigt es ja nun auch wieder nicht. amd hat immerhin den trend Multithreadanwendungen erkannt(meine meinung).

auch, sind die meisten rechner eh die grösste zeit im idle. vergisst man auch zu oft.

auch windows8 dürfte so einiges richten. was ja, seit dem xp-vista vergleichen, sehr deutlich wurde. da wurde auch herumgemäkelt, vista sei langsamer. das es von beginn an stabiler war, als xp zu beginn, entging den meisten.

lange rede kurzer sinn : ich warte erstmal ab, bis sich die erste aufregung gelegt hat und die praxis zeigt, was wirklich in dem teil steckt.

@CHAOSMAYHEMSOAP

Bis dahin gibt es wahrscheinlich den BD1 schon im B3/C0 Stepping oder schon den BD2.

das ist wahrscheinlich.

Außerdem kommt im nächsten Jahr Intels Ivy Bridge und wird nochmal in puncto Effizienz zulegen.

ich weiss nicht wie es dir geht, aber meine glaskugel ist gerade in der reperatur. ernsthaft, das weiss noch KEINER.

Somit lohnt sich ein Kauf der jetzigen FX Prozessoren nicht, da sie ihre Leistung nur zum Teil ausspielen können und beim Stromverbrauch nicht mehr zeitgemäß sind.

kannst du so sehen. dagegen hab ich nix. ich sehe, das die prozessoren in der vergangenheit wesentlich mehr benötigten. womit für mich, die sache gegessen ist. mal ehrlich, ne extra stromsparende cpu und dann ne high end graka? dort ist der verbrauch dann egal? ich weiss nicht, für mich ist das irgendwie inkonsequent. aber auch da, kann man geteilter meinung sein. geschweigedenn, wenn man mal rechnet, wie viel so ein kompletter rechner an herstellungs-energie benötigt. würde man das ganze konsequent durchrechnen, müsste man sich zweimal überlegen, ob ein neuer rechner wirklich notwendig ist.

greez
 
Also ich habe mein 1090T erst einmal auf 3,8GHz auf alle 6 Kerne gebracht, ich glaube das reich dann noch bis zum FX 8170 auf den bin ich gespannt. Schade ich hatte mir schon die Kohle bei seite gelegt naja NV kommt ja auch bald mit einer neuen Graka, dann kaufe ich lieber da.
 
hach, ok, ich merke, wir haben aneinander vorbeigeredet. mir ging es explizid um deinen vergleich.

Oops! Okay dann tut es mir leid :)

Argh da habe ich eben Minutenlang geschrieben und nun ist es weg :(

Aber zum Zusammenfassen:
Intel hat den Mainstream vom High End Markt preislich komplett abgegrenzt!
Im Grunde mit den damaligen Preissenkungen für den I7 970 Gulftown konnte man sehen das die Mainstream CPUs nicht mehr (oder kaum) teurer als 300 Euro waren und dann eine Lücke zum kleinen Gulftown klaffte!

Man sieht es ja u.a. daran das die Preise bei den I3, I5 und I7 2XXX CPUs auf ähnlichem Niveau geblieben sind. Darüber werden dann jetzt die I7 3XXX CPUs angesiedelt, sowohl bei der Leistung als auch den Preisen.
Ein vermischen der einzelnen Linien wird bewusst vermieden, von den kleinen SB-Es wohl mal abgesehen, wobei die wohl eher die Enthusiasten ansprechen sollen denen ein I7 2XXX zu normal ist :)
 
Ich frage mich immer wo die leute den Schmarn mit den Stromverbrauch her haben. Der BD verbraucht bei gleichem Takt und vcore pro Kern nicht mehr als sein Vorgänger, sondern weniger. Er frisst bei Last mit 4 Modulen knap 11% mehr Leistung als der 6 Kerner. aber er hat 4 Module und fast doppelt so viele Transistoren. Er ist also nicht schlechter als sein Vorgänger, dafür ne neue Architektur, gut in parallelen Aufgaben und hohen OC Potenzial.

Und wer der Übertaktet interessiert sich für den Stromverbrauch...
 
Zuletzt bearbeitet:
Muffknutscher schrieb:
Es gibt z.B. Anwender die nicht, oder nur wenig Spielen und mehr Anwendung fahren für die viele CPU's von Vorteil sind. Und das Hauptgeschäfft läuft nicht über die Zocker. Die machen nur einen geringen Teil aus. Viel eher sind Firmenkunden interessant die auf einen Schlag mal 2500 Desktops bestellen. Oder auch Server/HPC da ist die Kohle und nicht unbeding bei den Spielern.
Deshalb sehe ich persönlich keine all zu große Gefahr für AMD.

Aber diejenigen, die "Anwendungen" auf ihrem PC laufen lassen, kaufen fast ausschließlich Intel-CPU's.

Es macht schon ein Unterschied, ob man z.B. bei FEM-Berechnungen 6 Stunden warten muss oder 4.5 :D
In dieser Hinsicht sind sämtliche AMD X4 und X6 völlig ungeeignet.

Interessanterweise scheint ausgerechnet der hier vielgeschmähte Bulldozer genau in diesem Bereich recht nahe zu Intel aufgeschlossen.

Bulldozer II oder wie immer der Nachfolger auch heißen mag könnte dann für "ernsthafte" Anwendungen außerhalb des Freizeitbereichs eine echte Alternative zu Intel werden.
 
mastermc51 schrieb:
...
Da aber alle wie hypnotisiert jede Intel CPU kaufen, egal wie teuer, wird sich preislich auch nicht so viel tun, das sollte klar sein ...

... sorry - aber du redest mehr oder weniger nur Müll!

Denn wenn du auch nur für eine Sekunde nachgedacht hättest, wäre selbst dir aufgefallen, dass Intel mit dem Sandy eine CPU auf den Markt gebracht hat, dessen Preis im Verhältnis zur Leistung noch nie so günstig war ...
 
Zuletzt bearbeitet:
Ich bin mal auf Tests den FX4100 und der 6000er Serie gespannt.

@Tarrabas

Ich weiss nicht wie es in der Schweiz aussieht, aber in Deutschland wird der Strom jährlich teurer und teurer und natürlich schaut man dann auch wo man sparen kann. Die Effizienz bei Intel ist da momentan einfach um einiges besser. Wir sprechen hier immerhin unter Last von 50-70 Watt und wenn man Abends den Rechner 4-5 Stunden auslastet, macht sich das auf ein Jahr wirklich bemerkbar.

Ich hab das mal kurz ausgerechnet anhand folgender Daten:
https://www.computerbase.de/artikel...est.1581/seite-19#abschnitt_leistungsaufnahme

Ich habe dazu einen Stromrechner benutzt und bin davon ausgegangen, dass man den Rechner 6 Stunden am Tag benutzt. Als Vergleich hab ich die Werte aus Differenz Idle-Vollast genommen bei 20Cent pro Kwh. Der deutsche Durchschnitt zahlt mehr pro Kwh:

I5 2500K 74 Watt sind 0.09 € am Tag 0.62 € in der Woche 2.66 € im Monat 32.41 € im Jahr
I7 2600k 88 Watt sind 0,11 € am Tag 0,74€ in der Woche 3,17 € im Monat 38,54€ im Jahr
FX 8150 143 Watt sind 0,17 € am Tag 1,20 € in der Woche 5,15 € im Monat 62,63 € im Jahr

Das heisst der I5 is knappe 30€ billiger im Jahr als der FX 8150 und der I7 ist knappe 24€ billiger.

Dennoch gebe ich dir Recht, dass viele bei den Grafikkarten nicht schauen, ich habe jedoch mich vorher informiert und deshalb eine 6970 geholt anstatt einer Nvidia Karte. Ich hätte mir auch eine GTX580 holen können, aber als ich den Mehrverbrauch sah, war mir das im Leistungsverhältnis das Geld nicht wert.

Zu Windows 8, da gibts ja bereits ein paar Tests und ja der Bulli ist dort bereits schneller als bei Windows 7. Aber das sind stand Heute in den Tests auch nichtmal 10% gewesen. Das hebt ihn weiter vom Phenom II ab, die Sandy Bridges sind dagegen momentan in Windows 8 langsamer als in Windows 7. Irgendjemand hier hat da mal eine schönen Vergleich gepostet. Da wird sich auf alle Fälle bis zum Release von Windows 8 noch einiges tun aber auf beiden Seiten. Man sieht da jedenfalls deutlich das auch noch keine Optimierung für die Intel CPU´s statt gefunden hat.
 
der durschnittliche Haushalt in Deutschland zahlt 300 Euro mehr im Jahr im Vergleich zu vor 5 Jahren. Das ist locker die Lebensspanne eines Pentium 4 Systems, C2D erst recht bzw. Quadcore sowieso. Da macht es sich letzlich schon bemerkbar, zumal die PC immer länger an sind. Ich fahre meine Computer selten runter. Mein HauptPC ist im Schnitt 1 Monat online, höchstens wenn er rebooten muss wegen nem Update startet der neu. Ich hatte davor nen C2Q Q6600@3,3GHz. Ich spare nun locker 40W im IDLE, das macht über 50 Euro im Jahr. Wobei das unwichtig ist, er chruncht ja die ganze Zeit.
Ist bei mir nen Sonderfall aber der FX8150 würde mich jährlich unter Last 140 Euro mehr kosten (zum 2500K) und nicht mehr Rechenleistung bringen.

PS:

Ich hatte früher (betreue einen Verein) alte Kühlschränkle und Durchlauferhitzer und jährlich etwa 24 000 kWh Verbrauch. Das wurde dann besser, als Gasthermen eingebaut wurden. Dann waren es "nur" noch 16000 kWh. Dann wurden die alten Kühlschränke entfernt und durch hochmoderne Technik ersetzt, Energiesparlampen, Dimmer, weniger Desktoprechner, mehr Notebooks. So wurde leztztlich der Stromverbrauch auf 11 000kWh gesenkt. Noch immer viel, aber deutlich besser als vor 15 Jahren.
 
Zuletzt bearbeitet:
Warum, 1. kann ich mit Intel nix anfangen, nicht böse gemeint, aber ist jetzt bei mir halt so (könnte jetzt begründen warum), und warum würde ich nicht nen Phenom II kaufen, weil BD1 einfach mehr Leistungspotenzial hat, kommt jetzt auch noch ein bisschen auf die Preisentwciklung an, aber für Spiele reichen ja alle genannten.

Also ich will Dich jetzt nicht enttäuschen. Ich hätte auch gerne einen BD gekauft. aber die Fakten sind nun mal so, dass der BD gerade kein Potenzial hat, was es für Gaming interessant machen könnte ihn auf Vorrat (bis das Potenzial dann mal irgendwie ausgeschöpft wird) zu kaufen. Er ist JETZT sehr schlecht, auch beim Gaming, auch bei Grafikkarten-limitierten Auflösungen. Mit viel Glück landet man immerhin bei nur 10-20% unter einer SandyBridge-CPU (2500K), zB bei Battlefield Bad Company 2, ansonsten sieht es düster aus.
Wenn man ein CF/SLI-Gespann hat - wie ich zB - dann kannst Du den BD gleich vergessen, denn dafür hat er sowieso nicht genügend Rechenkraft.

AMD hat den Fehler gemacht, je einem Modul aus zwei "Cores" nur eine Integer und nur eine Prefetch-Einheit gegeben zu haben, die Latenzen und Durchsatzraten der Caches sind allesamt unterirdisch lahm ggü SandyBridge, Gulftown&Co. aus dieser CPU, die man ja jetzt kaufen könnte, wird niemals irgendjemand deutlich mehr Leistung rausholen können, weil sie nicht da ist. Bedauerlicherweise.

Natürlich ist der BD vom Design her in eine Richtung optimiert. Aber das wird in der Realität beim gaming nie ankommen, denn die Optmierung erfolgte eher in Richtung Servereinsatz. Da fällt fürs gaming nichts Nennenswertes ab. Es wird auch keiner seine Software besonders auf BD und seine gaming-Eignung optimieren, weil niemand so unvernünftig sein wird, sich fürs gaming einen BD zu kaufen. In der Realität kaufen natürlich immer welche ihn dafür - wofür er besonders schlecht geeignet ist - auch sonst werden einige Komplett-PCs damit verkauft ("8 Kerne !!! :freak:) und dann auch zum Spielen eingesetzt. Und für Gelegenheitsspieler oder für grafisch nicht anspruchsvolle Spiele ist er ja auch wie die meisten anderen CPUs geeignet.

Wer aber einen gaming-Rechner haben/bauen will, der kann sich keinen BD kaufen. Weder jetzt, noch vernünftigerweise in der Hoffnung, er habe Potenzial, das noch freigelegt werde. Dann fürs selbe Geld jetzt einen SB 2500K kaufen und sofort und für alle Zeiten (meine Meinung nach) mehr gaming-Power haben. Natürlich nicht für eine 8800GT oder eine 4870 sowie für Minesweeper oder Lara Croft 1.

Gaming-Power hat und wird der BD keine haben.

Und auch was die Profis an Prognosen abgeben, was in einem nächsten Schritt optimiert werden können, sieht es duster aus, zumindest was ich kenne. Natürlich kann AMD mit dem fertigen BD unnütze Transisoren im Design eliminieren, hier und da vielleicht noch eine Optimierung (größere L1+L2 Caches mit niedrigeren Latenzen und mehr Durchsatz ?). Aber bis das der Fall ist ziehen noch 6-12 Monate ins Land und hey: SandyBridge-E steht vor der Tür !
Wenn AMD den BD2 sagenhafte 25% flotter machen würde, 10% über Design und 15% über den Takt, dann wäre der BD in Kampfweite zum SB 2600K. In 6-12 Monaten steht aber der 2600K nicht mehr im Ring, sondern ggf mal ein billiger Gulftown (So1366 6core intel), und der SB 2700K bzw der kleine SB-E dazu. Da hat auch ein BD2 keinerlei Chancen.

Ergo: der BD1 muss im Preis saftig runter, damit er gegen "schwache" 4core von intel antreten kann.

Und mein Fazit: den BD kann man leider wegen der derzeitigen Leistung nicht zum Gamen kaufen, noch viel weniger aber in der Hoffnung aus noch ausgeschöpftes Potenzial. Es gibt keins fürs gaming. Meine Meinung alles natürlich. Hätte es gerne anders gesehen, vor allem wegen meiner AMD-Aktien. Pech gehabt...
 
RIPchen
solltest dir eventuell überlegen was das Wort Potential bedeutet.
Weiters sind die Aktien aufgrund von Llano gefallen... Weil man die Erwartung Senken musste.
Somit deine Aussagen sind eventuell aus jziger Sicht ausreichend, aber selten kann man sagen wie die Zukunft aussieht. Man hat es jz schon schwer die IPC zu erhöhen, und das wird in Zukunft immer schwerer werden. Somit gibt es einen Trend zum Multicore Architekturen und Bulldozer ist ein guter Anfang. Als AMD die ersten Quadcore unter 100 euro angeboten hat, gab es schlaghaft auch mehr Games die 4 cores unterstützten. Man sieht dass schon einige mit einem Intel Core Duo E8600 auf einen Quad gewechselt haben (meist auf einen Athlon II X4, der 80 euro kostete und bei vielen Games weit aus besser war). Die Software wird sich auf mehrere Threads optimieren. Somit gibt es ein Potential das nicht genützt wird, weil die Meisten Software (auch das Betriebssystem Win7 nicht optimiert sind) und das somit auch bei Games. Bei neueren Games schlägt sich die Architektur schon gut, obwohl sie noch sehr in den Kinderschuhen steht, im Gegenteil zu der SB-Architektur, die mehr oder weniger eine größere Optimierung der letzten war.
Das alte Games von einer starken IPC profitieren (besonders wenn es nur 2 cores sind) ist schon klar.
Das SB und Phenom II besser als BD abschneiden auch. Würde der Turbo gut funktionieren würde man eben aber die Game Leistung eines Phenom II (turbo auf 200+) erreichen.
Somit ist ein 8 core für Games in der Zukunft schon eine überlegung wert. Mehr als ein dual core der dann auf 100% voll last laufen, denn man sieht dass ein 4 Modul Bulli für jzigen Games auf max setting ausreicht.
Zum Gamen reicht ein Core i3-2100 oder Phenom II x4 auch.
Das nächste ist, es ist so ein Fehler NIE zu sagen. Sag niemals Nie, sagt schon ein bekannter Film Titel (James Bond). Games werden in der Zukunft 8 cores unterstützen. Sieht man ja schon bei BF3, dass das game das tut. Und ich denk mal dass das Game neuen Maßstab setzen wird, und somit auch die Mehrkern-Unterstützung. Viele kaufen sich sogar einen neuen PC nur für das Game. Selbst ein Kumpel von mir der seit Jahren mit einem single core (Athlon 64) herumgammelt hat.
Was Bulldozer Gaming Systems angeht. Naja sogar PCGH hat einen Bulli-Gamer-Pc und auch andere Online-Shops, bissl abwarten und wirst mehrere solche Systeme sehen. Wieso sollten 8 cores nicht werbetauglich sein ? Würden wir von Benchmarks nichts wissen, würden wir meist nur einen Preisunterschied bei GamerPC sehen, selten aber einen Unterschied.
Denn wenn jz ein 2500k oder ein BD verbaut ist, wird ein Otto beim zocken mit der gleichen Grafikkarte keinen unterschied sehen. Nur der Hardware interessierter, wird versuchen zahlen zu ermitteln usw... und wenn er 10 frames mehr hat wird er sieghaft aufstehen und sich rühmen...
Was den Verbrauch angeht, verbraucht der BD meist weniger als der Phenom II beim normalen gebrauch, weil er viel seltener in höhere p-states muss, und auch noch besser optimiert ist (v-core pro p-state usw).
Das was du den Bulli anprangern kannst, ist der hohe Verbrauch unter last, der als ich bei HT4U (max last weniger CPU-Verbrauch+wandler differenziert habe, das AMD Board unter last um 30-40 watt mehr verbraucht als das Intel board. Somit passt fast die Differenz von den TDP klassen. 95 zu 125...)
Würde man besser optimiertes AMD-Board nehmen (MSI) und turbo deaktivieren der eh nur verbraucht, aber selten was bringt... (jz undervolten ausgenommen) verbraucht der Bulli nicht mehr um Welten mehr als der 2500k. Man muss sich nur zu helfen wissen.
Außerdem wer ist so dumm und kauft den FX 8150, wenn er den FX 8100 bald um die 150 euro wahrscheinlich kaufen kann??? Wenn man schon einen offenen Multi hat, kann man den bestimmt auf die 4 ghz+ ohne v-core spannung heben (hoffe es) mit einer TDP von 95 watt, aber das muss man abwarten.

Mein Fazit. Damals hatten Quadcores ein Potential das kaum Verwendung fand, und sämtliche Dualcores waren in Games schneller. Heute sind die Quadcores den Dualcore meist überlegen...

Btw
https://pics.computerbase.de/3/6/0/6/7/19-1080.3046113244.jpg
Weiteres was irwie nicht richtig im Test erwähnt worden ist. Verbraucht der Bulli meist weniger als der Phenom II x6 beim normalen Gebrauch...
http://www.tweakpc.de/hardware/tests/cpu/amd_fx-8150_bulldozer/s13.php
 
Zuletzt bearbeitet:
Zurück
Oben