News Deutlich schnellerer „Bulldozer“ mit drei Modulen in Kürze?

Wieso das AMD nicht einfach ändert?

Ich denke man sollte einfach mal überlegen, dass jetzt alles auf die Fertigung angepasst ist. Dort gibts Verträge, Fertigungsstraßen etc.

Wenn da AMD jetzt von diesem Vertrag zurück tritt bzw. was anderes fertigen lässt dann ist das ein Vertragsbruch und das wird bestimmt mit sehr empfindlichen Strafen gehandhabt.

Ich vermute zudem, dass man bei AMD einfach mit dem Weg weg von Kernen zu Modulen wohl dachte, dass man konkurrenzfähiger ist.

AMD hat sich einfach verkalkuliert mit dem Bulli und das kann man nicht mal eben von heut auf Morgen ändern, deswegen versucht man erstmal das beste aus dem was man hat zu machen. Das genau zeigt für mich diese CPU. Ich denke man muss da mal einige Tests abwarten wie sich dieser Bulli im Vergleich schlägt. AMD müsste ganz klar an der Effizienz arbeiten. Wieder zurück zu der Phenomtechnologie wäre ein Rückschritt und das würde die jetzt nur noch weiter nach hinten katapultieren.
 
Zumindest in Phenom III X8 mit oder Phenom III X6 mit 4Ghz Standarttakt hätten sicher mehr gerissen

sehe ich genauso. bei AMD muss man sich doch bewusst gewesen sein, dass die leistung im desktopbereich hinterhinkt und auch noch mit dem eigenen x6 konkurriert. mit dem llano hat man doch gezeigt, dass es geht. ein Athlon II so schnell wie ein Phenom II. noch den L3 cache wieder drangebastelt +2 kerne und man hätte besser dargestanden.

bulli hat sicher seine daseinsberechtigung, sonst würde er nicht so oft gekauft werden. AMD soll ja gerade so mit der produktion hinterherkommen. nur ist dieser bereich zu 95% für heimanwender uninteressant.

bin aber ziemlich sicher, dass AMD mit dem piledriver es wieder hinbekommt eine sehr gute cpu
für desktopsysteme anzubieten.

AMD müsste ganz klar an der Effizienz arbeiten. Wieder zurück zu der Phenomtechnologie wäre ein Rückschritt und das würde die jetzt nur noch weiter nach hinten katapultieren.

sie sollen ja nicht wieder zurück. aber für mich ist das die frage, ob es nicht sinnvoller fürs image
gewesen wäre zu sagen, erst noch ein phenom III, bis bulli optimiert, oder sogar übersprungen zu piledriver wird im desktopbereich. im profi-bereich, soll er ja eine sehr gute leistung haben und man hätte mit ihm schon geld verdient.

ist doch keine schöne position jetzt für AMD, die eigene ältere generation als direkte konkurrenz und dann ist da noch Intel. und beide konkurrenten sind effizienter, bieten bessere preisleistung und der eine noch dazu um einiges schneller.
 
Zuletzt bearbeitet:
@lynx007

Im Gegensatz zum BD war der Phenom I ein verdammt günstiger Quadcore und kein pseudo 8-Kerner der nicht mal in Preis/Leistung mit halten kann:o
 
Wieder mal eine typische AMD Marketing Folie. Die Newegg Rezensionen sind ja mal total wichtige Info. Vor allem passen die Zahlen der bestehenden Prozessoren nicht - laut derer wär bei MainConcept der Phenom II X6 1100T deutlich flotter als der i5-2400, ist er aber laut CB nicht. Genauso soll ein X4 langsamer sein als der FX 6100, er ist aber schneller.

Alles in allem versucht AMD sein Debakel nur zu vertuschen. 125W TDP zeigen ja an wohin die Richtung geht! Moar Powar!!!!! (-consumption). Macht schlappe 41W TDP pro Kern. Da baut Intel ja schon Quadcores für!

BD hätte niemals in den Endkundenmarkt entlassen werden sollen.

mfg
 
Ov3rDriv3r schrieb:
Ich kann mich nur widerholen: Man hätte zumindest für den Heimanwender die Phenom II Architektur auf 32nm schrumpfen sollen.
Durch die kleinere Fertigungsstrucktur und den geringeren Cache als beim Bulli ergäbe sich ein geringerer Energiebedarf und man hätte bei 125 W TDP noch Kerne anheften oder den Takt ins Unendliche treiben können.

Hat man doch gemacht, gibts zwar nur mit 4 Kernen, aber der Llano ist ein K10.5. Die CPU reißt zwar keine Bäume aus, ist aber für einen Großteil der Heimanwender ist die Leistung ausreichend. auch wenns kaum jemand wahrhaben will. Ich selbst wollte auch immer möglichst schnelle CPU. Gebraucht hab ich sie nie bin deswegen auch von einem i7 auf einen i3 umgestiegen und was soll ich sagen, für alltägliche Tätigkeiten reicht die CPU aus.

Ein Shrink ist aber kein Allheilmittel für höhere Taktraten, sonst hätte AMD ja auch beim K8 bleiben können. Aber beim K8 war bei knapp über 3GHz einfach schluss, da hat selbst der Shrink von 90 auf 65nm nichts daran geändert. Auch bei den 32nm Llanos erreicht man keine höheren Taktraten als bei einem 45nm K10.

Zum Zambezi selbst und damit der News, gut dass AMD die Taktrate erhöht, besonders da die CPU´s sehr gut mit dem Takt skalieren sind die 15% schon sehr realistisch. Schade ist lediglich die höhere TDP-Einstufung, aber bekanntlich ist ja TDP =! Verbrauch somit lässt sich so schlecht auf die Effizienz schließen, denn selbst wenn die CPU nur 96W benötigen würde, würde sie ja trotzdem schon in die 125W Klassifizierung fallen.
 
Warum will eigentlich niemand so richtig verstehen das der Bulldozer einfach noch ne brandneue Architektur ist und diese erstmal eine gewisse Zeit in Anspruch nimmt um diese zu verbessern ?

Ich kann mich noch gut daran erinnern als ich mir damals meinen aller ersten Phenom 9850 BE samt Rechner gekauft habe und jede Benchmarks zum damaligen Zeitpunkt eindeutig für die Q9xxx von Intel sprachen....ganz ehrlich ...genauso wie heute...öh was ne Drecksgurke...öhöhö schön blöd wer da nich zu Intel greift blabla. Heute darf man sich dann anhören "Joa der Phenom ist from P/L sau gut ole ole 955 C3 Stepping alles toll"

2011..wieder die selbe Leier. Bulldozer was en Mist ..ole ole Sandy/Ivy Bridge alles supi.

Wer weis denn schon ob AMDs Konzept mit Mehrkernern aufgeht ? Die Optimierung zu Quad und höher ist doch schon deutlich erkennbar. Damals hieß es: Dual Core...reicht locker!! Heute muss es schon ein Quad sein. Der hohe Stromverbrauch ist zwar ein eindeutiges Manko, jedoch juckt das manche Besitzer überhaupt net, vor allem wenn man sowie OCed und sich die Bonsen Graka in den Rechner schiebt.

Der Bulldozer mag zurzeit ein Papiertigcha sein, aber wer weis denn schon wie die Zukunft aussieht ? Gerade auf Computerbase fällt mir immer wieder auf...wie das Ding gleich zertrümmert und auseinander genommen wird, nur weils die 999% Mehrleistung bei -999% Stromverbrauch nicht geknackt hat.
 
KainerM schrieb:
Alles in allem versucht AMD sein Debakel nur zu vertuschen. 125W TDP zeigen ja an wohin die Richtung geht! Moar Powar!!!!! (-consumption). Macht schlappe 41W TDP pro Kern. Da baut Intel ja schon Quadcores für!

Damit disqualifizierst du dich doch selber. Erstens wären es 41W pro Modul und nicht Kern, zweitens die TDP Klassifizierung sagt nichts über den tatsächlichen Verbrauch aus. Wer sagt denn, dass man die 125W erreicht? Kann genauso sein das der 6100 max. 93W verbrät und bei 95 W TDP eingestuft wird und der 6200 verbrät max. 97 W und landet dann bei 125 W TDP.
 
Sich mit Intel zu vergleichen/nachzuziehen haben sie ja "offiziell" schon aufgegeben, jedoch kann sich auch der 6100 jetzt schon mit den phenoms messen . Preislich ist er jetzt schon unter dem 1055T angesiedelt was wenn man ihn mit diesem Prozessor vergleicht "gut " dastehen lässt ! .
Von daher würd ich schon zu einem gewissen Teil von Fortschritt auch bei AMD sprechen.

Bin gespannt wo sich dieser jetzt Preislich einordnet und wie der Verbrauch dann aussieht. Um 150€ wäre der 6200 er für jemanden der noch eine AMD Plattform hat und noch keinen PII x6 durchaus eine alternative.

Würde ich vor der Wahl stehen zwischen einem 1055T Setup oder nen FX-6100 würd ich den FX nehmen.
 
Zuletzt bearbeitet:
besonders geil ist ja der slide, den amd veröffentlicht hat. Minimal schneller als ein Phenom II X6 1100T mit 3.3GHz? das ist ja wohl mal dicker fail!

Mein 1090T @ 3.8GHz ist da wohl um längen schneller.
 
sascha87 schrieb:
Also der Mehverbrauch juckt mich ehrlich gesagt keinen Meter. was wird das ausmachen wenn man den Rechner 6 Stunden am Tag an hat, vlt. 10-15€ im Jahr.
Da mach ich mir lieber ganz ander Gedanken über wichtige Dinge.

Energieverbrauch ist aber das neue Waldsterben. Wenn irgendein Alarmist mal darauf kommt, dass gewisse Materialien in der IT durch 'umweltfreundlichere' ersetzt werden können, wird das den Energieverbrauch auch wieder ablösen.

Oh, achso, Topic. Ja, hmm. Feinfein. Momentan würde ich mir wohl aus Protest das BD-Topmodell holen. Ich rendere nicht, ich kompiliere nicht, ich codiere nicht, und alles andere läuft auch mit meinem Athlon X4 hervorragend. Von daher würde das Teil eh 90 % der Zeit herumidlen. Aber ich stelle mich gern gegen die Masse, von daher wäre ein BD natürlich was Tolles. Nur leider bekommt man die ja nicht geschenkt.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
ich seh keinen 125W FX-8120 auf dem Markt. Leider auch keinen in Aussicht.

Der 8120, der um den UVP gehandelt wird, ist besser verfügbar wie der 8150. Beim 8150 muß man schon ordentlich Aufschlag (~50€) bezahlen bei einem Händler der ihn lieferbar hat. Ist halt reines badshing der Intel-Fraktion, dass den keiner will!:evillol:

KainerM schrieb:
125W TDP zeigen ja an wohin die Richtung geht! Moar Powar!!!!! (-consumption). Macht schlappe 41W TDP pro Kern.

Ich denke da liegst du falsch. Nach Adam Riese sollten es eher ~20W TDP pro Kern sein (beim 3-Moduler) bzw ~15W TDP beim 8-Kerner. Vielleicht kannst du nochmal nachrechnen.;)
 
echt schade... ich hatte bis vor kurzem immer AMD... aber seit kurzem werkelt ein i5 bei mir... ist einfach deutlich sparsamer :(
 
Athlonscout schrieb:
Beim 8150 muß man schon ordentlich Aufschlag (~50€) bezahlen bei einem Händler der ihn lieferbar hat. Ist halt reines badshing der Intel-Fraktion, dass den keiner will!:evillol:
Wär das ne Intel CPU hätteste jetzt vermutlich von massiven Problemen mit dem Yield, nem Paperlaunch oder was in der Richtung geschrieben. ;)

@Topic:
Ich denke das Kind ist jetzt im Brunnen, da helfen ein paar MHz mehr erkauft mit höherer TDP auch nicht mehr.
Um den Bulli zu (der leistung und Abwärme) angemessen Preisen (das wären imo so 25 Euro pro Modul) zu verkaufen ist er vermutlich ja zu teuer.

Hoffentlich klappts mit Trinity besser.
 
Ov3rDriv3r schrieb:
Zumindest in Phenom III X8 mit oder Phenom III X6 mit 4Ghz Standarttakt hätten sicher mehr gerissen

Erkläre mir mal was ist die Mehrperformance von 3,6 ghz auf 4 ghz ???
Ist die Stars Architektur so einfach zu überarbeiten ???
Ich frag mich oft ob man bedenkt, dass AMD selber Gedanken macht, welche Strategie sie verfolgen. Was wäre nach Phenom III ??? schon mal weiter gedacht, einfach dann Piledriver einführen ??
Die Möglichkeit wäre vllt nicht schlecht gewesen, aber hätte man sich noch eine weitere Maske für den Desktop Markt leisten können ??? Hätte man am Ende dann mehr Geld gemacht ???
Für mich ist Llano bzw BD gerade mal der Anfang. Beides neue Ideen die mit einer neuen Fertigungstechnik realisiert worden sind(Weiters Projekt war Bobcat).
Von 2 Produkten kann man von einem Erfolg reden. BD ist eventuell im Servermarkt auch ein Erfolg.
BD hat aber in Games nicht so abgeschnitten wie erwartet.... Doch sind die unteren FX (4000, 6000) nicht mal schlecht verglichen zur alten Generation.
Im normalen Betrieb (Videos schauen, surfen, usw) ist der Verbrauch geringer und das wird selten betont. Herausstechen tut die watt tdp Angabe... Ich finde es echt Interessant wieviele Leute überhaupt ihren Prozessor auslasten ??? Viele haben hier aber eine 560GTX-580GTX, wo die Wattzahl eher mit der Wattangabe eines Subwoofer verglichen wird....
6870 verbraucht auch um 60 watt ? weniger ? als die 560 gtx,interessiert das vielen ???

Der FX 6200 kostet 20 dollar mehr, wenn jemand überlegt dafür ein overclocking mit Garantie zubekommen kann diesen nehmen .
Der FX 6100 wird überigens durch das Modell nicht uninteressanter, oder war das beim 955BE und 965 anders ?
Interessanter wäre es wenn der FX 6200 150 euro kostet und der Preis dess FX 6100 fällt.

sinizzl
Der Phenom II x6 1090T @3,8 ghz ist aber schon sehr am limit, und verbraucht sicher mehr als ein FX 6200.
FX 6100 kannst du mit einem 1055t vergleichen, mit weniger Verbrauch (in allen Belangen).
Der FX 6200 kann somit mit einem Phenom II 1090T verglichen werden... der ebenfalls eine TDP von 125 watt hat und nicht schneller ist. Overclocking ist auch über 4ghz möglich usw...
Also bevor ich mir einen Phenom II kaufe würde ich mir einen FX nehmen.
Doch wäre mir solange der FX 8100 nicht kommt keinen 4M kaufen.

Mr.Kaijudo
Phenom II x4 9600 war damals alles andere als billig... Die günstigen Varianten kamen erst mit Späteren Modelle. AMD war übrigens der erste der einen Quadcore um unter 100 euro angeboten hat, gibt es eigentlich von Intel einen quad unter 100 euro ???
Nein da lässt man sich lieber alles schön zahlen. Denn wenn man bei Games 4 Threads angeben kann, und bei den meisten Games punkten kann ( da sie dual core optimiert sind)...
 
Zuletzt bearbeitet:
m3ntI schrieb:
Warum will eigentlich niemand so richtig verstehen das der Bulldozer einfach noch ne brandneue Architektur ist und diese erstmal eine gewisse Zeit in Anspruch nimmt um diese zu verbessern ?

Ja, das mag schon sein, manche PowerUser berichten auch, dass ihr Compiler auf dem Bulldozer schneller läuft als auf einem i2500, trotzdem nutzt es der großen Gruppe der Otto-Normalanwender nichts, wenn die Architektur erst in 10 Jahren flächendeckend ausgenutzt werden kann, dann muss man einfach sagen: es ist genau so eine theoretische Totgeburt wie der Itanium.

Genau so unverständlich ist, dass AMD immer betont hat, dass sie den CPU auf Effizienz getrimmt haben, ...
 
Athlonscout schrieb:
Ich denke da liegst du falsch. Nach Adam Riese sollten es eher ~20W TDP pro Kern sein (beim 3-Moduler) bzw ~15W TDP beim 8-Kerner. Vielleicht kannst du nochmal nachrechnen.;)

Warst nicht du einer, der gesagt hat die Module einen BD kann man nicht mit zweikernern gleichsetzen? Fakt ist, die Dinger erreichen in ausnahmesituationen Regionen von zweikernern. Im normalfall ist ein BD Modul gleich einem Kern. Gleich wie HT aus einem Kern nicht zwei macht. Die Rechenleistung des FX8150 liegt quasi immer (außer in besagten Ausnahmen) unter der eines X6, weshalb ich den FX auch nicht 8-Kerner nennen will. Das ist ein 4-Kerner mit Hyperthreading.
Wenn man jetzt sagen würde dass der FX ein 8-Kerner ist, dann ist die Performance pro Kern unter aller Sau. Kann man drehen und wenden wie man will.

Mein Punkt bleibt bestehen: 125W für eine CPU, die den 95W-Vertretern von Intel nicht mal annähernd das Wasser reichen kann. Egal ob TDP oder Verbrauch.

@Matzegr: Toll. Der Punkt war aber, dass sie die TDP nach oben schrauben mussten, und zwar um 31% für 15% mehr Kerntakt (oder gar nur 5%, wenn man den Turbotakt anschaut). Das ist das Problem. Darüber hinaus haben Tests von AMD-Prozessoren in den letzten Jahren immer gezeigt, dass die TDP und der Verbrauch sehr nahe beeinander liegen. Die schreiben nicht zum Spaß 125W drauf, die schreiben diese Zahl drauf weils nötig ist.

pipip; die HD6870 braucht rund 20W weniger als die GTX 560 Ti, zumindest laut HT4u.net - keine 50W. Deren Messungen vertraue ich mehr als denen bei CB, weil da die Karte alleine gemessen wird. So gravierend schlechter ist die also nicht. Der Bulldozer braucht bei ~35% weniger Leistung 30% mehr Strom. DAS ist eine Katastrophe. Der Grund dafür ist einfach: Die Architektur ist lahm, und damit man mithalten kann musste sie zu hoch getaktet werden. Die effizienteren BD-Modelle Takten mit 2-2,5GHz, das ergibt vertretbaren Stromverbrauch pro Rechenleistung. Sandy wird bei 4,5-5GHz ebenso Stromverschwenderisch...

Daher wird auch diese CPU saufen wie ein Loch: 3,8GHz Grundtakt, das wird wohl heißen: viel Verbrauch. Der FX 8150 kommt ja bei 3,6GHz ohne Turbo schon auf ~30W pro Modul, bei 3,8GHz mit Turbo kann man von 35-40W pro Modul ausgehen.

mfg
 
KainerM schrieb:
Daher wird auch diese CPU saufen wie ein Loch: 3,8GHz Grundtakt, das wird wohl heißen: viel Verbrauch. Der FX 8150 kommt ja bei 3,6GHz ohne Turbo schon auf ~30W pro Modul, bei 3,8GHz mit Turbo kann man von 35-40W pro Modul ausgehen.

mfg

Theoretisch alles gut und schön, allein die Realität sieht anders aus. HT4U ermittelte unter Volllast einen Verbrauch von 80 Watt inkl. Wandler für den FX-6100:
http://ht4u.net/reviews/2011/amd_fx_6100_4100_review/index7.php

Meine Testergebnisse zeigten, dass für einen Takt von 4 GHz keinerlei Spannungserhöhung notwendig ist und lediglich 5 Watt Mehrverbrauch durch das Hochtakten ohne Spannungszugabe entstehen. Ein Käufer bei Ebay, der den zum Testen haben wollte, bestätigte mir Gleiches von seinem Exemplar. Wenn man also die relativ schlechten Dice zuerst auf den Markt warf, kann man nun durchaus erheblich Takt nachlegen.

Damit liegt der FX deutlich über Phenom Niveau was Effizienz angeht. Zudem läuft das Teil mit 0,9 Volt bis zu 2,8 GHz unter Last stabil. Da lassen sich interessante Dinge basteln. Im Grunde, hätte AMD den FX-8 im Desktopbereich lassen und mit einem nativen 3-Moduler ohne Turbo aber hohem Grundtakt antreten sollen. Der Turbo schlägt dem Fass den Boden ins Gesicht mit der abartigen Spannungserhöhung. Das ist völlig krank.

Bitte AMD baut bitte, bitte einen nativen FX-6 mit weniger L3 und ohne Turbo. Den taktet ihr bitte auf bis zu 4,5 GHz und 125 Watt TDP indem ihr eure Dice vernünftig validiert testet! Dann macht ihr sie einfach eben 20 € teurer!

Aber das wird wohl nicht passieren, schade eigentlich. Das Produkt ist da, der Spielraum ist da. Was fehlt ist etwas Fingerspitzengefühl für die Verbraucherbedürfnisse und deren Meinungen, die die Gesamtnachfrage und das Image maßgeblich mitbestimmen.
 
Ov3rDriv3r schrieb:
Ich kann mich nur widerholen: Man hätte zumindest für den Heimanwender die Phenom II Architektur auf 32nm schrumpfen sollen.
Durch die kleinere Fertigungsstrucktur und den geringeren Cache als beim Bulli ergäbe sich ein geringerer Energiebedarf und man hätte bei 125 W TDP noch Kerne anheften oder den Takt ins Unendliche treiben können.

Zumindest in Phenom III X8 mit oder Phenom III X6 mit 4Ghz Standarttakt hätten sicher mehr gerissen


sorry aber überlege es dir doch mal selber, es gibt einen geshrinkten 45nm prozessor auf 32nm, und der braucht sogar mehr Watt bei selber Leistung als 45nm und beim 45 Athlon ist im gegensatz zum Phenom2 X2noch nichtmal HGKM dabei.

der 32nm Prozess läuft einfach misserabel, ihmo noch schlechter als der 65nm... und damals gabs beim wechsel auf 45nm schon ~33% mehr Takt, bei kaum Architekltur Änderungen, Bulldozer dagegen hat sogar extremes Potential durch Architektur Ändereungen ...
 
Zurück
Oben