News Bestätigt: AMDs „Bulldozer“-Die besitzt 1,2 Mrd. Transistoren

Der Haken ist einfach...Bulldozer ist ein Design welches niemand im Desktopmarkt wirklich braucht. Wir haben hier gerade das Topmodell stehen. Mit FMA und den ganzen Optimierungen rammt Bulldozer Intel in den Boden, aber diese optimierungen ect. die hat kaum Jemand.

@bLu3to0th: Die Multithreadleistung ist besser, als die von Intel (Vergleich ist hier der 2600), allerdings auch eben nur wenn sie gebraucht wird, was für dich und der Rest der Desktopuser, welche in 95% der Fälle wahrscheinlich nur zocken, in ca. 70% der Fälle zutrifft (geschätzt ^^).

Es ist wie der Fermi. Der Fermi hat ordentlich Power und verbraucht aber auch dementsprechend. Es ist halt ein Design welches seine Wurzeln in einem ganz anderen Bereich, welches eben auch andere Anforderungen hat. AAAAAAALLERDINGS AMD macht dort auch nicht alles GRUNDLEGEND besser. Cypress/Cayman verbrauchen nicht viel weniger (siehe HD6970) in diesen Leistungsregionen (wollte es nur ma anmerken).

Allerdings zugegeben...warum AMD bei den IntegerCores immernoch auf Sachen aus der K10 Architektur setzt ist mir schleierhaft...

Meiner Meinung nach...war es für den Bulldozer im Desktop etwas zu früh, auchwenn wir schon ewig drauf gewartet haben. Es ist sicherlich ein Design für die Zukunft (ja ich weiss das hilft jetzt Niemanden, schon gut ^^'' ).
 
Oberst08 schrieb:
Also ich kenne nur die Review des 4100er von HT4U, und da war der FX in halbwegs modernen (also multithreaded) Anwendungen in etwa so schnell wie dein 2120, der ja eigentlich Kreise um ihn drehen sollte...mal ist der Eine schneller, mal der Andere. Nur in speziellen Anwendungen, die explizit nur einen Thread nutzen, ist der I3 deutlich schneller. In anderen Anwendungen (z.B. TrueCrypt) ist allerdings auch der FX deutlich schneller, wenn man sein Potential effizient ausnutzt. Einzig im Verbrauch ist der Intel besser, aber in der Leistung offensichtlich dann doch nicht, von Kreise um den FX drehen kann da schon gar keine Rede sein.

dafür zieht der 4100er unter Last das Doppelte an Strom vom 2120.
Dazu ist er meist dem i3 unterlegen trotz höherem Takt.
 
Iapetos schrieb:
In puncto Leistungsaufnahme als Funktion der Fläche wäre ich vorsichtig, Sandy Bridge mit Bulldozer zu vergleichen. Schließlich verwendet AMD ganz andere Transistoren in einem ganz anderen Fertigungsprozess. Zusätzlich takten die AMDs viel höher, was die Leistungsaufnahme weiter in die Höhe treibt.

Warum sollte "man" mit einem solchen Vergleich vorsichtig sein? Fragen wir uns, was das Ziel ist: eine möglichst effiziente Rechenmaschine für diverse Aufgaben. Hierzu ist es legitim unterschiedliche Ansätze zu verfolgen, die sich der gestellten Aufgabe nähern. Am Ende obsiegt jene, welche sich als die bessere Variante erweist. Und in diesem Sinne ist ein Vergleich nicht nur legitim, sondern unbedingt erforderlich.

Tomahawk schrieb:
Völlig unverständlich! Wie kann sowas denn bitte nicht auffallen?

[...]

... wenn es beabsichtigt ist, um architektonische Defizite zu kaschieren? Niemand geht hin und zählt unter dem REM die Transistoren einzeln. Die Dispersaufnahmen der Prozessorsiliziumplättchen geben das auch kaum her.

crackett schrieb:
Ermüdend finde ich auch diese sinnlose Schönrederei des Bulldozers. Wir haben alle mitbekommen, daß diese Server-CPU als Desktopmodell vertrieben und explizit dafür beworben wird. Alle außer Dir anscheinend.

Die Riege der Fanboys, sowohl aus Intels als auch AMDs Lagern, ist schier riesig. So mancher "Scout" trägt sogar seinen Favoriten im Pseudonym und kann es sich nicht verkneifen, seinem Idol die Fahnenstange zu halten.

Im Desktopbereich war nun der BD zuerst zugegen und hat in der vorgesehenen Leistungsklasse versagt. In puncto Rechenleistung zeichnet der Chip ein ordentliches Bild, wenn er in isolierten Spezialdisziplinen herangezogen wird - so bei Verwendung der AVX2-Kommandos, die es beim Konkurrenten (noch) nicht gibt. Kann man zahlenmäßig viele Bulldozer, wie beim Interlagos, zu einem Rechner zusammensetzen, siegt der BD aufgrund seiner zahlenmäßigen Überlegenheit. Irgendwann ist natürlich in der Relation Leistung/Leistungsaufnahme ein Wendepunkt erreicht. Die Frage ist, was man dafür bezahlen muß und welcher programmiertechnische Aufwand muß betrieben werden, um den Vorsprung zu erreichen. Bulldozer erreicht aber erst mit mehr als zwei Sockeln die notwenige Effizienz und den entscheidenden Vorteil und das auch nur gegenüber einer bereits veralteten Konkurrenz.

Im Bereich der 1P und 2P Systeme sieht der BD kein Land und vermutlich wird es dem Piledriver nicht besser ergehen, denn wenn AMD schon jetzt mit Kleinigkeiten Probleme hat, neue Designs einzuführen, wie soll und will das Unternehmen in nur 6 Monaten und weniger einen noch größeren Sprung mit einer modifizierten Architektur machen wollen?
 
Naja... leider ist das die AMD typische Informationspolitik. Mich wundert das wirklich gar nicht. Selbst aus der DIE Fläche scheint AMD ein Geheimnis zu machen.

Unbekannt ist noch was ein BD ohne L3 leistet. Die FX4XXX und FX6XXX können ja auf den vollen L3 zurückgreifen der wenn man sich die DIE anschaut massig Platz und vermutlich auch Saft braucht.

Trinity wird in 6 Monaten zeigen was BD ohne L3 leistet. Mit "Glück" kann man die BD Gen 2 Kerne dann soweit trimmen, dass sie den fehlenden L3 weg machen. Würde mich aber wundern wenn die Leistung plötzlich ohne L3 massiv zunimmt.

Das Fehlen des L3 wird aber schon allein aus Wirtschaftlichkeit und Effizienzgründen notwendig sein.

Für mich ist keinesfalls klar in wie fern ein aktueller BD von seinem L3 profitiert, in der Regel sind es hauptsächlich Server Anwendungen die L3 brauchen. Allein darüber wird AMD die Effizienz verbessern können.
 
Verrückt, dass AMD sich so heftig "verzählen" konnte.

Als bewusste Lüge ergibt es auch keinen Sinn, denn dass ein Chip besonders groß ist, wird heutzutage eher als negativ angesehen. AMD hat sich mit der falschen, zu hohen Transistorenzahl also nur zusätzlich unter Druck gesetzt.

Am wahrscheinlichsten wäre wohl noch mangelhafte Kommunikation zwischen Entwicklung und Marketing/PR. Vielleicht sind die über 2 Mrd noch irgendein wager "bis zu" Wert aus den frühen Entwicklungsstadien und seit dem gab es keinen offenen Austausch mehr zwischen den verschiedenen Abteilungen von AMD.
 
Eisenfaust schrieb:
Kann man zahlenmäßig viele Bulldozer, wie beim Interlagos, zu einem Rechner zusammensetzen, siegt der BD aufgrund seiner zahlenmäßigen Überlegenheit. Irgendwann ist natürlich in der Relation Leistung/Leistungsaufnahme ein Wendepunkt erreicht. Die Frage ist, was man dafür bezahlen muß und welcher programmiertechnische Aufwand muß betrieben werden, um den Vorsprung zu erreichen. Bulldozer erreicht aber erst mit mehr als zwei Sockeln die notwenige Effizienz
Meine Güte, schreibst Du einen Müll. Wie soll denn bitteschön eine Plattform effizienter werden, je mehr ineffiziente Prozessoren daraufgepackt werden? Das macht genau null Sinn. Mag ja sein, dass Du ein paar kleine Kinder mit Deinen Monologen beeindrucken kannst, aber bei denen mit Ahnung rasselst Du mit Deinen klaren Fanboy-Attitüden auch mit geschwollener Schreibweise immer noch durch jede Prüfung mit kritischem Auge.

Gruß FatFire
 
Da der Verbrauch eines Systems nicht nur aus der CPU besteht sondern auch aus Board, Storage usw. ist es keine schwere Sache mit mehr CPUs/Cores effizienter in Hinsicht auf CPU-Performance zu Verbrauch des Gesammtsystems zu werden.

Und im Server-Bereich funktioniert der Bulldozer bzw. Interlagos deutlich besser als im Desktop-Segement aufgrund des akzeptablen Verbrauchs bei sehr geringem Takt und niedriger Spannung kombiniert mit einem günstigen Preis:
http://geizhals.at/deutschland/699576
Wenn du da 4 Stück von verbaust lohnt sich der Bulldozer. Ist natürlich ein recht spezieller Fall.
 
Zuletzt bearbeitet:
@ FatFire

Was bei Bulldozer die einzelne Server-CPUs effizienter als die Desktop-CPUs macht, ist vor allem der niedrigere Takt bzw. die je nach Anwendung niedrig gewählte konfigurierbare TDP. (Bei den modernen Opterons kann man den maximalen Energieverbrauch selbst einstellen, also der CPU gezielt Obergenzen setzen, was für Server sehr praktisch sein kann.)
Je weniger man eine Bulldozer-CPU an die Grenzen treibt, um so besser schneidet sie ab.

Ein Server mit sehr vielen Cores/CPUs, die aber jeweils nur relativ gering ausgelastet werden, z.B. für gewisse Datenbank oder Virtualisierungsaufgaben, ist also ein Idealfall für den Bulldozer. Dann spielt die Ineffizienz in den Grenzbereichen keine große Rolle mehr, aber den Vorteil der vielen Cores (hoher "Durchsatz") und die stärken im I/O-Bereich und beim großen Cache usw. kann man voll ausspielen.

Nur wollte AMD mit Bullldozer nicht nur eine gute Server-CPU entwickeln, sondern die selbe CPU wahlweise durch extrem hohe Taktraten auch zu einer guten High-End-Desktop-CPU machen. Damit haben sie eine totale Bauchlandung hingelegt. Eigentlich nicht überraschend, denn dass hoher Takt als Ausgleich für schwache IPC keine wirklich gute Idee ist, ist seit dem Pentium 4 eigentlich allgemein bekannt.
 
Der bekannteste Linux Benchmark, der auch recht ausführlich ist, findet man bei [Phoronix] Linux Hardware Reviews, Benchmarking & Gaming - Home

Wer hier selber schon nach Bulldozer-Tests unter Linux sucht wird feststellen, dass das Internet nicht gerade voll davon ist.

Nun zu den Tests von Phoronix:

AMD FX-8150 Bulldozer On Ubuntu Linux

Multi-Core Scaling Performance Of AMD's Bulldozer

Interessant dann auch noch: AMD Bulldozer With GCC, Open64, LLVM/Clang Compilers
Passend dazu: Open64 Compiler Tuning On AMD Bulldozer FX-8150

Nebenbei möchte ich auch zum Thema Server noch ein kleinen Test verlinken, der aber schon einmal bei einer Neuigkeit von jemand anders verlinkt wurde:

CPU-Test: AMD Opteron 6262 HE und 6276 mit 16-Core-Bulldozer

@Blutschlumpf
Ich sage nicht, dass es die Schuld von Windows ist. AMD kennt Windows und die Anwendungen die darauf meisten genutzt werden genauso wie die bei Linux und hat dementsprechend eine Architektur für CPUs dafür entwickelt.
Die neue Architektur hat ihre Schwächen aber auch ihre Stärken und weil sie auch neu ist auch noch relativ unoptimiert.

Was ich hier aber meistens lese ist: Bulldozer ist Schrott.
Wenn er Schrott wäre, warum bitte wird er gekauft? Warum wird er auch in Supercomputern eingesetzt?

@wadenbeisser
Alle hier lesen doch nur den Computerbase-Test mit der Leistungsaufnahme unter Last des AMD FX-8150.
Die kleineren Modelle sehen da besser aus.

Last:
AMD FX-4100: 77 W
AMD FX-6100: 83 W
AMD FX-8150: 137 W
AMD A6-3650: 79 W
AMD A8-3850: 89 W

Intel Core i3 2120: 36 W
Intel Core i5 2500K: 78 W
Intel Core i7 2600K: 82 W

Und nun kommt ihr ja wieder mit der Leistung. :rolleyes:
Klar, Intel sieht gerade bei Anwendungen für den Heimbereich deutlich besser aus. Aber zu behaupten, Bulldozer ist total Uneffizient...

Gesagt wollte ich auch noch haben:
Ich frage mich im ernst, wer sich großartig über die Pro-Takt Leistung der AMD-CPUs beschwert der in der letzten Zeit die Entwicklung der AMD-CPUs mitbekommen hat.
Seit die Phenom Opterons und seit Infos über Bulldozer bekannt sind konnte man eigentlich immer recht gut erkennen, dass AMD sich auf viele Threads konzentriert.
Auch letztens mit der Neuigkeit weiß man mehr oder weniger AMDs weg: AMD: Der klassische „AMD vs. Intel“-Wettkampf ist vorbei .
Natürlich kann man es ja auch als Ausrede werten... Da bringe ich aber mal wieder an, warum denn die Produkte gekauft werden.
 
Elandur schrieb:
Wenn er Schrott wäre, warum bitte wird er gekauft? Warum wird er auch in Supercomputern eingesetzt?
Ich kenne die Verkaufszahlen nicht, darum kann ich die Frage nicht beantworten.
Ich denke aber, dass du Sie auch nicht kennst. ;)
 
da ist es auch oft eine Frage der Aufrüstung. Wenn davor Opterons genommen wurde und nun auf die BD Vertreter aufgerüstet werden wird er natürlich in Supercomputern eingesetzt.

Man ersetzt ja nicht gleich einen ganzen Supercomputer mal eben so.
 
Krautmaster
Naja hab ich mir auch schon oft gedacht, verstehe dann nicht wieso man dann auch ließt dass sämtliche Boards ebenso ausgetauscht werden... Also wieso sollte man einen 8M bulli kaufen, weil sie auf den alten Sockel passen, wechselt aber die neuen Boards aus.
BSP Cray wo man auch mehr Schnittstellen für NV Karten benötigt.

Was den Verbrauch angeht, naja wie gesagt, ich stell immer wenn ich n Rechner zamstelle die Frage, wie schaut es mit dem Verbrauch aus. Bis jz war es immer scheiß egal!!! Und versteh es teils auch... Immerhin zockt man meist vllt paar std und selbst hier wird selbst der FX 4100 vllt paar mal Grenzen erfahren. Je nach Spiel. Die meiste Zeit wird er im idle sein.
Wenn ich jz ein Vergleich bringe. Es wäre so wie als würde ich aufs klo gehen das licht andrehen und hätte zusätzlich eine Luftzirkulation eingebaut damit ich immer frische Luft habe. Sobald ich fertig bin drehe ich das licht ab und das dring dreht sich aber weiter. Somit Idle und last o0.
Wieso ich dieses BSP benützte, denke dann versteht es auch der kleinste....außerdem sollte es ca den gleichen Verbrauch haben, kommt natürlich auf die Glühbirne und die Komplexität der Luftzirkulation an.

Da der FX aber jz selber nur 1,2 Mrd Transistoren hat, statt den 2Mrd, die Packungsdichte nicht so hoch ist, darf man vermuten, dass der FX 2.0 (mit piledriver) im Endeffekt die gleiche DIE Fläche hat, und nicht wirklich größer als die jzigen 315 mm^2 ausfallen dürfte ???
Eventuell wird AMD jz immer mehr die Packungsdichte erhöhen ?
Vllt musste man sich anfangs entscheiden, kleinere Fläche dafür mehr Prozessoren aber höhere Packungsdichte => mehr Fehler weniger funktionierende BD
große Flöche kleinere Packungsdichte => wenige Bulldozer auf den Wafer dafür mehr funktionierende

Also für was hättet ihr euch entschieden ?? wenn ihr in die Produktion geht die nicht ausgereift ist ??

offtopic
Beste was AMD machen könnte ARM-Lizenzen besorgen, falls man nicht schon welche hat
Dann 8 piledriver cores/ 4Module + 1 M mit ARM core (für niedrigeren idle Werte) + igp (HD 4200 reicht)
Da AMD auch Plattform und Grafikkarte produziert, eine Möglichkeit schaffen, wenn der User nur surft usw dass das Modul mit dem ARM+ igp arbeitet, anderem M werden deaktiviert. Das Signal zum igp wird über die Grafikkarte über das board geleitet. Sicherlich kein leichtes unterfangen, aber man hätte aufeinmal eine Kaufoption geschlagen für AMD ähnlich wie beim Notebook mit NV Optimus.
Falls man ARM nicht will kann man auch zu Bobcat greifen. Aber ja es wäre zwar was feines, doch die meisten 0815 würden es eh nicht mitbekommen, wenn man keine Werbung hat... Somit scheitert AMD nicht an Technik sondern stehts an Marketing ^^
 
Zuletzt bearbeitet:
Genau, AMD und ARM-Prozessoren: Ein Segment, in dem es auf jeden Cent ankommt und AMD dann im Gegensatz zu den großen Konkurrenten (TI, Qualcomm, Samsung etc.) keine eingene Fabriken hat, so dass die Preise nur schwer mit denen der Konkurrenten werden mithalten können. Mit PowerVR gibt es einen Quasi-Monoplisten für Grafikchips, mit dem AMD einen jahrelangen (Preis)wettkampf führen müsste, um sich zu etablieren. Einige wollen AMD wohl früher in die Insolvenz führen als es momentan schon danach aussieht.
 
Tomahawk
Muss ja NV sehr große Probleme haben oder wie ist das Tomahawk ???
 
Probleme nicht, aber bisher kosten von über 1 Mrd. USD. Für AMD wäre dieser Preiskampf sehr riskant, da jetzt schon sehr stark verschuldet.
Edit: Sind sogar 2 Milliarden USD Entwicklungskosten.

Aber pipip, wie kommst du eigentlich auf "Probleme" bei nVidia?
 
Zuletzt bearbeitet:
Tomahawk
möchte vom Thema nicht abkommen, aber das war sarkastisch gemeint....,da NV selber auch nichts produziert. 2 Millarden ja ist viel. Aber musst bedenken, AMD hat schon igps die sie verwenden können (bsp jene die mit bobcat in verbindung gebracht werden) weiteres hat NV im Laufe der entwicklung soviel Geld ausgegeben, somit ist es machbar... AMD möchte sich auf mobile Prozessoren konzentrieren, also würde es sogar in die Strategie passen. Somit würde ich über AMD und ARM in kombination nicht lachen, denn PowerVR ist schön und gut, aber hier hat NV und AMD in meinen Augen einen größeren Namen....
 
Jedem das seine - natürlich wird es Offtopic - aber ich schätze AMDs Finanzlage völlig anders ein als du, ebenso die benötigten (neuen) Mitarbeiter, die AMD einstellen müsste (bzw. aus anderen Bereichen müssten Mitarbeiter abrücken).

PowerVR hat einen Marktanteil von fast 100% bei Mobiles und hat alle(!, außer nVidia) relevanten Hersteller von SoC als Kunden. Den "Namen", was du damit auch meinen magst, kann man kaum überbieten. Erfolgreicher (i.S. der Marktbeherrschung und der Etablierung bei den Kunden) kann man nicht sein.
 
Elandur schrieb:
Da bringe ich aber mal wieder an, warum denn die Produkte gekauft werden.
Siehst doch hier... Es gibt zig Fan-Guys die auch nach unzähligen Benchmarks immernoch nicht einsehen können / wollen, dass der Bulldozer im Gesamtpaket nichts taugt.

Was die Supercomputer angeht... Ich denke da pusht AMD ordentlich durch niedrige Preise. Dieses Segment lässt man sich schon alleine aus Prestige-Gründen nicht entgehen.
 
Zuletzt bearbeitet:
Na ja, einige Fanboys sagen auch, dass Win7 Schuld ist und es eben eine Server-Architektur ist ;) Mit Win8 starten die FX richtig durch ;) Der FX-4100 ist auch eine gute Alternative zum i3 ... ;) Fanboys sagen viel, wenn der Tag lang ist ...
 
Zuletzt bearbeitet:
Der i3 2100 geht mit seinem dual core system bei Battlefield 3 unter.
Der Fx 4100 ist da deutlich besser.

Und in Puncto preis liegen sie auch aneinander.

Und das soll ein Fail des jahres geworden sein ?????

Andere frage:
Möchte jetzt nicht extra ein tread aufmachen für die Frage deshalb,
Kann ich ein 4gb ddr3 ram riegel einfach so neben einen 1gb ram riegel laufen lasse?

Gibts dann probleme.
 
Zurück
Oben