News Bestätigt: AMDs „Bulldozer“-Die besitzt 1,2 Mrd. Transistoren

pipip schrieb:
Beste was AMD machen könnte ARM-Lizenzen besorgen, falls man nicht schon welche hat
Dann 8 piledriver cores/ 4Module + 1 M mit ARM core (für niedrigeren idle Werte) + igp (HD 4200 reicht)
Da AMD auch Plattform und Grafikkarte produziert, eine Möglichkeit schaffen, wenn der User nur surft usw dass das Modul mit dem ARM+ igp arbeitet, anderem M werden deaktiviert. Das Signal zum igp wird über die Grafikkarte über das board geleitet. Sicherlich kein leichtes unterfangen, aber man hätte aufeinmal eine Kaufoption geschlagen für AMD ähnlich wie beim Notebook mit NV Optimus.
Die Idee ist bestimmt nicht schlecht, leider so nicht umsetzbar, da das gänzlich verschiedene Architekturen sind. Man bräuchte dadurch pro System 2 unterschiedliche Kernel und fast alle Anwendungen (die Kompatibilität muss ja trotzdem gewährleistet sein) müssten doppelt vorhanden sein. Selbst wenn es nur um Systemanwendungen gehen würde. Man sieht ja schon bei 64-Bit Systemen, dass dort das System quasi doppelt vorhanden ist.

Falls man ARM nicht will kann man auch zu Bobcat greifen. Aber ja es wäre zwar was feines, doch die meisten 0815 würden es eh nicht mitbekommen, wenn man keine Werbung hat... Somit scheitert AMD nicht an Technik sondern stehts an Marketing ^^
Das wäre evtl. der durchführbare Ansatz, wobei die Arbeit, die für die Integration von Bobcat in Bulli benötigt wird, wahrscheinlich besser in die Optimierung von Bulli fließen sollte. Wenn man alle Module bis auf ein halbes (also nur noch ein Kern am laufen) deaktiviert, dann sollte in etwa ein ähnlicher Verbrauch erreicht werden können.
 
Tomahawk
zeigt wieder schön, dass es im Endeffekt scheiß egal ist welche CPU man zum gamen kauft. Bzw dass eine 90 euro CPU völlig ausreicht. Ich bin mir sehr sicher dass man bei AMD bald effizientere Modelle sehen wird. Ist auch nur ein logischer schritt da jeder anprangert wieviel BD ja verbraucht ^^.
Sobald AMD die ersten 4M um die 100-150 euro verkauft, der mit einer TDP von 95 watt klassifiziert wird, wird der FX aufeinmal sehr interessant sein. Da man nur 1,2 Mrd Transistoren zu realisieren hat, klingt das für FX nur gut, denn weniger Transistoren => weniger Fehler, weniger Verlust (sinne von funktionierende Chips am Wafer), mehr funktionierende 2M, 3M, 4M am Wafer.
Da der Opteron schon um 500 euro weggeht, sind gute Preise auch am Desktop-Markt vorstellbar.
Ich "vermute" ein Bulldozer kostet in der Produktion (wenn sie ausgereift ist) soviel wie ein Phenom II x4. Der Opteron selber wahrscheinlich soviel wie ein Opteron 6100 mit 12 cores. (theoretisch 8M/16T vs 12 cores)
Wenn man ein x4 mit einen 4M vergleicht, ist das eigentlich ein tolles gegenstück zu Intels HT.
AMD bräuchte eigentlich ein 6M für den Desktop als gegenstück zum Phenom II x6.... Da dieser aber nicht existiert muss man einen 4M mit einen x6 vergleichen.

Also ein Fx 8120 vs Phenom II x4 (95 watt tdp vs 125 watt tdp klassifizierung)
Einf FX 8150 bringt vllt gerade mal 10% mehrleistung hat aber einen weit aus höheren Verlust aufgrund des hohen Taktes..
FX 12000 vs Phenom II x6 (125 watt tdp für ein 6 M durch einen niedrigeren clock realisiert)
 
Zuletzt bearbeitet:
zeigt wieder schön, dass es im Endeffekt scheiß egal ist welche CPU man zum gamen kauft. Bzw dass eine 90 euro CPU völlig ausreicht.
Jein. Für Rollen-, Strategie- und Simulationsspiele macht sich eine schnellere CPU durchaus bemerkbar.
z.B. ist bei SC2 ein i3 ca. 30% schneller als ein Phenom-X4 http://www.tomshardware.de/Gaming-CPU-core-i3-2100-phenom-ii-x6-1075t,testberichte-240746-8.html
Wenn es um "reichen" geht, dann tut es auch ein kleiner Pentium G620/ Athlon X3 für 50 Euro. Mit einer HD6870/Ti560 langt das auch völlig für fast alle Situationen.

Ich "vermute" ein Bulldozer kostet in der Produktion (wenn sie ausgereift ist) soviel wie ein Phenom II x4.
Das ist schon sehr spekulativ. Auf jeden Fall sind die teildeaktivierten FX-4100/6100 finanziell eine Katastrophe, da sie (auf die Diefläche bezogen) zu günstig verkauft werden müssen. Da muss bald eine ein eigenes Design her.
 
Zuletzt bearbeitet:
Tomahawk schrieb:
Jein. Für Rollen-, Strategie- und Simulationsspiele macht sich eine schnellere CPU durchaus bemerkbar.
z.B. ist bei SC2 ein i3 ca. 30% schneller als ein Phenom-X4 http://www.tomshardware.de/Gaming-CPU-core-i3-2100-phenom-ii-x6-1075t,testberichte-240746-8.html
Wenn es um "reichen" geht, dann tut es auch ein kleiner Pentium G620 für 50 Euro. Mit einer HD6970/Ti560 langt das auch völlig für fast alle Situationen.

Ist ja kein Geheimnis, dass SCII besser als alle anderen Games auf neueren Intel Prozessoren läuft. Zudem nutzt SCII quasi nur 2 Kerne.

SCII läuft bspw auch auf Nvidia Grafikkarten deutlichst besser als auf AMD Modellen: http://www.pcgameshardware.de/aid,765867/Technik-Test-Starcraft-2-mit-12-Grafikkarten-Update-Kantenglaettung-fuer-Geforce-und-Radeon/Strategiespiel/Test/. Dieses Game scheint entsprechend (durch "Entwicklerunterstützung"? einiger Hersteller) angepasst zu sein.

An diesem einen Beispiel zu behaupten, dass alle Rollen-, Strategie- und Simulationsspiele auf einem i3 besser laufen halte ich für eine gewagte Aussage.
 
Athlonscout, ich habe Genres genannt, die tendenziell von einer starken CPU (in Relation zur GPU) profitieren. Natürlich könnte ich 5 weitere nennen, aber genauso 2 nennen, die kaum von einer starken CPU profitieren.

Ist ja kein Geheimnis, dass SCII besser als alle anderen Games auf neueren Intel Prozessoren läuft
Ohne GPU-Limit laufen mehr oder weniger alle Spiele auf Intel-Prozessoren deutlich besser. Spannend ist nur die Frage, wie oft dieses Aufrtritt. Bei Shootern "fast immer", bei Simulationsspielen eher selten.
 
Zuletzt bearbeitet:
Tomahawk schrieb:
Athlonscout, ich habe Genres genannt, die tendenziell von einer starken CPU (in Relation zur GPU) profitieren. Natürlich könnte ich 5 weitere nennen, aber genauso 2 nennen, die kaum von einer starken CPU profitieren.

Dann nenne mal 5, die bei realitätsnahen Auflösungen deutlich von einer schnelleren CPU (in Relation zur GPU) profitieren.
 
So schlecht informiert? Die Arbeit darfst du alleine machen. Aber Spiele wie F1 2011, Dragon Age 2, SC2, Civilization 5 etc. in Full HD laufen auf Intel-Rechnern rund 25% schneller.

Reine Simulationsspiele (z.B. MS FS X) profitieren sogar nochmehr.
 
is ja auch juck, weder ein FX-8150 noch ein i7 2600K sind wirklich zum Zocken gedacht, nur vermarktet es AMD als solches ;)

Bei Zocken (sofern nicht gerade Strategie und Runden...) kann man ab einer gewissen Grundleistung jeden € in die GPU stecken...

Aber ob X4 840 oder i3 2120... Juck. Nur steht der "alte" X4 vermutlich besser als der FX4100 da, das ist ja gerade das Fatale, riesen DIE, 2Mrd, ähm. 1,2 Mrd Transistoren...

Das ist alles vor allem eins.... unwirtschaftlich. Und unwirtschaftlich bedeutet geringe Gewinne, geringes Entwicklungsbudget, schlechte Werbung ... - und GF hängt genauso mit im Boot. Deren Zahlen würden mich mal interessieren denn die werden ihre CPU schon fast an AMD verschenken müssen und deren Pläne bleiben auch auf der Strecke (um den AMD Aktionären keine roten Zahlen vorzusetzen), zeigt ja die gestrichene Fab.

Die geringe Packagedichte bedeutet auch viel Optimierungspotential, wenn man nun den L3 noch wegrechnet und hofft, dass er nur geringen Einfluss auf die Performance hat so könnte BD doch noch effizient werden. Allerdings dauert das wohl noch ein langes Weilchen.

Ich hoffe schwer, dass das GPU Segment mit dem 28nm Design nicht auf die Nase fällt, ATI hat sich noch zum stärksten Standbein bei AMD entwickelt. Man könnte auch sagen der Schulden Klotz am Bein wurde jetzt zum "Schulden-Klotz-Standbein".
 
Zuletzt bearbeitet:
Also ich "behaupte" dass die meisten User mit einem x3 720be mehr als ausreichend befeuert ist.
Ist quasi ein Dualcore mit einen weiteren Core. Ein FX 6100 ist eine gute weiterentwicklung für ein 720BE...
139 euro finde ich nicht wenige, für dass AMD theoretisch nicht funktionstüchtige Module im Desktop-Sektor noch verkaufen kann...
Da nur 3Module aktiv sind, sind es btw weniger als 1,2 Mrd Transistoren (natürlich in der Produktion nicht).
Das eigentliche teure ist der Wafer selber, soviel ich zu mindestens weiß, ein chip selber kostet vllt 1-2 Dollar. Sicherlich wenn man vom wafer nur FX 8000 verkauft macht man mehr geld.
Doch denk ich schon, dass man schon damit rechnet, dass CPUs um 150 euro eher verkauft werden als CPUs 150-300 euro.
Somit vermute ich dass ein FX 6100 allein aufgrund des Preies, des Verbrauches, und der Leistung in games gegenüber dem FX 8150 interessanter ist.
Das Top-Modell von AMD war noch nie ein Preis/Leistungs CPU. Das war beim Phenom I, Phenom II schon und jz auch beim FX . Es war immer die etwas langsameren CPUs die dank einen offen Multi interessant sind.
Der 2600k ist preis/leistung für gamer auch uninteressanter als der 2500k oder täusche ich mich ??
 
Zuletzt bearbeitet:
Das Top-Modell von AMD war noch nie ein Preis/Leistungs CPU.
Natürlich waren sie das, insbesondere wenn Intel deutlich vorne war. Für den Athlon 1400 habe ich damals um 300 bezahlt. Der 1 GHz-Athlon hat über 200 gekostet. Das Top-Modell war somit fast anteilig schneller wie es teurer war (40% schneller, 50% teurer). Wenn AMD allerdings auch "teure" CPUs verkaufen konnte, waren die Top-Modelle natürlich wesentlich teurer als die Mittelklasse-Modelle

Also ich "behaupte" dass die meisten User mit einem x3 720be mehr als ausreichend befeuert ist.
Momentan ja. Nur wechseln wenige User von Generation zu Generation. Für "fast alle" reicht ein 5-6 Jahre alter PC, für Games reicht sogar eine 4 jahre alte CPU (C2D E8400 oder Q6600). Fakt bleibt, dass ein i5 deutlich schneller ist und eigentlich die erste empfehlenswerte CPU ist, wenn man einen "normalen" PC haben will, der normal eingesetzt wird. Ob man die Geschwindigkeit braucht ist eine andere Frage; nur sollte man sich dann die Frage stellen ob das Aufrüsten generell sinnvoll ist.


Das eigentliche teure ist der Wafer selber, soviel ich zu mindestens weiß, ein chip selber kostet vllt 1-2 Dollar
Ein Wafer ist eine Silizium-Scheibe, aus der Chips gepresst werden. Je nach CPU-Modell sind es dann ca. 20-35 USD Materialkosten.

Der 2600k ist preis/leistung für gamer auch uninteressanter als der 2500k oder täusche ich mich ??
Wenn du P/L wirklich als Preis pro Leistungseinheit (hier Annahme: Leistung=Geschwindigkeit) siehst (also ein proportionales Verhältnis erwartest, d.h. dass du die doppelte Leistung für den doppelten Preis erwartest), dann musst du unweigerlich auf den Celeron G530 zurückgreifen.
 
Zuletzt bearbeitet:
Wow ich hätte nicht gedacht das man eine langweilge Diskussion noch steigern kann. :freak:
Nutzt ein Spiel mehr oder weniger nur 2 Kerne dann sind mehr Kerne praktisch nutzlos.
Ist dadurch ein Prozessor mit mehr Kernen ineffizient oder das Spiel das nicht in der Lage ist sie zu nutzen?

Daran bricht sich die ganze sinnlose Diskussion....
 
Tomahawk schrieb:
Wenn du P/L wirklich als Preis pro Leistungseinheit (hier Annahme: Leistung=Geschwindigkeit) siehst (also ein proportionales Verhältnis erwartest, d.h. dass du die doppelte Leistung für den doppelten Preis erwartest), dann musst du unweigerlich auf den Celeron G530 zurückgreifen.

Also beim CB P/L-Rating liegen auf den ersten Plätzen durchweg AMD Prozessoren (und weder ein Celeron - der leider wie auch die kleinsten Athlon Ableger gar nicht dabei ist - noch ein i3 oder i5).

Aber ist ja schon klar, dass du hier mal wieder in einem AMD Thread Publicity für dein heiß geliebtes Intel machen willst. Man kennt ja seine Pappenheimer.;)

Und jetzt bitte btt - hier sollte es eigentlich um die Transistorzahl von BD gehen.
 
Artikel-Update: Nachdem die Geschichte jetzt komplett durch die Medien gegangen ist, geht AMD via Facebook abschließend an die Öffentlichkeit und entschuldigt sich für den Vorfall und die daraus entstandene Konfusion:

AMD via Facebook: schrieb:
We always strive to be proactive and open. Last week, AMD confirmed the transistor count in the AMD FX CPU line-up at 1.2 billion, a correction from the earlier count of 2 billion. The earlier figure of 2 billion transistors was unfortunately shared in error. This correction is not the result of a new revision to the Bulldozer design. The correct count of 1.2 billion applies to all recently introduced 8-core AMD processors that are based on the new Bulldozer core – AMD FX family of desktop CPUs and AMD Opteron™ family of server and HPC processors. We apologize for the confusion.
 
Geht das nur mir so oder ist das völlig egal ob das nun 1,2 oder 2 Milliarden Transistoren sind? Wieso wird da so ein Trubel drum gemacht?
 
Tomahawk schrieb:
BF3 ist ja extrem CPU-limitiert ;) Aber recht hast, der kleine i3 ist hier vergleichsweise knapp vorne. In Spielen ist der Abstand zu AMDs-8-Kerner sonst größer.

BF3 ist nur "mehralszweikernelimitiert"!

Unter gleichen Voraussetzungen (RAM, Grafikkarte, OS, Treiber) läuft ein BD (FX8150) mit weniger Auslastung auf den Kernen, als ein Phenom X6 1090T (auf 3.7GHz gefixt). Mal davon abgesehen, das bei mir in Ultrasettings die GPU limitiert (so muss es sein), müßte der BD - wenn er so schlecht ist, wie alle sagen - wenigstens die gleiche Auslastung haben wie der X6 1090T - oder sogar noch mehr.

Ich kann generell nicht behaupten, das der BD mein System wirklich spürbar beschleunigt (5% schneller ca.), aber eines ist sicher: langsamer ist er nicht ;) Dazu mag ich den AES Support, den der X6 nicht hat.

Ein i3 ist meiner Meinung nach keine Alternative, das ist ein Apfel und die anderen sind Birnen. In meinem WHS treibt ein i3 sein "Unwesen" und dafür reicht er gerade so! Nein, wenn ich einen i3 mit meiner 6970 betreibe, würde ich sicher eine CPU Limitierung erkennen dürfen ;)

Aber egal liebe Intel Fanboys, macht mal weiter. Ich kaufe gerne den etwas schwächeren Prozessor, wenn ich weiss, das damit auch deutsche Arbeitsplätze gesichert werden und ich selbst diese CPU kaum auslasten werden beim zocken!
 
@Gentlem4n: Na, weil Fehler bei AMD doch immer gleich Weltuntergang sind, während anderen Firmen sowas eben mal passieren kann.

Ich denke es wurde nicht eine einzige Kaufentscheidung durch die falsche Angabe als auch durch die Korrektur in der Presse jetzt beeinflusst. Nur Leute, die ein Problem mit den Grünlingen haben, können jetzt natürlich wieder frohen Mutes auf die Barrikaden klettern, obwohl es da wohl sinnvoller wäre, über die mangelhafte IPC und Effizienz der Desktopprozessoren zu diskutieren, als über irgendeinen letztendlich vollkommen gleichgültigen Fehler bei der Transistoranzahlangabe.

@0815*Sir Tom: So sieht es aus. Bulldozer mag zwar nicht so schnell sein wie Sandy Bridge, aber ein generell schlechter Prozessor ist er auch nicht. Die meisten würden wahrscheinlich schon mit einem FX-4100 überhaupt nichts vermissen am Rechner.

Gruß FatFire
 
Zuletzt bearbeitet:
Sie sollten sich gleich dafür mit entschuldigen das Bulldozer nicht die gewünschte Konkurrenz geworden ist und Intel mittlerweile Preise und Veröffentlichungen von neuen Produkten nach belieben diktieren kann.
AMD sieht Intel nicht mehr als Hauptkonkurrent weil sie es nicht mehr können, das liegt am Hunger der Bulldozer-Modelle und der im Verhältnis dazu schwachen Performance (die Performance ist natürlich für 90% ausreichend, steht aber nicht im Verhältnis zur Abwärme und zur Konkurrenz von Intel).
Dafür sollten sie sich entschuldigen, wie am Ende ein optimales Ergebnis erreicht wird ist egal.

Da muss man sich nicht künstlich über die Transistorenzahl aufregen, das so irrelevante Dinge immer mehr Bedeutung kriegen hat inflationäre Verhältnisse aber die ehemaligen "Nerds" bewegen sich auch immer mehr Richtung RTL2 und Bild-Niveau, nur halt in der digitalen Welt, das wohl das Übel welches mit der Anerkennung des Mediums einhergeht.
 
Wen interessiert dass den eigentlich wirklich? Mit sicherheit nur eine absolute Minderheit die prozentual gesehen eine nicht relevante Minorität darstellt.
Interessant ist dochdas Verhältnis von Diegröße zu Stromaufnahme und Rechenleistung. Mit je weniger Transistoren das realisiert wird um so besser oder?
Für mich hat die Angabe der Transistoren ob nun eine Milliarde oder zwei Milliarden kein Qualitätsmerkmal.
Ich sehe das ein bischen so wie mit Software. Software die optimiert wird wird in ihrem Umfang nicht zwangsläufig größer.
 
AeS schrieb:
Sie sollten sich gleich dafür mit entschuldigen das Bulldozer nicht die gewünschte Konkurrenz geworden ist und Intel mittlerweile Preise und Veröffentlichungen von neuen Produkten nach belieben diktieren kann.

Da kann sich der Kunde schon mal selber an die Nase fassen, auch hier im Forum einige die z.B. die illegalen Methoden von Intel sogar noch verteidigt haben.

Ja der Schuh muss auch angezogen werden.:rolleyes:
 
Zurück
Oben