News AMD „Bulldozer“: Neue Die-Shots und CeBIT-Ankündigung

bluefisch200 schrieb:
Und auch wenn BD nicht mit SB zurande kommen wird.
Wir haben ALLE gesehen was nVidia mit einem Refresh aus dem Fermi gemacht hat...neue Architekturen können beim ersten Versuch versagen und beim zweiten den Gegner einfach stehen lassen...das Selbe ist ja AMDs Radeon 6000 eigentlich auch (ich sage dass die neue CPU und die aktuelle GPU von AMD sehr viel Potential haben wird)....

das ist 0 vergleichbar, das einzige was Nvidia geändert hat sind die Materialien für diverse Transistoren, also Anpassungen in der Fertigung. Die Architektur an sich ist identisch. Durch eben diese Anpassungen ist es vor allem zu einem gekommen - niedrigere Leistungsaufnahme

Wenn Bulldozer wirklich floppen sollte (wovon ich mal nicht ausgehe) - ist AMD ganz schön übel dran. Weil auf Bulldozer bauen die nächsten Jahre die CPUs auf, das wegzumachen ist schwer. Ist imho die erste richtige Änderung seit dem Athlon 64 und man weiß wie lange diese Architektur nun bestanden hat.
 
@freifacht: Eben das ist ja noch eine der großen Unbekannten. Intels Hyperthreading brachte in bestimmten Szenarien ja durchaus auch mal Einbußen in der Leistung mit sich. Keiner weiß allerdings, wie sich CMT hier verhält. In der Theorie sollte das Bulldozer-Modul gegenüber dem Intel-Kern mit Hyperthreading (also quasi dem Intel-Modul, hihi) Vorteile haben, aber letztendlich weichen Theorie und Praxis gerne mal von einander ab.

Deswegen kann keiner eindeutig klären, ob für Deinen Einsatzzweck SB oder eher BD geeignet ist, bevor keine Praxistests vorliegen. Leider wird es wohl auch hier mal wieder kaum Benchmarks mit großen konkurrierenden Anwendungen geben, wie es Dein Beispiel nennt. Deswegen musst Du wohl auf das Pferd mit der besten Gesamtrohleistung setzen. Oder bei schmalem Geldbeutel mit dem besseren Preis-/Leistungsverhältnis für den anvisierten Preis.

Die IPC spielt bei Deinen Anwendungsfällen keine Rolle, da extrem gut parallelisierbar. Eventuell könnten sich hier bei gegebener Unterstützung (Photoshop und Maya können das) eher eine oder gar mehrere dicke Grafikkarten lohnen.

Gruß FatFire

Edit:
Krautmaster schrieb:
Wenn Bulldozer wirklich floppen sollte (wovon ich mal nicht ausgehe) - ist AMD ganz schön übel dran.
Nicht unbedingt. Für den Moment wäre das schon übel (vor allen Dingen der Marketingschaden), aber gerade AMD holt über neue Revisionen und verfeinerte Steppings teilweise immer enorm auf. Der Phenom II hat sich zum Ende hin sehr gut entwickelt, wenn man ihn mal mit dem Phenom I vergleicht.
Aber da müsste schon grober Unfug am Werk gewesen sein, wenn die das noch verhauen sollten, denn von fast jedem der nur einen Fitzel Ahnung von der Materie hat, wird die Gesamtarchitektur doch als sehr potent eingestuft.
 
Zuletzt bearbeitet:
joa, aber genau da hat AMD auch richtig rote Zahlen geschrieben und bis eine Revision II kommt geht gerne nochmal 6-12 Monate ins Land...
Ob man sowas nochmal durchmachen kann?
 
das einzige was Nvidia geändert hat sind die Materialien für diverse Transistoren, also Anpassungen in der Fertigung.

Und das hat so ziemlich alles geändert...oder nennst du die GTX5xx irgendwie zu langsam und zu verfressen?

Wenn der erste Bulldozer als 45nm kommt können sie mit 28nm sehr viel wett machen...sollte er denn SB nicht einfach weg pusten...hoffen wir mal das Beste ;)
 
WinnieW2 schrieb:
Was ich nicht so ganz nachvollziehen kann.
Warum eigentlich 2 MB L2 Cache pro Modul? 512 kB oder auch 1 MB L2 Cache hätte ich noch nachvollziehen können, aber warum gleich so viel.
Die CPU hat ja schliesslich auch noch L3 Cache...
Auf dieser Basis werden ja auch CPUs für den Multiprozessormarkt im Serverbereich gefertigt. Da kann der Cache teils nicht groß genug sein.
Schau mal was der SandyBridge E fürn L3 bekommt. Da erascheint dir der cache vom Bulldozer gar nicht mal soo riesig.
Und noch wissen wir auch nicht wie schnell der L3-Cache beim Bulldozer wird. Von da aus ist vielleicht ein nicht zu klein dimensionierter L2 notwendig.

bluefisch200 schrieb:
Und das hat so ziemlich alles geändert...oder nennst du die GTX5xx irgendwie zu langsam und zu verfressen?
Das hat ja niemand abgestritten. Nur die Architektur hat sich 0 verändert, lediglich das Chipdesign.

Wenn AMD nur Probleme in dem Bereich hat, können sie sicher halbwegs schnell reagieren, ist aber die ganze Bulldozerarchitektur nicht ideal, kann man da auf die schnell nichts machen.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Ob man sowas nochmal durchmachen kann?
Wenn man das bei börsennotierten Unternehmen mal immer so einfach beantworten könnte. :rolleyes:
Aber diesmal ist AMD deutlich besser aufgestellt. Es geht ja nicht mehr nur um CPUs im Desktopsegment. Mit Bobcat werden (wohl erfolgreich) neue Märkte erschlossen, Chipsätze und Grafikkarten sind auch auf einem guten Weg. Schade, dass die Serversparte auch direkt von Bulldozer abhängt (ich würde da aus Sicherheitsgründen schon auf unterschiedliche Architekturen setzen...).

bluefisch200 schrieb:
Wenn der erste Bulldozer als 45nm kommt können sie mit 28nm sehr viel wett machen
Bulldozer I und auch Bulldozer II kommen beide in 32nm. Nur der verbesserte Bobcat wird im nächsten Jahr in 28nm gefertigt. Danach wird dann direkt auf 22nm gewechselt.

Gruß FatFire
 
@Complication
Anstatt wieder krampfhaft zu versuchen dich mit mir zu streiten solltest du meinen Post erstmal wirklich lesen. Und aus dem Zusammenhang gerissene Zitate um sich selbst das Bild zu Formen das man Kritisieren möchte finde ich nicht sonderlich intelligent und Fair!

Ich habe meine aussage, in dem von dir zitierten Post, inhaltlich auf den von mir kritisierten Post angepasst. Denn dort stand im grunde nichts anderes als der der BD nur langsamer werden kann. Oder möchtest du sagen das das stimmt?

Und ja, ich habe mich in dem allgemeinen BD verwirrungsspiel dazu hinreißen lassen bei dem CorevsCore spielchen den bösen bösen K10.5 begriff zu verwenden. Allerdings, und bitte entschuldige wenn ich es nicht in für dich verträgliche schleifchen verpackt habe, habe ich auch mehr als genug gründe aufgeführt warum :

a) Ein direkter Vergleich nahezu unmöglich wird und die software einen entscheidenen Faktor spielt!
b) Der BD schneller werden MUSS als ein alter K10.5!
c) das die thread verteilung nicht mehr klassisch betrachtet werden kann!

Also nochmal was ich meine :
BD MUSS schon schneller werden in der Pro Takt leistung als ein alter K10.5 (Sonst läuft auch irgendwas falsch in den AMD Köpfen).
Hier gibt es allerdings nun 2 Anwendungsfälle :
2 Threads auf einem Modul und 1 Thread auf einem Modul
Bei nur einem Thread stehen alle Resourcen nur einem Kern im Modul zur Verfügung. In diesem Fall dürfte der Kern schneller sein als wenn sich beide Kerne diese Resourcen teilen müssen.
Bei Intel ist mir ein solches Verhalten nicht bekannt. Die erweiterten Integer Cores, bessere Datenverteilung an diese sowie neuen Instruktionen sollten diese Einbußen allerdings mehr als auffangen. Stark FP lastige Software täte evt. gut daran darauf optimiert zu werden nur einen Thread pro Modul gezielt raus zu schicken. Stark Integer lastiger Software nutzt einfach alles was da ist.
Ein reiner 8 Kerner wäre zwar in einigen Bereichen, wenn die gleichen einheiten verwendet werden, schneller als ein 4 Modul BD. Würde allerdings auch erheblich mehr DIE Fläche benötigen.

Bei K10.5 hätte also die Thread Verteilung keinen so großen Einfluss auf die Performance des Einzelnen Kerns gehabt.

Einig?

@Canopus
Sry, hatte in dem von dir ursprünglich zitierten Beitrag nicht realisiert das er sich DIREKT mit der performance auf K10.5 bezog. Hast natürlich recht ;)
 
FatFire schrieb:
Wenn man das bei börsennotierten Unternehmen mal immer so einfach beantworten könnte. :rolleyes:


eben weil mans nicht so einfach beantworten kann ist das "?" dahinter...

Bobcat ist schön und gut, aber ein wirklich gewinnträchtiges Segment bedient man hier nicht.
Man muss schon extrem viele an den Mann bringen.

Sehr geringer Gewinn / verkaufter Einheit, und Netbooks sind auf dem absteigenden Ast. Fakt ist, Bobcat kam fast zu spät, wenn auch nicht zu spät.
Gut wäre es wenn man sich im Bereich Tabelts noch integrieren kann, aber hier gibt es neben Intel noch ganz andere Konkurrenz.

An einem verkauften Bulldozer um 300€ würde man wohl 10 mal soviel verdienen wie an einem 75€ ITX Bobcat Board / 350€ Netbook.

Bedeutender wäre es mit Bulldozer sich wieder im Server Segment stark zu machen, aber dass hängt wie gesagt von Bulldozer ab. Hier fallen fette Gewinne an.

Zur Zeit ist die Garfiksparte noch das, wo AMD am besten glänzen kann und wohl auch die größten Gewinne / Einheit erzielen kann.
 
Zuletzt bearbeitet:
mal ne andere Frage an die Glaskugelgucker:
der BD hat ja, soweit ich informiert bin, keine eingebaute Grafik, wie die aktuell erhältlichen SB-CPUs.
Meint ihr, dies wird sich im Preis widerspiegeln?
 
Naja was ist die integrierte Grafikkarte auf den CPUs denn eigentlich schon wert?
Jemand mit einem Bulldozer wird sich eh eine vernünftige kaufen oder ein Mainboard mit onboard Grafik kaufen.
Ich glaube nicht, dass das Relevanz hat, Wert deutlich unter 10€.
Außerdem sind Mainboard ohne Grafikanschlüsse auch wieder billiger.
 
sanders schrieb:
@Complication
Anstatt wieder krampfhaft zu versuchen dich mit mir zu streiten solltest du meinen Post erstmal wirklich lesen. Und aus dem Zusammenhang gerissene Zitate um sich selbst das Bild zu Formen das man Kritisieren möchte finde ich nicht sonderlich intelligent und Fair!
Vielleicht solltest du einfach weniger persönlich an meine Beiträge ran gehen und auch unterlassen mich zu beleidigen. Der Vergleich mit K10.5 funktioniert nun mal nicht und ich habe auf die Gründe und fehlende Quellen dafür hingewiesen.

Ich setze mich ausschließlich inhaltlich mit deinen Beiträgen auseinander und es tut mir Leid wenn du den Hinweis auf fehlerhafte Vergleiche als Streit interpretierst. Du solltest dir dann vielleicht einfach das posten sparen wenn es anderen nicht erlaubt ist auf Fehler hinzuweisen.
 
@Complication
Nun, da du in diesem Fall mal nicht persönlich an meinen Beitrag gegangen bist habe ich dies auch nicht getan. Und wenn du den von dir markierten Teil als beleidigung ansiehst tut mir das leid das du es falsch verstehst. Denn die beiden begriffe beziehen sich auf die herangehensweise die dein Verhalten nunmal offen legt. Wenn du dir das nicht so zurecht formen würdest wie du es gerade brauchst um "Bruce Allwissend" zu spielen wären solche Hinweise nicht notwendig.

Ich setze mich ausschließlich inhaltlich mit deinen Beiträgen auseinander
Wäre schön wenn dem so wäre. Aber ich habe die Hoffnung nciht aufgegeben...

Der Vergleich mit K10.5 funktioniert nun mal nicht
Wie schön das du schon wieder nicht meinen Beitrag gelsen/Verstanden hast

es tut mir Leid wenn du den Hinweis auf fehlerhafte Vergleiche als Streit interpretierst.
Und nochmal, da war nichts wirklich fehlerhaft. Du kannst nur entweder nicht richtig lesen oder du schneidest dir Zitate so zurecht das sich ein anderer Inhalt ergibt!

Du solltest dir dann vielleicht einfach das posten sparen wenn es anderen nicht erlaubt ist auf Fehler hinzuweisen.
Man darf mich gerne auf Fehler aufmerksam machen. Und wenn ich dann im Unrecht bin gestehe ich dies auch ein ohne groß flapsig zu werden. Kleines Beispiel :

Sry, hatte in dem von dir ursprünglich zitierten Beitrag nicht realisiert das er sich DIREKT mit der performance auf K10.5 bezog. Hast natürlich recht

Wenn man mir jedoch versucht etwas unter zu schieben ist das nicht ok. Vielleicht solltest du dir das posten sparen wenn du es nicht schaffst richtig zu lesen, Zitieren oder ggf. selbst ein zu gestehen das du etwas einfach nciht verstanden hast. Ein anständiger Gesprächspartner hätte wenigstens den Schneid auf meine erleuterung ein zu gehen um fest zu stellen das man
a) entweder an einander vorbei geredet hat
b) man vielleicht nicht einer Meinung ist weil trotzdem noch etwas nicht ganz stimmig ist

Stattdessen kommt wieder so ein aufstachelnder Teil mit deinem ach so gütigen Tip ich sollte vielleicht garnicht mehr posten. Sehr Sachlich und super auf Inhalte bezogen.
Wenn 2 Parteien aneinader vorbei reden oder etwas nicht ganz verstanden/missverstanden wurde so kommt es nur zu einer richtigstellung/Klärung wenn sich beide Parteien aufeinander zu bewegen. Diesen Schritt habe ich versucht mit meiner Erklärung. Wenn du diese nun allerdings ignorierst drängt sich unmal das Bild des streitsuchenden "Bruce Allwissend" auf...

DAS ist dann allerdings nicht mehr mein Schuh ;)
 
...laut PCGH wird Bulldozer nun definitiv kompatibel zu AM3. Wäre dem so, wäre das ein unschätzbarer Vorteil von AMD - und eine konsequente Fortführung der Aufrüstfreundlichkeit seit AM2.

Orignal von PCGH
Im zweiten Quartal sollen CPUs mit AMDs neuer Bulldozer-Architektur kommen. MSI verriet gerade auf der Cebit, dass im April AM3-Boards mit einem Chip der 8er-Serie und Bulldozer-Unterstützung kommen sollen - ältere AM3-Boards werden per BIOS-Update Bulldozer-tauglich gemacht.

:)
 
Also jetzt hauts mich doch vom Hocker !!!!!!!!! MSI hat auf der CBIT bekannt gegeben das gängige AM3 Boards per BIOS-Update BD fähig gemacht werden sollen - dh. die laufen dann auch darauf................:evillol: Natürlich nicht mit allen Features - aber immerhin. Ist das jetzt n´verfrühter Aprilscherz ? Dann wär alles was hier im Forum zu Kompatibilitätt gesagt wurde Nonsens....das wär schon an sich ein Knaller....:cool_alt: Dann darf man auf die Vorstellung wohl gespannt sein....
 
Jaaaaa, das wäre mal eine News wert. Aber gut, CB wird schon früher oder später eine Meldung schreiben "müssen".
 
Da werden halt die Stromsparfunktionen leiden, die laut der ISSCC ja sehr gut sein sollen.
Dann hier noch mal von JF etwas von Twitter(den Server Marketing Mensch)
OK, daddy is going to do some math, everyone follow along please.

First: There is only ONE performance number that has been legally cleared, 16-core Interlagos will give 50% more throughput than 12-core Opteron 6100. This is a statement about throughput and about server workloads only. You CANNOT make any client performance assumptions about that statement.

Now, let's get started.

First, everything that I am about to say below is about THROUGHPUT and throughput is different than speed. If you do not understand that, then please stop reading here.

Second, ALL comparisons are against the same cores, these are not comparison different generations nor are they comparisons against different architectures.

Assume that a processor core has 100% throughput.

Adding a second core to an architecture is typically going to give ~95% greater throughput. There is obviously some overhead because the threads will stall, the threads will wait for each other and the threads may share data. So, two completely independent cores would equal 195% (100% for the first core, 95% for the second core.)


Looking at SPEC int and SPEC FP, Hyperthreading gives you 14% greater throughput for integer and 22% greater throughput for FP. Let's just average the two together.

One core is 100%. Two cores are 118%. Everyone following so far? We have 195% for 2 threads on 2 cores and we have 118% for 2 threads on 1 core.

Now, one bulldozer core is 100%. Running 2 threads on 2 seperate modules would lead to ~195%, it's consistent with running on two independent cores.

Running 2 threads on the same module is ~180%.

You can see why the strategy is more appealing than HT when it comes to threaded workloads. And, yes, the world is becoming more threaded.

Now, where does the 90% come from? What is 180% /2? 90%.

People have argued that there is a 10% overhead for sharing because you are not getting 200%. But, as we saw before, 2 cores actually only equals 195%, so the net per core if you divide the workload is actually 97.5%, so it is roughly a 7-8% delta from just having cores.

Now, before anyone starts complaining about this overhead and saying that AMD is compromising single thread performance (because the fanboys will), keep in mind that a processor with HT equals ~118% for 2 threads, so per thread that equals 59%, so there is a ~36% hit for HT. This is specifically why I think that people need to stay away from talking about it. If you want to pick on AMD for the 7-8%, you have to acknowledge the ~36% hit from HT. But ultimately that is not how people jusdge these things. Having 5 people in a car consumes more gas than driving alone, but nobody talks about the increase in gas consumption because it is so much less than 5 individual cars driving to the same place.

So, now you know the approximate metrics about how the numbers work out. But what does that mean to a processor? Well, let's do some rough math to show where the architecture shines.

An Orochi die has 8 cores. Let's say, for sake of argument, that if we blew up the design and said not modules, only independent cores, we'd end up with about 6 cores.

Now let's compare the two with the assumption that all of the cores are independent on one and in modules on the other. For sake of argument we will assume that all cores scale identically and that all modules scale identically. The fact that incremental cores scale to something less than 100% is already comprehended in the 180% number, so don't fixate on that. In reality the 3rd core would not be at 95% but we are holding that constant for example.

Mythical 6-core bulldozer:
100% + 95% + 95% + 95% + 95% + 95% = 575%

Orochi die with 4 modules:
180% + 180% + 180% + 180% = 720%

What if we had just done a 4 core and added HT (keeping in the same die space):
100% + 95% +95% +95% + 18% + 18% + 18% + 18% = 457%

What about a 6 core with HT (has to assume more die space):
100% + 95% +95% +95% +95% +95% + 18% + 18% + 18% + 18% + 18% + 18% = 683%

(Spoiler alert - this is a comparison using the same cores, do NOT start saying that there is a 25% performance gain over a 6-core Thuban, which I am sure someone is already starting to type.)

The reality is that by making the architecture modular and by sharing some resources you are able to squeeze more throughput out of the design than if you tried to use independent cores or tried to use HT. In the last example I did not take into consideration that the HT circuitry would have delivered an extra 5% circuitry overhead....

Every design has some degree of tradeoff involved, there is no free lunch. The goal behind BD was to increase core count and get more throughput. Because cores scale better than HT, it's the most predictable way to get there.

When you do the math on die space vs. throughput, you find that adding more cores is the best way to get to higher throughput. Taking a small hit on overall performance but having the extra space for additional cores is a much better tradeoff in my mind.

Nothing I have provided above would allow anyone to make a performance estimate of BD vs. either our current architecture or our compeition, so, everyone please use this as a learning experience and do not try to make a performance estimate, OK?
Nach X-Spekus zum Bulldozer vermute ich inzwischen Singlethread wird Inteldomaine bleiben Multi wird klar an AMD gehen zumindest nach DIE Größe.
 
sanders schrieb:
DAS ist dann allerdings nicht mehr mein Schuh ;)
Meiner war es auch vorher nicht - sind wir uns ja einig. :p
 
@Stryke707
Erstmal danke für den Post. Sehr schön vor allem da, bis auf eine kleine Ausnahme, ohne Autovergleich :D
Aber
vermute ich inzwischen Singlethread wird Inteldomaine bleiben Multi wird klar an AMD gehen
kann man nicht sagen. Und das ist was ich schon ewig prädige. Denn wenn man die Rechnung macht und die 180% aufteilt auf die Cores innerhalb eines Moduls ergibt sich zwar 90% ABER immernoch bei einer Multithread belastung fürs Modul. D.h. wenn nur 1 Thread auf einem Modul läuft steigt die performance pro Core im Verhältniss zur Multithread performance. (Und nein, auch ich beziehe mich nicht auf irgendeine K10.5 Architektur oder so. Nicht das mir gleich wieder jemand was unterschieben will)

Man muss also eine Rückrechnung auf klasische Kerne machen.
Folgende Zahlen sind rein hypotetischer natur da die eigentliche performance des BD nicht bekannt sind!!!! Der einfachheit halber berücksichtige ich nicht die jeweiligen Integer oder FP vorlieben der jeweiligen Software arten. Ich versuche nur deutlich zu machen welcher zusätzlich Umstand bei BD VÖLLIG NEU IST!!!!

Wenn ich nun 2 Threads auf einem Modul Laufen lasse ergeben sich 180% Leistung im Verhältniss zum klassischen Architektur Design.

Nun ist es allerdings so das diverse bestandteile geteilt werden. Aus der Multithread Performance nun also Rückschlüsse auf die Singlethread Performance zu machen ist nicht möglich. Bei K10 oder Sandybridge ist dies aber in vielen Fällen möglich!

Demnach hat ein Core in einem Modul nicht die 90% udn auch nciht die 100% sondern (achtung, spekulativ!) 130% bei gleicher oder geringerer DIE size.
Warum das?
Naja, normalerweise würde z.B. der L2 Cache sowie die FP Einheit und alles was da mit dran hängt aufgeteilt/verdoppelt werden. D.h. wenn nur ein Kern läuft hätte dieser nur die 128 FP einheit und z.B. 1 MB L2 Cache. In einem Modul stehen diesem Kern nun allerdings eine 256bit FP einheit sowie die vollen 2 MB Cache zur verfügung. (Ich gehe absichtlich jetzt nicht noch tiefer auf weitere Architektur komponenten ein).

Daraus ergibt sich ein interessantes Szenario. Wenn ich nun also Software habe welche von einer starken FP Einheiten viel nutzen hat oder aber eh nur auf 2 oder 4 Kernen laufen kann macht es sinn die Threads nicht auf die Cores in den Modulen zu verteilen sondern nur einen Thread pro Modul zu nutzen.

Denn wenn ich Threads habe (Encoding von 2 Audio Spuren z.B.) bekomme ich bei der Verteilung auf 2 Cores pro Modul wirklich nur die 90%. Also 180% im verhältniss zur klassischen VAriante. Bei der Aufteilung auf 2 Module bekomme ich jedoch 260% im Verhltniss zum Klassischen Design. Wobei das klassische Design dann jeweils die 100% pro Kern, also 200% wären.

Man sieht also das die Bewertung des Bulldozers in der Zukunft im Vergleich zu anderen CPUs nicht leicht wird. Vor allem wenn man bedenkt wie unterschiedlich Software sein kann.

NOCHMAL falls einer die andere Info Überlesen hat. Diese Prozent zahlen, außer die AMD bereits mehr oder weniger bestätigten 90%, sind rein fiktiv und sollen lediglich die änderung der zukünftigen Bewertungsmöglichkeiten bzw. das geänderte Verhalten der CPU verdeutlichen!

@Complication
Wie du meinst...:cool_alt:
 
Die Beiträge hier zu lesen ist echt unterhaltsam^^.
 
Zurück
Oben