Bericht Bericht: AMDs „Bulldozer“ im Detail

AMD haette sehr gut daran getan, statt des ganzen Marketing-Blablas um 8 Kerne usw. das Ding lieber so zu bauen, dass es dem OS sagt "ich bin ein Vierkerner mit HT". Denn genau das ist es letztlich und genau das kann jedes aktuelle OS auch problemlos sinnvoll nutzen, wie man an all den CPUs von Intel sieht.

Ich fürchte nur das genau dieses Feature von AMD so designed wurde mit Absicht - denn man sieht ja wieviel Leistungsgewinn ein "HT-Kern" bringt (etwa so 25%-40%).

AMD baute den BD aber so dass dies wohl ca. 80-90% eines theoretischen echten Kerns ist - allerdings funktioniert das nur wenn man eben software (und vor allem auch treiber/microcode, scheduler, compiler etc.) hat die genau auf diese Design Spezialität hin funktionieren.

Denken wir doch mal zurück an die Zeit als HT von Intel eingeführt wurde...wie hat die Welt doch noch gelacht über die mickrigen 5-10% Performance gewinn nur um mit den AMD 64 und den FX "mitzuhalten". Ganz zu Beginn hat Intel ja noch versucht das als "mehr kerne = doppelt so schnell" zu vermarkten, davon hat man sich aber mit "Turbo" wieder verabschiedet um sich nicht der Lächerlichkeit preiszugeben als man gemerkt hat dass die an sich geniale Idee erstmal einige Jahre brauchen wird um ins Land zu wachsen.

Vergleicht man mal die aktuell HT-Performance so grob über den Daumen gepeilt mit den ersten HT-Gehversuchen hat sich diese ca. auf das 3-4fache gesteigert !

Setze ich das noch in Relation mit der mittlerweile sich doch deutlich verlangsamenden zwanghaften "Performance"-Steigerungen (bedingt durch mehr "alles") sieht es als "langlebige" CPU-Plattform für BD glaub ich gar nicht so schlecht aus.

Mich würden wirklich Benchmarks in 1-2 Jahren FX8150 vs. i7-2600k interessieren.

Für Gamer bleibt es dennoch zu überlegen sich überhaupt eine CPU in der Größenordnung von mehr als 120€ zu kaufen - für single GPUs in fullHD eine völlig ausreichende Kombo, auch noch in 1-2 Jahren.

Das Geld das man sich da an der CPU spart steckt man lieber in das aktuelle UND nächste GPU update.
 
Hi,

Ich fürchte nur das genau dieses Feature von AMD so designed wurde mit Absicht - denn man sieht ja wieviel Leistungsgewinn ein "HT-Kern" bringt (etwa so 25%-40%).

AMD baute den BD aber so dass dies wohl ca. 80-90% eines theoretischen echten Kerns ist - allerdings funktioniert das nur wenn man eben software (und vor allem auch treiber/microcode, scheduler, compiler etc.) hat die genau auf diese Design Spezialität hin funktionieren.

Moment... ich glaube, ich habe mich missverstaendlich ausgedrueckt. Ich finde den Weg, wie AMD das CMT designed hat, gut und denke, dass die Idee sehr viel Potential haben wird, wenn die Fertigungsprobleme ausgeraeumt sind. Mir ging es nur um eine ganz simple Sache, naemlich die Art, wie sich die CPU dem OS gegenueber darstellt, nicht der interne Aufbau.

Sprich: Wenn die CPU dem OS melden wuerde "habe 4 Kerne mit HT" (so, wie es ein HT-faehiger Intel-Prozessor tut), dann muesste man eben nicht warten, bis die Spezialitaeten von Bulldozer in allen Anwendungen und OS beruecksichtigt sind, sondern man wuerde jetzt schon von dem profitieren, was Intel vorgelegt hat und das schon lange unterstuetzt ist. Siehe Linux... da funktioniert genau das sehr gut.

Was nicht klappt (und IMO auch so bald nicht klappen wird, weil da naemlich richtig Forschungsarbeit reingesteckt werden muss!), ist folgende Vision:

Es gibt zwei sinnvolle Szenarien, BD nutzen zu wollen, wenn Teillast anliegt. Nehmen wir mal an, wie haben 4 Threads (also quasi das, was in dem CB-Artikel gemacht wurde).

Packen wir die auf 2 Module, dann sieht die Sache so aus:
+ mehr Turbo
+ L2 fuer schnelle Kommunikation zwischen Siblings
- geteilte Ressourcen (FPU!)
- weniger L2

Packen wir die auf 4 Module mit 1 Thread pro Modul, dann gilt:
+ deutlich mehr L2
+ mehr Ausfuehrungsressourcen
- weniger Turbo
- potentiell teurere Kommunikation, weil immer ueber L3

AMD zielt in diversen Ankuendigungen auf das erste Szenario ab, Linux steuert derzeit das zweite an, da das bei HT auf jeden Fall sinnvoller ist. Bei CMT gilt das aber nur noch eingeschraenkt, denn da kommt es auf die Last an, wann welche Vorteile ueberwiegen. Sprich, man muesste zur Laufzeit im Scheduler analysieren, was die SW gerade jetzt tut. Kommuniziert sie viel zwischen ihren Threads oder macht sie nur Numbercrunching? Wie gross ist ihr Workingset? Usw... das SINNVOLL zur Laufzeit rauszubekommen, ist nichts, was man nebenher macht, das ist eine anspruchsvolle Forschungsaufgabe.

Viele Gruesse,

Jan
 
0815*Sir Tom schrieb:
Heute kommt mein 990FX Board, ich hoffe, mit einem aktuellen BIOS (UEFI), denn sonst muß ich erst wieder einen alten Prozessor draufmachen, um hier zu aktualisieren. Da sollte AMD lieber mal die Boardpartner treten, was den Support der CPU angeht.

Eigentlich sollte wirklich das Bios wirklich der Verantwortliche sein, denn AM3+ Boardsmit wohl funktionierender Zambezi-Unterstützung gibts einige mit "alten" Chipsätzen

mace1978 schrieb:
Und wer hat behauptet, dass die Leistung eines BD heutzutage nicht ausreicht? Das habe ich noch nirgends gelesen. Und wer spricht hier von in ein paar Jahren. Wolltest du nur ein wenig polemisch sein? :evillol:

Welche Irrungen? Ich lese hier nirgendwo, Hilfe die Leistung meines Phenoms/BD reicht nicht aus. Ich lese hier nur Posts "epic fail", was wohl soviel heisst wie "mein Hirn setzt aus".

Hast du wirklich die Hoffnung das in ein paar Monaten alle Arten von Software die BD-Architektur ausnutzen?
Ich bin nicht polemisch, sondern realistisch.

Wie oft muß ich das denn noch schreiben? Es geht um das Verhältnis Preis/Leistung/Stromverbrauch. Und da kann der BD nicht überzeugen
Wenn er nur 65W bei Vollast brauchen würde und den Preis eines genauso schnellen Intels hätte, würde ich ihn kaufen.

Aber höherer Stromverbrauch, gepaart mit weniger Leistung und dazu der Preis = Kein Kaufgrund
 
ja wohl und Strom ist sehr sehr teuer geworden, die Mehr Kosten was Intel HW kostet
das rechnet sich langsam , wenn der PC jeden Tag mehrere Stunden läuft macht sich schon auf der Strom Rechnung bemerkbar , bei mir läuft der Intel PC pro Tag 12 Stunden,
vollast ist ja nicht das Ding so oft läuft ja der PC nicht Vollast Firefox viel serven hohe System Last ja ja der Bulldozer zieht mir selbst bei Windows noch zu viel

wollte mir eigentlich mal wieder einen AMD PC gönnen es sollte ein Bulldozer sein aber als ich die Leistungs Daten dieser CPU gesehen habe nein Danke ,
das ist ja heute auf dem nivou der 3 Jahre alten Sockel 1366 I 7 920 CPU so in etwa nee ..
 
Zuletzt bearbeitet:
Naja unter Teillast ist der Unterschied Sandy und BD doch arg gering.

Wenn man noch davon ausgeht, dass ein guter Teil davon, also locker 15W dem
alten Chipsätzen in 65Nm oder innefizienten Boards geschuldet ist, dürfte sich die
Ausgangslage deutlich relativieren.

Weiterhin glaubt hier ernsthaft jemand dass z.B. eine hypothetische nagelneue Architektur,
welche Intel auf den Markt bringen würde und welche so gar nix mehr mit Pentium Pro von
annodunnemal zu tun hat gleich locker Sandy in die Tasche stecken könnte?
Ohne das Treiber, Bios, Compiler und Co optimiert werden müssten?
Träumt mal ruhig weiter!

Das ist bei einer neuen Architektur immer notwendig und wird eine gewisse Zeit dauern.

Mehr Leistung und zwar jetzt ist bei vorhandener Software schlicht nicht machbar.


Das heisst aber auch nicht, dass es Jahre dauern muss, bis sich hier deutlich was tut.

Wenn ich mir ankuck wie schlecht der erste Phenom gemacht wurde und wie gut der heut bei
gut multithredet optimierten Games oder anderer Software skaliert würd ich mir das nochmals überlegen....
 
Zuletzt bearbeitet:
Jahre wirds dauern, das ist sicher; sofern die Optimierungen wirklich kommen.

Wir sprechen von AMD, die von Softwareentwicklern meist ignoriert wurden, da nur ca. 20% Marktanteil in den besten Zeiten.

Selbst für Intel-CPUs dauern Optimierungen lange, aber derzeit kann denen das egal sein, der Vorsprung ist gegeben. Intel hat einfach alles optimal gemacht, das muß man anerkennen. Geringer Verbrauch, hohe Leistung, Preise moderat; was will man mehr als Kunde?
 
Hi,

auch Softwareoptimierungen werden keine Wunder bringen, aber das ist nicht der Punkt! Bulldozer ist als eine Server-CPU entworfen und genau dafuer optimiert. Schaut euch die entsprechenden Benchmarks an (z.B. Heise Newsticker), da ist der Abstand VIEL kleiner und manchmal ist die Interlagos-Plattform sogar schneller als Intels Westmere-Xeons.

Der erste Phenom war Mist... der Barcelona-Opteron, auf dem er basierte, war es nicht. Er war nicht toll, aber er hat trotz Takt- und IPC-Nachteil Intel einiges an Paroli geboten. Auf Arbeit haben wir so eine Kiste (2 x Barcelona @ 2,1 GHz) immer noch als Host fuer 10+ VMs zu laufen - problemlos und ausreichend schnell.

Der Fehler ist nur der ganze Marketing-Hype - diese Server-CPU ist nicht fuer Spiele und vergleichbare Anwendungen entworfen und versagt damit natuerlich bei solchen Lasten. Sie ist dafuer gemacht, bei NIEDRIGEREM Takt mit vielen Kernen parallel zu laufen. 16 Kerne mit 2,6 GHz bei 140W (Opteron 6282SE)... DAS ist das Ziel, nicht 8 Kerne bei 3,6 GHz und 125W.

Schaut euch Intels Sandy Bridge E an... eine Server-CPU, die als Desktop-CPU angeboten wird. Sie ist schnell, sie ist gut, aber ist sie wirklich soviel besser als ein 2700K, der weniger als ein Drittel kostet? Auch das Ding wird richtig aufbluehen in Mehrwege-Servern - mit allen 8 Kernen und deutlich WENIGER Takt. Jetzt war sogar Intel gezwungen, 2 Kerne abzutoeten, damit das Ding dort landet, wo es das tun sollte... mit 8 Kernen bei 2,9 GHz wuerde es bei "normaler" Software von einem billigen i5 2400 plattgemacht werden, waherend 6 Kerne bei 3,3 + Turbo eben genau das tun, was sie sollen (leider auch nicht mehr).

Bulldozer auf dem Desktop - das wird noch kommen, aber IMO nicht im Highend, sondern bei guenstigen Mittelklasse-APUs (Stichwort Trinity).

Der Punkt ist, dass man genau schauen muss, worauf es ankommt, und danach dann die Wahl treffen - und das wird im professionellen Bereich wohl oft auch in Richtung AMD gehen (siehe Cray und Co. derzeit). Alles andere sind kindische Streitigkeiten.

Viele Gruesse,

Jan (Fan faszinierender Technik, nicht von AMD oder Intel)
 
Die Bulldozer-Architektur sieht aber nicht so aus, als wäre sie für niedrige Taktraten entworfen worden.
Im Gegenteil. Die lange Pipeline und die hohen Cache-Latenzen usw. sehen ganz nach einer Architektur aus, die kompromisslos darauf optimiert wurde, mit extrem hohen Taktraten zu laufen. Deswegen hat Bulldozer ja auch auf Anhieb ein paar Übertaktungsweltrekorde gebrochen.
 
@JanR

Herdware hat Recht, BD ist darauf designed bei Taktraten von über 4 oder gar 5 Ghz zu operieren, aus Gründen die er genannt hat. Man ging bei AMD bewusst eine niedrigere IPC ein.

Auch bei Dingen die VM kommt es nicht nur auf Kerne an. Im Gegenteil, auch dort ist die Auslastung selten bei 100% über alle Kerne sondern treten in Peaks auf die für sich dann bei einem schnellen Kern auch schneller bearbeitet werden.

Viele Benchmarks betrachten leider nur den Worst Case, eben 100% Auslastung. normal... nur so lässt sich auch der volle Leistungsumfang ermitteln. Ob das Maximum hier auch real dann die besten Resultate bietet steht auf einem anderen Papier.
 
Es geht ja auch darum, das wenn eben mehrere Virtuelle Maschinen auf einem System mit vielen Kernen laufen, und bei diesen eben zwischendurch Peaks auftauchen diese lasten eben so verteilt werden können, das allen Möglichst noch Reserven zur Verfügung stehen.
Man pinnt ja eben nicht eine VM fest an einen Kern sondern lässt das Wirtsystem die Last verteilen!(Dessen Sheduler muss dann natürlich entsprechend gut damit umgehen können)
 
Herdware schrieb:
Die Bulldozer-Architektur sieht aber nicht so aus, als wäre sie für niedrige Taktraten entworfen worden.
Das hat er so glaub ich auch gar nicht gemeint. Nur im Serverumfeld wird eher auf mehr kerne gesetzt die dann niedriger takten um die TDP im Rahmen zu halten. Im Desktopbereich kann man so viele Kerne kaum ausnutzen und man geht mehr auf einen hohen Takt. Das Problem ist eben dann dass eine CPU die bis ans Limit getaktet wird ineffizienter wird.
 
Tigerkatze schrieb:
1. Auweia, die Zockerfraktion mal wieder in voller Fahrt! Wozu braucht man eine starke Graka? Zum Zocken, sonst nichts, denn für alles andere reichen heutzutage selbst interne GPUs a la AMD Llano und Intel HD3000 dicke aus. Und selbst beim Zocken sind die, wenn man nicht zu große Ansprüche hat, echt akzeptabel. Aber eine starke CPU-Leistung kann man immer gebrauchen.
Wenn man wenig oder garnicht spielt warum, soll man sich eine große Graka holen? Hmm? Absurd wäre nur, sich eine dicke ....verlängerung zu kaufen, die ordentlich Strom fressen kann und man nie braucht. Anwendungsprofil ist hier gefragt! Sei mit "absurd" bitte etwas zurückhaltender!

2.(Jetzt wäre es schön, wenn mal jemand von der AMD-Fraktion eins auf den Deckel kriegt für einen Hirnkommentar, nicht nur die Inteler!) Bulli erfüllt doch die Anforderungen an einen "Epic Fail" doch sehr gut. Als die Zocker/ÜT/Intelkiller-CPU angekündigt, läßt er Riesenpotenzial liegen und ist genau dort nur mittelprächtig oder schlecht, wofür er angeblich so toll sein sollte. Eben beim Zocken, Übertakten ist nur mit unglaublichem Stromfraß machbar und vom Sandbrückenkiller ist er meilenweit weg. Intel wird schon seine nächste Generation am Start haben, wenn Bulli vielleicht zu SB aufschließt!
Insgesamt ist der Bulli 1 kein Bulldozer, sondern ein Spielzeugbagger. Was aber an AMD liegt, nicht an anderen. Bei allem Falschen, daß z.B. die Softwareschmieden so fabrizieren, sind sie unschuldig, wenn ein Chip-Hersteller es nicht schafft, seine Produkte auf vorhandene Programme abzustimmen. Eine CPU muß vom Tag 1 an volle Leistung bringen, nicht erst (vielleicht) in ein paar Jahren. Über die ganze Bandbreite und nicht nur bei ein paar Spezialdingern. Wenn ich einen neuen Hammer anpreise, kann ich den Handwerkern auch nicht sagen, daß er ein guter Schraubenzieher ist, nur mit dem Hämmern wird das erst irgendwann mal was.
1. Ich äussere mich zu einem Post bzgl zockens in einem Thread über einen Test, in dem nur Games getestet werden. Was machst du eigentlich hier?
Meines erachtens gilt für deutlich über 90% der PCs von Privatanwendern, ob zocker oder nicht...eine CPU die deutlich über 100€ kostet ist völlig überteuert. Für Gamer kommt der Zusatz dazu, alles Geld darüber ist besser in eine Grafikkarte investiert.

2. [ironie]Ach so ja, ich sehe, du hast interesse an einer Diskussion und nicht an reinem Fanboy gelaber.[/ironie]
Setze wie der letzte Zeigen wohl deutlich, woher der Wind hier weht.



Iscaran schrieb:
Mich würden wirklich Benchmarks in 1-2 Jahren FX8150 vs. i7-2600k interessieren.

Für Gamer bleibt es dennoch zu überlegen sich überhaupt eine CPU in der Größenordnung von mehr als 120€ zu kaufen - für single GPUs in fullHD eine völlig ausreichende Kombo, auch noch in 1-2 Jahren.
Richtig.
 
mace1978 schrieb:
1. Ich äussere mich zu einem Post bzgl zockens in einem Thread über einen Test, in dem nur Games getestet werden. Was machst du eigentlich hier?
Meines erachtens gilt für deutlich über 90% der PCs von Privatanwendern, ob zocker oder nicht...eine CPU die deutlich über 100€ kostet ist völlig überteuert. Für Gamer kommt der Zusatz dazu, alles Geld darüber ist besser in eine Grafikkarte investiert.
2. [ironie]Ach so ja, ich sehe, du hast interesse an einer Diskussion und nicht an reinem Fanboy gelaber.[/ironie]
Setze wie der letzte Zeigen wohl deutlich, woher der Wind hier weht.
Hi! Zu 1) Deine erste Post klang verdächtig nach "generell braucht man eine tolle Graka", was eben je nach Nutzerprofil nicht der Fall ist.
Zu 2) Schon komisch, daß man sofort ein "Fanboy" in den Augen der AMDler ist, wenn nur Dinge anspricht, die wahr sind. Hat AMD Artenschutz? Ich würde Intel genauso veräppeln wenn sie eine solche Baustelle wie es der Bulli nun ist, auf den Markt werfen würden. Fakt ist, daß Bulli gerade wofür er von speziell AMD angepriesen wurde, nicht der große Wurf ist, im Gegenteil. Vielleicht gelingt es AMD irgendwann, daß brachliegende Potenzial zu öffnen, aber bis dahin stimmt mein Spruch. Denn Bulli kann nur in speziellen Bereichen punkten, nicht dort, wo er angeblich so toll sein sollte. Ergo stimmt es flapsig ausgedrückt, daß AMD einen Hammer anpreist, der momentan einfach nur zum Schraubenziehen gut ist, nicht zum Hämmern. Irgendwann mag das anders sein, aber nicht heute, wo AMDs Werbung uns allen, auch gerade den AMD-Jüngern, versucht einen Bären aufzubinden.
 
Zu 2) Schon komisch, daß man sofort ein "Fanboy" in den Augen der AMDler ist, wenn nur Dinge anspricht, die wahr sind. Hat AMD Artenschutz? Ich würde Intel genauso veräppeln wenn sie eine solche Baustelle wie es der Bulli nun ist, auf den Markt werfen würden.

Wahrscheinlich nicht.

http://www.heise.de/ct/meldung/Intel-Chipsatz-Bug-Port-Erkennung-1183534.html
Der fehlerhafte Chipsatz von Anfang des Jahres ist ja auch schon komplett vergessen nehm ich an. Die armen Schweine die einen der ersten erwischt haben und denen deshalb z.B. die SSD abraucht (oder das system ab und zu aussetzer) hat sind ja bekanntlich auch nur AMD Artenschützer.

Immerhin liefert AMD keine 8 Millionen z.T. defekte CPUs aus.
 
Dise Fehler fallen unter intel artenschutz da wird nichts veräppelt bei der Katze.:D
 
Hi,
bensen schrieb:

So ist es. Um richtig gut dazustehen, braucht BD auf dem DESKTOP viel Takt. Auf dem Server zaehlt eher Durchsatz pro Watt und da ist es (meist) egal, ob das viele niedriggetaktete oder wenige hochgetaktete Kerne tun. An genau der Stelle steht AMD aber jetzt schon recht gut da, weil BD bei niedrigem Takt sehr sparsam laeuft und erst bei den Takten, die momentan auf dem Desktop noetig sind, uebel verbraucht. Schuld daran duerfte die aktuelle Fertigung bei GF sein.

Schaut euch mal Suns Niagara an... das ist das ultimative Beispiel fuer "wir opfern IPC und machen ganz viele Kerne". Das Ding stammt von 2005 und hat ACHT Kerne mit je 4 Threads bei 1 GHz (macht zusammen 32 Threads). Singlethreadmaessig war ein Pentium3 bei 500 MHz schneller, aber bei hochparallelen Lasten konnte er es mit einem ebenfalls 2005 hergestellten Dualcore Athlon mit 2,2 GHz aufnehmen, der deutlich mehr verbrauchte. Der Nachfolger hatte dann 8 Kerne mit je 8 Threads und davon konnte man 4 Stueck in einem Rechner (fuer astromonische Summen) kaufen -> 256 Threads, und das vor Jahren.

Von daher warte ich sehnsuechtig auf den Moment, in dem AMD 20...30 Bobcat-Kerne auf ein Die schuettet und es fuer den Sockel C32 oder G34 rausbringt. Flaechenmaessig duerfte das noch unter BD liegen (Gesamtcache waere sogar etwas weniger) und wir wissen ja, dass 2 Bobcats mit NB bei 1,6 GHz mit 9 Watt auskommen (TDP 18 Watt, aber etwa die Haelfte ist die GPU, die hier wegfallen kann). Mit 125 Watt koennte man also (naiv gerechnet, da der Interconnect ja noch was braucht, die Zusammenfassung der NB dagegen wieder spart) 27 Kerne befeuern. In 32 nm koennte das alles sogar noch guenstiger aussehen und die Performance im SERVERbereich waere vermutlich okay - wenn man denn AVX und Co mit reinbringt.

Laut

http://www.xtremesystems.org/forums/showthread.php?258499-AMD-Ontario-APU-pictured-die-size-77mm-2

ist ein Bobcat-Kern in 40 nm mit Cache 8 qmm gross, 30 Stueck waeren mit 240 qmm also deutlich kleiner als BD in 32 nm. Dann noch die NB dazu und das uebrige Uncore... i

Viele Gruesse,

Jan
 
Zuletzt bearbeitet von einem Moderator: (Fullquote)
Immerhin liefert AMD keine 8 Millionen z.T. defekte CPUs aus.
Iscaran, Dir ist schon der Unterschied zwischen einer CPU und dem MoBo bekannt? Der Chipsatzfehlschuß Anfang des Jahres hat mit der CPU nichts zu tun. Die hat nämlich keinen Fehler, auch nicht der von AMD-Jüngern überhypte "23,976", wo ebenfalls das MoBo der Grund ist, nicht die Sandbrücke.

Dise Fehler fallen unter intel artenschutz da wird nichts veräppelt bei der Katze.
Kicher! Wäre ich schon Anfang 2011 Forenmitglied gewesen, hätte ich zum Chipsatz einen Spruch gebracht. Heute ist es aber nicht mehr nötig, weil Intel das Problem innerhalb von Wochen aus der Welt geschafft hat
 
Zuletzt bearbeitet:
@ JanR

Ich könnte verstehen, wenn AMD Bulldozer gezielt für viele Cores und wenig Takt entworfen hätte, um im Server-Segment zu punkten. Die Rechnung geht laut den Heise-Benchmarks der Bulldozer-Opteron auch gut auf.

Dann frage ich mich aber, warum die Architektur gleichzeitig offensichtlich auf extrem hohe Taktraten getrimmt wurde. Ohne Maßnahmen wie die verlängerte Pipeline (die man bei niedirgen Takt nicht braucht) oder die hohen Cache-Latenzen (die mehr weh tun, je niedriger der Takt ist), hätten die Opterons noch deutlich mehr leisten können.

Offensichtlich hat AMD einen Spagat versucht und Bulldozer eben nicht nur für Server optimiert, sondern er sollte gleichzeitig eine gute High-End-Desktop-CPU abgeben, wenn man sie entsprechend hoch taktet und genau das ist offensichtlich völlig in die Hose gegangen.

Dabei hätte man kein Hellseher sein müssen, um den Fehlschlag kommen zu sehen. AMD hat damals von Intels Pentium 4-Debakel massiv profitiert und müsste deshalb (nach Intel selbst) am allerbesten wissen, dass man schwache IPC nicht einfach mit hohem Takt ausgleichen kann.
Und das typische Desktopanwendungen nicht besonders gut mit vielen Cores skalieren, ist auch kein Geheimnis. Eben deshalb legt man Server-CPUs ja anders aus, als Desktop-CPUs.
 
Hi,

Dann frage ich mich aber, warum die Architektur gleichzeitig offensichtlich auf extrem hohe Taktraten getrimmt wurde.

Da bist du nicht der einzige...

Ich denke auch, dass sie diesen Spagat versucht haben, denn auch bei den Servern bringt das dank Turbo eine Verbesserung der Singlethread-Performance. Zudem duerfte die Hoffnung dahinterstehen, dass mit steigender Produktionsguete die Frequenzgrenze, bis zu der das Design wirklich effizient ist, immer weiter steigt. Ich kann mir sogar vorstellen, dass sie die weit ueber das treiben wollten, was BD heute auf dem Desktop taktet.

Ansonsten stimme ich dir zu: Seit dem P4 duerfte klar sein, dass "niedrige IPC, hoher Takt" keine gute Idee ist. Intel hat es probiert und ist gescheitert. IBM hat es besser gemacht (Power 6), es dann aber auch wieder gelassen (vergleich nur den Takt von Power 6 und 7). Vielleicht will AMD den Fehler der anderen ja einfach auch wiederholen - so nach dem Motto "jeder darf mal"?

Wie ich oben schonmal schrieb... niedrigere IPC muss so schlimm nicht sein, aber zurueck zum K7 und dem Bobcat? DAS muss echt nicht sein, zumal es meine Konstruktion (s.o.) mit dem Multicore-Bobcat immer sinnvoller erscheinen laesst fuer Server. Gut, man muesste einige Probleme mit der Koheraenz loesen, aber die Kerne sind da und sind vor allem synthetisierbar. Ich hoffe nur, dass sowas von AMD auf den Markt kommt, ehe Intel es mit einem vielkernigen Atom tut (angekuendigt ist sowas von Intel!), der dafuer viel schlechter geeignet ist.

Btw... noch ein Fail: Alle AMD-CPUs seit den ersten K8 koennen ECC-Speicher. Bei Intel koennten es auch viele, duerfen (sprich: aktiviert) tun es nur die Xeons und einige billige Celeron und Pentium. Und was macht AMD beim Bobcat? ECC ist weg... damit ist Bobcat fuer professionelle Miniserver ebensowenig geeignet wie es Atom ist (aber da hat Intel inzwischen schon wieder Versionen mit ECC-Support im Angebot).

Viele Gruesse,

Jan
 
es hat leider nicht viel Sinn etwas was es noch nicht zu kaufen gibt und schon zum untergang verdonnert ist noch groß zu erwähnen.
kurz um AMD hat es mit dem Bulldozer sehr heftig verpennt,
kaum jemand dürfte sich heute noch groß dafür interessieren wenn die Konkurrenz
schon wieder was noch viel schneller und sparsameres auf dem Tisch haut.

ich glaube echt langsam AMD tät was besserer daran wenn die ihre CPU Produktionen komplett einstellen würden und das an einen anderem Hersteller verkaufen, anderer Hersteller der mehr Geld hat und schneller entwickeln und produzieren kann als AMD heute ,
also so wird das meiner Meinung nichts mehr mit AMDs neuen
 
Zuletzt bearbeitet:
Zurück
Oben