Bericht Bericht: AMDs „Bulldozer“ im Detail

Bleibt die Hoffnung eines neuen Stepping, weniger Verbrauch, angepasste Software...

Auch ein neues Stepping wird gewiss nichts Entscheidendes reißen können, denn die 32nm-Fertigung läuft hinsichtlich elektrischer Parameter bereits jetzt schon gar nicht mal so schlecht, wie uns gewisse Personen von AMD gegenteilig weismachen wollen (abgesehen von vermutlich tatsächlich zu geringen Yield-Raten) - zu erkennen im Vergleich zwischen K10.5/Phenom und K10.5/Llano in einigen Punkten wie z.B. Stromverbrauch bei gleichem Takt zugunsten der 32nm-Fertigung.
Und die angepasste Software... also ich habe keine auf dem PC, die dafür in naher oder ferner Zukunft in Frage käme. Dass dann auch noch in knapp 1 Jahr der einzig zugkräftige Llano von einer bulldozerverseuchten Trinity-CPU abgelöst werden soll, lässt mich an meiner Desktop-Planung zugunsten AMD vollends (ver-)zweifeln...
 
Zuletzt bearbeitet:
das hatte ich nur geschrieben, dass man mir nicht Leichenfledderei unterstellt, unterm Strich ist und bleibt der Bulli ein Epic Fail. Die Begründung habe ich schon geschildert, ich schreibe es aber nochmal dazu. Ich persönlich finde es nicht schlimm, dass er nicht ganz mit dem Sandy mithalten kann, ist ja meist wohl schnell genug, aber der exorbitante Verbrauch ist ein absolutes Nogo.
 
Jo genau was ich mir gedacht habe....
Also 4M/4T + Turbo = mehr spiele Performance. Falls das der Tubro 3.0 so arbeitet, wäre piledriver seinen Vorgänger weit aus überlegen...

Ameisenmann
Da ich mehr oder weniger weiß welches System du hast, bist du irwie nicht gerade qualifiziert diese Aussage zu tätigen oder ????
Der FX 8120 ist gerade mal 5-10 % langsamer als der FX 8150, gibt es hoffentlich bald als 95 watt tdp klasse. Mit einem normalen MB, und nicht gerade das Asus board, was von vielen Tester verwendet wird, wäre der Mehrverbrauch vllt gerade mal ca30 watt...(beim Test sind es 70 watt davon verbraucht ca das 30 watt ca das AMD board mehr als das SB board)

Würdest du auf Stromverbrauch achten, wäre keine 6970, 570 gtx und am wenigsten die 580 gtx interessant.

Übrigens etwas was vllt Offtopic ist aber eigentlich BD sehr betrifft.
Ein Künstler der einen großen fetten Punkt auf die Wand malt, wird bewundert oder in Frage gestellt, aber egal welche der beiden Positionen die Betrachter eingehen, man hat die Aufmerksamkeit.
 
Zuletzt bearbeitet:
@pipip

dann weißt du auch, dass mein System übertaktet ist und das nicht gerade wenig. Wenn man das auf den Bulli übertragen würde, dann dürfte der Verbrauch locker doppelt so hoch sein.
Ich habe nichts gegen hohen Verbrauch wenn der Gegenwert auch in Relation stimmt. Da passt es eben beim Bulli nicht und z.B. eine GTX 580 hält was sie verspricht mit brachialer Grafikleistung.
 
Ein weiterer Beweis das der Core i5-2500K eine mörder CPU ist.
Schade ich habe von AMD mehr erwartet.... Intel Zieht denen einfach davon :D

@dergraf1

der bd besser als der i5 2500k ?!
sorry aber deine aussage ist EPIC FAIL ^^
 
Hellbend schrieb:
Egal welches Potential im Bulldozer steckt...
...Fakt ist doch, das Intel auch nicht schläft und seine Weiterentwicklung in der selben Zeit voranschreitet, die man dem Bulldozer zur halbwegs vollen Entfaltung zuspricht.
Jedes Statement dahingehend ist doch letztlich nur Schadensbegrenzung an der AMD-Fahne-schwingenden Klientel.
Der Sockel 1366 hat damals auch nicht in wirklich jeder Hinsicht glücklich ausgesehen. So weit ich mich erinnere, gab es so einige Probleme mit der Leistungsaufnahme oder auch der Abrufbarkeit der Turbo-Leistung. Heute sind aus dieser Kernarchitektur extrem effiziente Prozessoren entstanden, die viele über den grünen Klee loben. Es wäre zumindest möglich, dass AMD die hier aktuell diskutierte Technologie ebenfalls deutlich verbessert.

Felixxz21 schrieb:
Vielleicht wirds dann 2012 ein Piledriver für mich - mal sehen wie weit AMD bis dahin kommt oder ob sie es erstmal bei kosmetischen Verbesserungen belassen.
Ich wünschte, ich hätte nur die Hälfte deines bemerkenswerten Postings verstanden. Ich glaube persönlich grundsätzlich ebenfalls, dass wir mit der aktuellen Version nicht das letzte Mal vom Bulldozer gehört haben.

Fischkopp schrieb:
Nur statt dann, auch als die Märkte nicht mehr durch Intels Bestechung korrumpiert waren, da weiter zu machen wo AMD mit dem K7 angefangen hatte, blieb AMD stehen und hat einige Fehler begangen. U.a. auch die Übernahme von ATI! [...] Aber der Llano steht auf meiner Liste für meinen nächsten HTPC ;)
Llano ist doch vermutlich DAS Resultat aus der Fusion mit ATI überhaupt. Woher sonst käme das gegenüber Intel überlegene Know-How in Sachen IGPU und die bessere Effizienz von AMD-Karten gegenüber den Pendants von Nivida? :)
Ich freue mich auf Eyefinity Trinity.


Zum Thema direkt:
Schön zu sehen, dass sich die Anpassung auf Windows 8 tatsächlich mit bis zu 10% Geschwindigkeitsvorteil niederschlägt. Jetzt muss vor allem die IPC-Leistung sowie die Energieeffizienz optimiert werden. Mal sehen, was dabei raus kommt.
 
Zuletzt bearbeitet:
Egal was man wie testet, der Bulldozer bleibt sehr langsam und die Single-Thread Performance auf Celeron-Niveau. Er wird wohl eine Randerscheinung in heimischen PCs bleiben. Ich bin gespannt wie lange es dauern wird, bis AMD den Preis für das Topmodell wieder auf <150 Euro senken wird.
 
dergraf1 schrieb:
also wieder mal wurden keine Tests in 1920x 1080 oder hoeher gemacht,
somit sagt der Test fuer mich und eigentlich alle denen, die auch diese und hoehere Aufloesungen haben, rein garnichts, da sich diese Vorteile in der Praxis aufheben.
Weil Tests einer CPU in hohen Auflösungen nichts bringen.... ;)
Das wurde schon gefühlte 1 Million mal geschrieben, und es haben immer noch nicht alle verstanden, dass man eine CPU mit geringer Auflösung testen muss.
Fetter Fettsack/#1652

dergraf1 schrieb:
Ich habe zwar einen i7 2600k,
aber denke dass der BD 8150 auf jedenfall besser ist, als der i5 2500k..
Nein ist er leider nicht, nur im Bereich "Performancerating theoretische Tests" ist er schneller als ein Intel Core i5-2500K.
Test: AMD „Bulldozer“


Felixxz21 schrieb:
Was ich sehr verwunderlich finde, und auch extrem für die Architektur an sich spricht, ist die Tatsache, dass ein Modul nicht 80% eines fiktiven Bulldozer Dualcore bringt sondern 92%.

Insgesamt dank ich euch sehr für den Test CB, denn es erleichtert schon sehr zu sehen, dass die grundlegende Architektur eine tolle Idee ist und gut funktioniert, nur AMDs Ausführung im Detail schwach ist. Aber sowas lässt sich mit einem Piledriver und dem Bulli 3 locker lösen und in Verbindung mit einer massiven Verkleinerung der Übergroßen L2 Caches steht genug Transistorbudget zu Verfügung.
100% Zustimmung von mir, die neue Architektur hat wirklich viel Potenzial.
AMD hätte lieber noch die "Schwächen" korrigieren sollen, bevor man den BD veröffentlicht.

Felixxz21 schrieb:
Vielleicht wirds dann 2012 ein Piledriver für mich - mal sehen wie weit AMD bis dahin kommt oder ob sie es erstmal bei kosmetischen Verbesserungen belassen.
Ich weiß nicht, ob ich noch auf den Piledriver warten will....
Noch einmal ein Jahr warten, wollte ich eigentlich nicht.
 
Zuletzt bearbeitet von einem Moderator:
An die, die sich fragen, warum hier nur Spiele getestet wurden, meine Vermutung:

Der Artikel sollte kein weiterer, allgemeiner Leistungstest der Bulldozer-CPUs sein, sondern speziell nur die Themen Turbo, CMT und die Auswirkungen des Windows7/8-Schedulers darauf behandeln.

Da der Turbo nur einsetzen kann, wenn nicht alle Cores unter Last stehen und der Scheduler von Win7 auch nichts falsch (und der von Win8 nichts richtiger) machen kann, wenn von einer Anwendung oder einem darauf basierenden Benchmark sowieso alle Cores ausgelastet werden, wäre es ziemlich witzlos, das in diesem Zusammenhang nochmals zu testen.

Spiele sind also die perfekten Kandidaten für diesen Test, denn sie nutzen bzw. profitieren fast immer nur von max. 4 Cores. Sie sind genau der Fall, in dem Turbo, CMT und der Scheduler gefordert werden.
Synthetische oder Anwendungsbenchmarks hätten hingegen wenig neue Erkenntnisse gebracht.
 
Der ganze Test zeigt vor allem, dass (nicht nur) dieser Prozessor überall in einen Sättigungseffekt fällt. Sowohl die Turbos wie auch die Möglichkeit auf 4 Prozessorkernen jeweils mehrere Threads laufen zu lassen bleiben ohne jeden Effekt, in einigen Fällen ist diese Kombination sogar langsamer (entweder Mess-Ungenauigkeit oder es stört der höhere Verwaltungsaufwand).

Außerdem sieht man sehr sehr deutlich, dass bei den üblichen Auflösungen die Grafikkarte inzwischen die _alleine_ entscheidende Variable für die Leistung des Gesamtsystems geworden ist. Selbst die Höllenmaschine GTX580 zieht schon bei 1680x1050 in 2/3 aller Tests aus den eigentlich wesentlich schnelleren Intel-CPUs einen Vorteil von _0_.

Insofern scheint die Empfehlung für Gamer inzwischen zu lauten: nehmt irgendeine CPU um die 150€ und steckt das dort gesparte Geld ausschließlich in die Grafikkarte.
 
Ich glaube ja das Trinity gar kein so grosser Rückschritt werden wird.
Man muss ja davon ausgehen das auch hier schon der Piledriver Kern genutzt wird und für office/HTPC Rechner ist die CPU sowiso stark genug.
ICh finde das die derzeitige igpu wenn sie noch schneller wird schon zu schnell für diese settups ist und fürs gamen immer noch zu langsam.
Am Ende muss man nun abwarten was AMD bei Piledriver besser macht als beim Bulli.

Naja selbst wenn ein 8150 so schnell wie ein 1100T sein sollte bleiben immer noch 100€ mehr die zu bezahlen sind ;) .
Die x6 sind vom Preis mit dem 6100 vergleichbar und naja hier ist der Bulli dann nicht mehr so gut im Vergleich.

Aber wir wissen auch nicht ob bei IVy Intel nicht wieder eher zu den Preisen von früher zuückkehrt,da sie sich ja auf die Entwicklungskosten von 3D Transistoren rausreden könnten.
Theoretisch könnten sie sich mit IVY an den Bullis orientieren und somit eine dem i5 2500 k gleiche IVY dann für 240 verkaufen anstatt 180 ;)
 
Zuletzt bearbeitet:
Llano ist doch vermutlich DAS Resultat aus der Fusion mit ATI überhaupt. Woher sonst käme das gegenüber Intel überlegene Know-How in Sachen IGPU und die bessere Effizienz von AMD-Karten gegenüber den Pendants von Nivida?

Das hätte man aber auch mit einer strategischen Partnerschaft erreichen können ;)
 
Hallo allerseits,

mein erster Beitrag hier (darum Hallo in die Runde), denn ich wundere mich die ganze Zeit, dass ein IMO sehr wichtiges Detail einfach ignoriert wird - und zwar die Turbostufen und deren Gueltigkeit. Und noch mehr... ich habe naemlich auch ein bissel rumgemessen (unter Linux) und bin dabei auf etwas Ueberraschendes gestossen:

Sorry, dass das Werk gleich so lang geworden ist.

Schauen wir uns die beiden CPU aus dem Test an:

i5 2500K:

1/2/3/4 sagt Intel, das bedeutet:

Nenntakt 3,3 GHz
4 Kerne unter Last: 1 Stufe - 3,4 GHz
3 Kerne unter Last: 1 Stufe - 3,5 GHz
2 Kerne unter Last: 1 Stufe - 3,6 GHz
1 Kern unter Last: 1 Stufe - 3,7 GHz

FX 8150:

Nenntakt: 3,6 GHz
All Core Turbo: ALLE Kerne unter Last: 3,9 GHz
Max Turbo: Haelfte der MODULE unter Last: 4.2 GHz

"Unter Last" wird bei beiden Herstellern so definiert, dass die betreffenden Kerne NICHT im C6 sind. Wenn das OS also irgendwas anderes als C6 mit ihnen tut, gibt es keinen Turbo. Zusaetzlich gelten noch die bekannten Einschraenkungen mit TDP und Waerme.

Ergo: Nehmen wir ein Szenario an, das alle Kerne unter Last setzt (bzw. C6 verhindert), dann taktet (unter den passenden Umstaenden) der Bulldozer von 3,6 auf 3,9, waehrend Sandy von 3,3 auf 3,4 taktet. Unter diesen Umstaenden ist es absolut kein Wunder, dass bei dem Test das rauskommt, was rauskommt. Gewuenscht haette ich mir zumindest so eine Betrachtung oder eine Evaluation der Wirksamkeit des Turbo anhand dessen, was er theoretisch schaffen koennte - siehe oben.

Auch oft ignoriert und fast ueberall falsch dargestellt. "Max Turbo" gilt fuer die Haelfte der MODULE, nicht die Haelfte der Kerne! ...und zwar anscheinend unabhaengig von der Zahl der aktivierten Module. EIn FX6100 auf Arbeit, mit dem ich eine Reihe von Versuchen gemacht habe, hat kein Problem damit, mit 2 Modulen (von 3, aber eigentlich sind es ja 4, von denen AMD eins deaktiviert hat) max Turbo zu machen - im Idealfall also mit 4 Threads. Gemessen und getestet unter Linux mit manuell gesetzter Affinitaet und "mhz" aus den lmbench-Tools als Messprogramm (das liest den Takt nicht aus irgendwelchen Registern, sondern ermittelt ihn ueber das Timing ausgewaehlter ALU-Operation - hat bislang auf allen CPUs, die ich damit getestet habe, perfekt funktioniert).

Zum Thema "Effektivitaet von CMT":

Kernelcompilation unter Linux mit

...zwei Threads EINES Moduls: 15m12.427s
...je ein Thread von ZWEI Modulen: 11m51.664s

(nicht ueber die Zahlen wundern, das war untertaktet auf 1400 MHz, siehe unten)

Im Vergleich zu Intels Lynnfield i7 860 (keine Sandy zum Testen vorhanden), dieses Mal mit ALLEN Threads mit vollem Takt und Turbo im Vergleich zu deaktiviertem HT/CMT:

FX6100 OHNE CMT, also 3 Kerne von drei Modulen: 3m28.108s
FX6100 MIT CMT, also 6 Kerne, 3 Module: 2m22.931s
i7 860 OHNE HT (4 Threads, 4 Kerne): 2m21.761s
i7 860 MIT HT (8 Threads, 4 Kerne): 1m58.376s

Wenn man davon absieht, dass der bald zwei Jahre alte Lynnfield mit dem kleineren FX 6-Kerner kein Problem hat, sieht man, dass das CMT in der Tat deutlich wirksamer bei gut parallelisierbaren Lasten ist als Intels HT.

Unter Linux existiert uebrigens auch kein Schedulingproblem... die Schedulingdomaenen werden so gesetzt, wie es Linux auch bei HT macht: Siblings werden erst benutzt, wenn pro Kern (Intel) oder Modul (AMD) schon ein Thread laeuft. Sprich: 3 mit Vollast laufende Threads laufen beim FX6100 mit je einem Thread pro Modul.

Und zu guter Letzt... das, was mich geschockt hat (und das ich so auch nicht im Netz gefunden habe):

Bei Lasten, die die neuen Befehlssatzerweiterungen (AVX und Co) nicht verwenden, ist ein Zambezi-Kern etwa genauso schnell wie ein Bobcat-Kern (Zacate) bei gleichem Takt! Unser E-350 laesst sich auf 1422 takten, der Zambezi auf 1400... dabei ergibt sich beim Kernelcompilieren:

1 Zambezi-Modul mit 2 Kernen @ 1.4 GHz: 15m12.427s (siehe auch oben)
2 Zacate-Kerne @ 1.422 GHz: 15m33.807s

Kompiliert wurde jeweils mit Parallelitaet 4 (also 4 Threads - make -j4), so dass die jeweils 2 Kerne wirklich ausgelastet werden.

nbench (ziemlich alter single-thread Benchmark):

Zambezi@1.4 GHz, Dual Channel DDR3-1333

MEMORY INDEX : 9.715
INTEGER INDEX : 10.926
FLOATING-POINT INDEX: 15.534

Zacate@1.422GHz, Single Channel DDR3-1066

MEMORY INDEX : 9.153
INTEGER INDEX : 11.731
FLOATING-POINT INDEX: 15.690

Ein uralter K7 Thunderbird ist bei 1.4 GHz uebrigens etwa ebenso schnell...

OS war jeweils Linux 3.1, nbench war mit gcc und -march=native compiliert (was bei Zambezi allerdings zu K10-Optimierungen fuehrt, da der benutzte gcc 4.5 ihn noch nicht kennt - macht aber nichts, denn ich schrieb ja: Software, die die neuen Erweiterungen nicht nutzt).

Vielleicht sollte CB einen taktbereinigten Vergleich mit Zacate mal ernsthaft erwaegen... ich frage mich dabei, wohin der ganze Aufwand geflossen ist, denn bobcat ist ja nun wirklich sehr einfach und trivial. Sollten es tatsaechlich "nur" die potentielle Taktsteigerung und die Befehlssatzerweiterungen sein?

Viele Gruesse,

Jan
 
Zuletzt bearbeitet:
@Felixxx21:

Danke für die Ausführungen deiner Beobachtungen in deinem Kommentar. Sind einige Fakten dabei die meine positive Grundhaltung (zu BD) gut bestätigen.

Ich denke dass ich mir genau deshalb auch ein AM3+ board zulegen werde - ist einfach gut günstig derzeit und fürs gamen tuts eben auch eine 90€ AMD CPU.

Und mit einem Upgrade auf einen günstigen Piledriver Ende 2012 oder mitte 2013 bin ich dann auch wieder gerüstet bis auf weiteres.

Insofern scheint die Empfehlung für Gamer inzwischen zu lauten: nehmt irgendeine CPU um die 150€ und steckt das dort gesparte Geld ausschließlich in die Grafikkarte.

Das oben gesparte Geld für ein neues Intel Mainboard + neue Intel CPU 2012/2013 werde ich dann wohl lieber in eine GPU upgrade stecken.

Ist das denn nicht schon seit "gefühlten" ca. 10 Jahren so ?
 
RD171 schrieb:
Das ist nicht der Punkt - die Fertigungskapazitäten der gerade angelaufenen 32nm-Techniken hätten für eine parallele Produktion von Phenom und Bulldozer nicht ausgelegt werden können
Wer redet denn von parallel ?
Ich rede davon den BD in der jetzigen Version einfach zu streichen und mit der nächsten Auflage anzufangen. Dann hätte man die Fertigung vielleicht auch schon nen Schritt weiter und wäre evtl. in der Lage gewesen eine CPU rauszubringen die nicht auf kompletter Linie enttäuscht.

Vielleicht wird AMD ja noch klar im Kopf und passt wenigstens den Preis an, wenn die preislich merklich unter dem 2500K (ich denke da an 120-140 Euro) landen wäre der BD ja durchaus ein vertretbarer Kauf.
 
Wenn die Konkurrenz zwischen AMD und Intel mit einem Pferderennen vergleichbar ist, dann müsste man sagen das AMD auf ein Pferd gesetzt hat das noch gar nicht geboren ist.

Tolle Features die auch funktionieren, wenn die entsprechende Software da ist. Nur ist die entsprechende Software momentan praktisch nicht vorhanden, dass potenzielle Leistungsplus verpufft also.

Und die meisten interessiert es eben nicht was der Prozessor in zwei Jahren kann, wenn die Software vorhanden ist, sonder was er jetzt und heute bietet. Und das ist bei AMDs Bulldozer recht wenig. Leistung auf dem Niveau der "alten" Phenom IIs, Stromverbrauch der an die Pentium 4 Ära erinnert und Unterstützung eines OS das noch nicht auf dem Markt ist.
 
JanR schrieb:
...

Viele Gruesse,

Jan

Hallo JanR, vielen Dank erstmal für den ausführlichen Bericht :-) Linux-Tests sieht man (leider) selten.
Deine Beobachtung zeigt ziemlich genau die 80% Leistung eines Einmodulers mit 2 Threads im Vergleich zu den 100% eines Zweimodulers mit 2 Threads.

Mal abseits von den "großen" Modellen gesehen wäre evtl. ein interessanter Ansatz aus einem einzelnen Bulldozer(nachfolger)-Modul einen Zacate-Nachfolger zu machen. Ich denke ein einzelnes Modul bei 2,5 GHz könnte sich mit unter 20W zufrieden geben (volllast) und wäre somit nahezu auf Zacate-Niveau. Mit Optimierung ist da bestimmt noch Spielraum nach unten. Durch neue Befehlssätze + höherer Takt wäre das m.E. schon ein Schritt nach vorne für Netbooks/Tablets auf x86_64-Basis.
 
Ein Artikel, der selbst für den Computer-Laien eine echte Herausforderung darstellt.

Aber der Reihe nach.

Zum einen ist der Bulldozer mit einer derart großen Verzögerung am Markt erschienen, daß angenommen werden darf, AMD habe sich mit den wichtigen Betriebssystemhersteller im Vorfeld ausgiebig ausgetauscht, um bei Start der neuen Architektur nicht mit mangelnder Unterstützung zu kämpfen. Scheinbar war das nicht der Fall. Bei Microsoft bedarf es eines komplett neuen Betriebssystems, um den "Scheduler" auf den Bulldozer anzupassen? Wenn die brandneue Architektur des Bulldozer wirklich an mangelnder Unterstützung durch das Betriebssystem kränkeln sollte, weshalb dann wiederholt die Krankheit "Betriebssystem" (aus dem Hause Microsoft) "testen", und nicht ausdrücklich die CPU-Architektur?

Freie Betriebssysteme mögen zwar mit Spielen und anderen Spielzeugen weniger reichlich bedacht zu sein, dafür bieten sie allerdings die Möglichkeit, schnell an veränderte Bedingungen angepaßt werden zu können. Zudem existieren unter Linux diverse Scheduler, deren Paradigmen unterschiedlicher Natur sind, angefangen von komplexen O(n), bis hin zum aktuellen O(1) Scheduling und einige Zwischenstufen. Darüberhinaus gibt es den BFS. Was derzeit auf der AMD Plattform getestet wird, ist deren Brauchbarkeit mit der im Moment noch verfügbaren Software. Und das ist absurd, denn das wird sich in zwei bis sechs Monaten ändern. Da die Software sich im Idealfalle der CPU anzupassen hat (Dank Comiler geht das), ist dies nahezu schon kanonisch.

Die Spielzeugkiste ist jetzt nahezu völlig abgegrast. Versprechen sind nicht einzuhalten gewesen. Bulldozer zeigt gar unter den professionellen Händen eines kundigen Andres Stiller nicht das versprochene Potential, obwohl Stiller der CPU, Dank seiner exklusiven Kenntnisse, eine der Intel Architektur weit überlegene Leistungsfähigkeit im Bereich der Division bescheinigt (2x schneller als Intel). Insgesamt erreicht das Konzelt "Bulldozer" selbst in Benchmarks, die weniger den Scheduler als vielmehr die Programmierkünste des Testers abprüfen, nicht das vom Hersteller versprochene Niveau. Wie soll das auch gehen, wenn im Grunde jedes "Modul" aus zwei fast zum K10-Design unveränderten Einheiten besteht? Was den Bulldozer schnell macht, ist seine neue um AVX2-erweiterte FPU, aber davon gibt es auf einem "großen" CHip nur derer vier.

Bulldozer kommt also mit Funktionseinheiten daher, die scheinbar bis auf Erweiterungen den K10/K10.5 Funktionsblöcken ähnlich sehen. Man teilt diese Einheiten geschickt auf, um Platz und Geld sparen zu können. Nun muß aber eine ausgefeilte Arbitrationstechnik her, um diese "geteilten" Resourcen auch gerecht verteilen zu können. Um gegenüber einer bisherigen CPU der PhenomII Reihe mehr Leistung abzugewinnen, muß die Gatterlaufzeit T in den Arbiterstufen durch einen höheren Takt kompensiert werden. AMD ist das irgendwie nicht geglückt, zumindest nicht in der kurzen Zeit. Zudem scheinen dieser für jedes Modul gemeinsam genutzte Funktionsblöcke noch nicht ganz optimal, das könnte an deren Effizienz oder an deren relativ kleinen Puffer und Caches liegen.

Wenn laut AMD jedes Modul wirklich 80% eines Zweikern-Systems erreichen soll, dann ist im Moment etwas arg faul. ich glaube den Werbeversprechungen aus dem Hause AMD seit 2006 nicht mehr. Technisch gesehen ist der Bulldozer ein schickes Stück Sizlizium, das sich hervorragend als Experimentalplattform für zukünftige Designs anbietet, aber im Hinblick auf die Marktsituation, die Konkurrenz und der wirtschaftlichen Lage des Unternehmens ist der Bulldozer nebst anderer Neuerschaffungen aus dem Hause AMD ein herber Schlag ins Nichts. Viel Kraft verpulvert, finde ich.

Die Presse drückt das weniger radikal aus. Aber bis auf einige wenige Spezialgebiete, woe AMD im Moment Dank FMA4/XOP die Nase vorn hat, lohnt sich die CPU nur für Fanboys. Mich schreckt der exorbitante Energieverbrauch ab, den diese CPU bei der geringen gebotenen Mittelwertleistung abliefert.

Und nebenbei - die Messungen, die hier in aller Regel gezigt werden, haben von Natur schon einen Fehler von 10% und mehr. Es ist nahezu lächerlich sich auf Vergleiche einzulassen, die unterhalb der 10% Marke liegen ...
 
Tja dumm nur, dass bei meinem BOINC Projekt (CPDN) fast aussließlich die Fließkommaleistung entscheidend ist.

Gehen wir mal 12 Jahre zurück:

Intel zog einsam seine Kreise mit dem P-III am CPU-Horizont (und das seit anbeginn der Zeiten). Grund: Intel hatte die wesentlich bessere Fließkommaeinheit. Und die ist das wichtigste bei Spielen (gewesen?).
Bei Gleitkommataberechnung waren die K6/2 CPUs den P-III überlegen.

Was kam?
Richtig - Der Athlon. Und damit die Wende für AMD.
Was konnte der Athlon richtig gut?! Richtig - Fließkommaberechnung. Die sind für die meisten Programme das Maß der Dinge und verschaffte AMD einen Vorsprung der bis zur Einführunng der Core-CPUs reichte. Dann kehrte sich das ganze wieder um.

Sogesehen, wirkt der Bulldozer auf mich eher wie eine Notlösung a la K6/2+ oder K6/3+.

Dann sollen sie wenigstens mit den Opteron-Preisen runtergehen, damit man sich ein Multi-CPU-System zusammenschustern kann, was mit Intel mithalten kann. Aber bei Preisen um die 600-1000€ für eine MP-CPU - so wird das nix. - LEIDER


Bleibt nur zu hoffen, dass AMD es nochmal schafft tief in die Trickkiste zu greifen.
An den Trend zur Parallelisierung ist aus meiner Sicht nichts auszusetzten - solange dass nur die Programmierer begreifen würden.
Selbst heute noch werden Programme geschrieben, die nur einen exklusiven Kern mit Last beschäftigen - da MUSS was passieren! Zur not auch auf die Harte Tour mittels OS-Scheduler.
 
Wann wird eigentlich mal ein detaillierter Test zu den Bulldozern gezeigt. Mit groben Begriffen wie "Abschließendes Performance Rating" kann ich irgendwie nicht viel anfangen. Oder "Performance Rating Anwendungen" - welche denn? Das war im ersten Test zu sehen. Wär mal cool, wenn man die Bulldozer mal anährend so detailliert testen würde, wie die Sandy Bridge.
Warum wurde eigentlich bei diesem Test nicht die gängigen HD-Auflösung getestet? Ich seh da von der niedrigsten über die 1680er nen Trend. Wie gehtn der bei 1920 weiter?
 
Zurück
Oben