Bericht Bericht: AMD A8-4500M („Trinity“)

Ralf555 schrieb:
Hier und da kann Windows 8 für Bulldozer etwas bringen. Im großen ganzen jedoch scheint sich nichts zu ändern. Das heißt die grundlegenden Schwächen von Bulldozer bleiben erhalten. Siehe P3D Test.

http://www.planet3dnow.de/vbulletin/showthread.php?t=404011#content_start

Soweit ich weiß ist dieser Test entstanden als man noch nicht wusste das der Win7 Patch ein absoluter Fail ist.
Ich kann mich nicht mehr genau erinnern, aber ich glaube der Patch wirkte sich teilweise sogar negativ aus wie man herausfand. Der Patch funktionierte schlicht nicht.

Soll nicht heißen, dass ich an Win8 glaube, denn Microsoft ist und bleibt Microsoft ;)
 
Zuletzt bearbeitet:
derGrimm schrieb:
Soweit ich weiß ist dieser Test entstanden als man noch nicht wusste das der Win7 Patch ein absoluter Fail ist.
Ich kann mich nicht mehr genau erinnern, aber ich glaube der Patch wirkte sich teilweise sogar negativ aus wie man herausfand. Der Patch funktionierte schlicht nicht.

Soll nicht heißen, dass ich an Win8 glaube, denn Microsoft ist und bleibt Microsoft ;)


Doch das war da schon längst klar. Im übrigen ging es um Windows 8.
 
Krautmaster schrieb:
Ich denke es war absolut die richtige Entscheidung. Auch ohne L3 nimmt die Fläche gegen Llano um 10% zu und BD besteht zu ~30% nur aus L3.

Beim Phenom II brachte der L3 ab und an recht viel, aber verschlang auch extrem Platz. Der Athlon II war dagegen ein Leichtgewicht und in Anwendungen mitunter kaum langsamer. Später hat AMD ja sogar ihre Athlon II als Phenom IIs verkauft (bzw tut es noch), ganz ohne L3 ...

L3 war bei Trinity wohl nie ne Option.
Weder Phenom II oder Athlon II hatten eine IGP integriert und die meisten Konfigurationen bezogen sich immer auf eine separate Grafikkarte. Da wiegt das ganze nicht so schwer, als wenn sich alle Komponenten das Dual-Channel DDR3-Interface teilen müssen. Die IGP-Lösungen im 785G/880G oder 890GX waren zudem auch deutlich schwächer und eben auch teilweise mit dem o.g. Side-Port-Memory bestückt.
 
es ging auch rein um den CPU Teil, um die ModulBauweise / Bulldozer Architektur an sich weshalb ich mich bei Llano auf die ~100mm² CPU Part bezog.

Aber ja, die CPU Fläche ist bei Llano / Trinity nahezu identisch.
 
pipip schrieb:
Das hätte aber bedeutet dass man für den Desktop eine eigene Maske gebraucht hätte. Dann hätte man ja auch Bulldozer für den Desktop besser optimieren können oder ???
Wenn AMD für 2011 einen 8 K10-Kerner gebastelt hätte, wäre der natürlich genauso in erster Linie als Opteron gedacht gewesen und hätte wohl auch seine 300-plus-irgwendwas mm² Die-Fläche gehabt.

Aber es ist natürlich interessant sich zu fragen, wie ein Bulldozer-Die speziell für den Desktop mit typischen 200-plus-irgendwas mm² ausgesehen hätte. Vielleicht hätte man ihm nur 3 Module, entsprechend weniger oder gar keinen L3-Cache und etwas mehr Takt verpassen können.


Simon schrieb:
Weder Phenom II oder Athlon II hatten eine IGP integriert und die meisten Konfigurationen bezogen sich immer auf eine separate Grafikkarte. Da wiegt das ganze nicht so schwer, als wenn sich alle Komponenten das Dual-Channel DDR3-Interface teilen müssen. Die IGP-Lösungen im 785G/880G oder 890GX waren zudem auch deutlich schwächer und eben auch teilweise mit dem o.g. Side-Port-Memory bestückt.
Trinity hat erstmal schon seine 200-plus-irgwendwas mm² Die-Fäche, da kann man nicht einfach noch L3 draufpacken, ohne das es Auswirkungen darauf hat, wieviele GF pro Quartal fertigen kann. AMD will es ganz sicher nicht nochmal erleben, die Nachfrage nicht decken zu können.
Natürlich könnte man nun die GPU verkleinern und stattdessen L3-Cache draufpacken, sodass man ungefähr die gleiche Die-Fäche erreicht. Aber wenn die Leistung dann nicht schlechter ausfallen würde als sie es jetzt tut, hätte Trinity nun sicherlich L3-Cache.
Bei Intel ist das wohl wieder anders, aber deren GPU reift ja auch erst so langsam und ich denke mal sie sind in Sachen Cache einfach weiter als AMD.
 
Wurd nicht immer gesagt, dass man AMD's L2 Cache mit Intels L3 Cache vergleichen kann? ...

Und ich glaube, wenn AMD etwas mehr Entwicklungsenergie in den Speichercontroller investieren würde und ein Quadchannel interface basteln würde, wäre der Flaschenhals mit der Speicherbandbreite noch geringer.
 
Zweifellos entäuschende Ergebnisse. Da wird man sich in etwa ausmalen können, wo sich wohl Vishera in puncto CPU-Leistung einordnen wird.
Volker schrieb:
Trinity wird rocken ;)
Volker schrieb:
Na da warte mal ab. Denn es steckt hinter dem Namen doch etwas anderes, als man denkt ;)
Hab ich es doch richtig interpretiert.
Über den Stil lässt sich streiten. Zumal das Testgerät erst am 12.5. zur Verfügung stand.
 
Zuletzt bearbeitet: (Korrektur)
tja, AMD ist eben nicht mehr AMD. das gesamte personal, von führungsriege zu designern, wurde eh schon ersetzt.. durch irgendwelche 08/15 bürokraten. das einzige was man noch von AMD kaufen kann sind die grafikkarten und evtl die kleineren APUs der C serie
 
@Test: Liebe CB, das war wohl mal wieder einer der seltenen Tests, die man getrost als "Griff ins Klo" bezeichnen kann. Sieht man auch an der herben Kritik teilweise, auf die leider nicht wirklich eingegangen wurde. Machts das nächste Mal wieder besser.

Wenigstens sind die Intel-Jünger jetzt raus so dass man in Ruhe diskutieren kann!

Krautmaster schrieb:
Aber man stelle sich nun einen 300mm² Athlon X12 vor ;) @ 3,5 ghz der pro Kern auch noch 20-30% höhere IPC hat als Bulldozer ^^
Wenn man die lächerlichen + 50mm² in 45nm für die 2 Zusatzkerne beim Athlon II noch mit einbezieht und skaliert... bleibt auch noch was für L3 über was es zum Phenom macht.

Du machst es dir zu einfach und gehst davon aus, dass man einfach immer nur Kerne ranhängen muss, um schneller zu werden. Der Rest der Architektur muss aber auch passen. Wieder ein beliebter Auto-Vergleich: Nem Smart kannst du auch keine 200 PS verpassen ohne Probleme mit dem Fahrwerk zu bekommen.

Krautmaster schrieb:
Ja das sollte er. Aber auch hier muss man den Takt & Kerne sehen.
Der Vorgänger hat 2x900mio, + 12 Kerne @ 140W @ 2,5 ghz.

Bulldozer basierte Opterons kommen da schon mit 16 Kernen und 3,3 Ghz daher bei 140W und nicht zu vergessen 32nm. So überzeugend ist das nicht, ausgehend von den massiv aufgewerteten techischen Daten.

Also 4 Kerne mehr und dann noch 800MHz auf allen Kernen finde ich beeindruckend, wobei das durch die geringere IPC wieder etwas relativiert wird. Wobei man das bei Servern so pauschal wieder nicht sagen kann, da hängt es einfach zu sehr von der Workload ab.
 
@ stoneeh vermutlich berechnest Du mit ein Laptop die Grösse des Unversum_s !?

Der AMD A10 macht schon was her, Intel hat wegen schwacher iGPU Leistung her nichts zu bieten, für ca 80% der Käufer von Mainstreamlaptop_s bietet wie es aussieht AMD die bessere APU bz CPU, ist es vlt das wovon die "Inteljünger" ablenken wollen? mfg:)
 
KAOZNAKE schrieb:
Du machst es dir zu einfach und gehst davon aus, dass man einfach immer nur Kerne ranhängen muss, um schneller zu werden. Der Rest der Architektur muss aber auch passen. Wieder ein beliebter Auto-Vergleich: Nem Smart kannst du auch keine 200 PS verpassen ohne Probleme mit dem Fahrwerk zu bekommen.

ja klar, das versteht sich ja von selbst. Dennoch geht immerhin 3x ein Quadcore Athlon II inklusive aller Infrastrukturen Cache / Interfaces / SI etc. in einen BD rein, sofern der kleine Wert von 1,2 Mrd T auch stimmt.
Hätte ich den reinen Wert der zwei zusätzlichen Kerne genommen (beim Athon II) wäre ich mit den 50mm² und 50Mio Transistoren ja bei einem 20 Kerner rausgekommen ^^
Gut, man muss sich ja nur die DIE des Bulldozer FX ansehen und sieht direkt, dass nahezu der L3 die Hälfte davon ausmacht. Was dieser L3 wirklich an Leistung bringt kann man nicht sagen, es gibt ja keinen FX ohne L3.

Also 4 Kerne mehr und dann noch 800MHz auf allen Kernen finde ich beeindruckend, wobei das durch die geringere IPC wieder etwas relativiert wird. Wobei man das bei Servern so pauschal wieder nicht sagen kann, da hängt es einfach zu sehr von der Workload ab.

Klar, die technischen Daten sind beeindrucken und für die Masse an "Kernen" ist der Verbrauch mit 140W (TDP) auch vertretbar. Die Mehrleistung hätten aber selbst die Vorgänger geschafft, wenn man davon ausgeht, dass 32nm auch hier nochmal beim Takt etwas gebracht hätte. Denn 3,3 Ghz schaffen auch die K10 Kerne oder die Stars im Llano.

Im Grunde siehst im Server Umfeld genau wie im Desktop aus, nur wird da meist auf Maximalleistung gebencht bzw diese auch angerufen, und hier hatte ich BD eigentlich 50% vorne erwartet. Imho 2 Kerne mehr + 30% mehr Takt und eine höher IPC hätte man auch fast erwarten können.

Wie gesagt, das ist ja auch alles Theorie... Bei Intel sieht das immer sehr "einfach" aus - die DIE ist sehr geordnet , 2 Kerne dazu, fertig, GPU DIE vergrößern, fertig.
Gut, Intel hat wohl auch die Mittel 5 Masken parallel zu fahren.

Ich bin mal gespannt ob eventuell ein L3 gestutzter FX auf Piledriver Basis zeitnah kommt.
 
Zuletzt bearbeitet:
@Krautmaster

Die ersten Desktop Trinity Apu´s wurden schon verteilt.
Ich darf zwar nicht viel darüber sagen, aber es geht, zumindest bei den K Versionen problemlos über 5 Ghz bei ca 10% weniger IPC der "Llano" Kerne, auch im 24/7 Betrieb - selbst getestet.

Die aktuelle Bulldozer Generation wird durch die kommenden Desktop Trinity Prozessoren komplett ad absurdum geführt, zumindest für jene die wissen wie man vernünftig übertaktetet.

Krautmaster schrieb:
Die Mehrleistung hätten aber selbst die Vorgänger geschafft, wenn man davon ausgeht, dass 32nm auch hier nochmal beim Takt etwas gebracht hätte.

AMD hatte einige alte K10.5 Opterons im 32nm Verfahren als Prototypen gefertigt und man hatte sogar Probleme die Taktraten eines Phenom II 980 bei gleichem Verbrauch zu erreichen.
Bulldozer ist, so wie er derzeit auf den Markt ist !!wirklich!! das Optimum, zumindest Stand Oktober 2011 was die nötigen Spannungen für eine kostendeckende Fertigung bei vertretbaren yields anbelangt.

Wenn du das nicht glaubst, schau dir llano an.
 
Freddy72
Naja bin gespannt. Angeblich soll ja die APU immer die single Thread leistung des vorherigen FX überbieten. Der darauffolgende FX soll aber wieder die neue APU Generation schlagen ect.
Wenn deine Behauptung stimmt, könnte man verstehen wieso man die Desktop Variante des Trinity gleichzeig mit dem neuen FX auf den Markt bringen möchte.
 
Freddy72 schrieb:
AMD hatte einige alte K10.5 Opterons im 32nm Verfahren als Prototypen gefertigt und man hatte sogar Probleme die Taktraten eines Phenom II 980 bei gleichem Verbrauch zu erreichen.
Ehrlich, entweder du hast da totalen Unfug aufgeschnappt oder dir das selbst aus den Fingern gesogen.
Solche Prototypen wären verdammt teuer gewesen. Und da AMD wohl etwas mehr von Bulldozer erwartet hatte, hatten sie es wahrscheinlich auch nie ernsthaft vor, überhaupt solche Prototypen zu fertigen. Das macht man nicht einfach mal so, zum ausprobieren.
Nach Bulldozers Tapeout war der Zug dann abgefahren, so simpel ist das.
 
Freddy72 schrieb:

das klingt vernünftig. Man darf also gespannt sein.

Es ist wirklich kein Geheimnis, dass die Architektur der K10 / Stars nicht wirklich gut sind was Takt angeht, da eb ich dir recht dass 32nm daran wohl auch nicht viel ändert. Siehe Llano.

Gut, ob es jetzt wiederum einen 5 Ghz Trinity braucht, kommt auf den zugehörigen Verbrauch an und welche Spannung benötigt wird.

Vielleicht gehen die Module ohne L3 ja noch wesentlich besser zu takten als dies im FX der Fall ist. Zumindest lese ich das aus deinem post raus =)

@Caanon

naja ganz so absurd ist es nicht, oder was meinst du wie man eine neue Fertigung erprobt. Genauso macht man ja auch zig Revisionen bevor die CPU auf den Markt kommt, bei der sich auch die Architektur nochmal geringfügig ändern kann.
 
Zuletzt bearbeitet:
Mal extrapolieren was das für den 17W Trinity bedeutet... (ich nehm mal Cinebench)

Der A8 bringt nur 86% eines C2D SL9400 (Macbook Air), mein Acer Timleine mit SU9400 dürfte geschätzt 75% bringen (über den Takt gerechnet). Damit ist der A8 gerade mal 15% schneller als mein Timeline mit altem C2D. Der 17W Trinity hat zwar 200MHz mehr Takt als der A8 aber nur halb so viele Cores... AUTSCH!

Also wenn da bei den Benches oder dem Asus Notebook nicht gehörig was daneben gegangen ist kann sich AMD den Trinity schenken... ein Acer Aspire Timeline X 5820TG versägt Trinity ja komplett in den Benches... da brauch ich nicht wirklich auf Trinity warten... schade, ich hatte gehofft AMD kriegt noch die Kurve bei den Notebooks.
 
Caanon schrieb:
Doch, es ist geradezu lächerlich absurd! Wozu hatte AMD schließlich Llano?
Schau bei diesem Artikel mal auf das Datum: http://semiaccurate.com/2010/02/10/amd-finally-outs-32nm-llano-core/
;)

was hat das mit Llano zu tun?

Es ist eine Sache eine Architektur abzuschließen, eine andere ein bisheriges Modell zur Taktfertigung in einer kleineren Struktur herzunehmen.

Der CPU Part von Llano unterscheidet sich ja nur gering von K10. Steht ja auch so in dem Artikel.

Die Vermutung liegt auch nahe, dass Llano schon sehr früh fertig war, der Artikel ist mit Feb 2010 ja recht alt. Gut die Architektur war keine Neuentwicklung, da liegt es nahe dass Llano auch zügig fertig war. Es scheiterte wohl schlicht an der 32nm Fertigung die selbst zu Release noch mau war.

Was damals alles aus der 32nm Testfertigung kam kann man so nicht sagen, ich finds durchaus realistisch dass man auch "Llano" ohne GPU getestet hat oder eben noch andere Exoten mit L3 die dann einem Phenom in 32nm sehr nahe kämen.


@Jesterfox

gut, laut Golem hat der 17W Trinity lediglich ein Modul.

Da AMD für sein Niveau der Rechenleistung zwei Piledriver-Module braucht - und damit zwei FPU- und SIMD-Einheiten -, sind aber für die angekündigten 17-Watt-Modelle der Trinity-APUs keine allzu guten Leistungen zu erwarten. Hier kommt nur ein Modul zum Einsatz (zwei Integer-Kerne, eine FPU/SIMD), was Intels ULV-Dual-Cores deutlich unterlegen ist.

Frage mich obs dafür ne eigene Maske gibt oder jegliche Trinity-Vielfalt durch Kastration umgesetzt wird.

Sehr viel erwarte ich mir da auch nicht, aber die bei Zacate fehlende CPU Leistung könnte im <20W Segment ausgebessert werden und allein das macht das 17 W Modell interessant. Ich hoffe auf CPU+CPU Kombo ITX Boards.
 
Zuletzt bearbeitet:
@Krautmaster: Es bleibt lächerlich. Vor den ersten Llano-Chips wird AMD es GF überlassen haben, die 32nm-Fertigung zu testen. Vielleicht waren ja auch mal ein, zwei K10-Kerne Teil irgendeines Testchips von GF, aber von einem Prototypen kann man dann immer noch nicht reden.
Prototyp heißt das Teil kommt letztendlich im großen und ganzen so auf den Markt, wenn sich nicht irgendein schwerer Fehler zeigt. Da wird Llano der erste für GFs 32nm-Fertigung gewesen sein, danach Bulldozer.
 
Zurück
Oben