Bericht Bericht: AMD A8-4500M („Trinity“)

Krautmaster schrieb:
Naja, wohl eher 0-5% mit vereinzelten Ausschlägen nach oben (fast nur bei Spielen), was oft schon einfach am System / Kernel an sich liegt, weniger am "Scheduler". Ich würde wetten dass die Intel CPUs genauso und tw. sogar mehr vom neuen OS/Kernel profitieren.
Gerade bei Spielen zeigt sich doch wie IPC-schwach Bulldozer ist. Genau für sowas hat er ja den Turbo. Aber was bringt der einem, wenn sich Module, die eigentlich nicht benötigt würden, nicht schlafen legen können, weil das OS sie einfach trotzdem nutzt, die Threads hin- und herschmeißt?
Schau dir hier mal die Starcraft 2-Benchmarks (in 1024x768 selbstverständlich) an, das ja nur zwei Kerne nutzt, IIRC:
Starcraft 2 unter Windows 7
Starcraft 2 unter Windows 8

Wenn bei solchen Sachen unter Windows 8 rund 10% Mehrleistung drin ist und unter Windows 7 nur rund halb so viel, ist bei Windows 7 irgendwas faul.

Und Intel kann nicht soviel von Windows 8 profitieren wie AMD, weil schon Windows 7 "begreift", was HT ist. Für Intel fehlt also nur noch Core Parking.
Aber bei Bulldozer muss das OS noch begreifen, dass zwei bestimmte "Kerne" ein bestimmtes Modul sind, das man parken kann.


Krautmaster schrieb:
Im Grunde sind es minimalste Optimierungen... die fast bei jedem Windows Update zu beobachten waren.
Man kann alles klein reden, was?
Core Parking ist sicherlich keine "minimalste" Optimierung und die Unterstützung der Modulbauweise auch nicht, das hackt man bestimmt nicht mal eben so ganz zwischendurch zusammen. :rolleyes:

Krautmaster schrieb:
Imho haben wir laut AMD 8 echte Kerne bei >360mm², ein wahres Transistor-Monster.
Der Unsinn hält sich auch ganz hartnäckig, weil die Leute anscheinend nicht begreifen, dass Zambezi, also FX, nur ein Abklatsch der Opterons ist und auf den gleiche Orochi-Die setzt und die Transistor-Zahl und Die-Fläche dafür vollkommen okay ist.
 
Nochmals meine wohl im unsinnigen Gezank untergegangene Frage:

wie schnell ist der Trinity im Vergleich zu einem C2Q 6600 und einer Radeon 3870 (CF) ?
 
Spellbound
ein A8 3850 ist schon einem Q9550 überlegen. Was die Grafik angeht, weiß ich jz nicht genau wie gut die 3870 in CF skaliert. Doch eine 3870 ist ca eine 5670.
Die 5670 ist eine 6570. Die HD 7660G sollte ne spur schneller sein, ca eine 6670. Somit könnte man im selben Level liegen wie deine 3870 CF, aber dafür Direct x 11 und eben insgesamt 100 watt tdp.
Interessanter wäre aber dann die 65 watt tdp version.
Dieser dürfte ca so schnell sein wie der jzige A8 llano mit 7660G igp.

Das ist zu mindestens meine Einschätzung, Tests für den Desktop-Trinity gab es noch nicht.
 
Caanon schrieb:
Gerade bei Spielen zeigt sich doch wie IPC-schwach Bulldozer ist. Genau für sowas hat er ja den Turbo.
...
Wenn bei solchen Sachen unter Windows 8 rund 10% Mehrleistung drin ist und unter Windows 7 nur rund halb so viel, ist bei Windows 7 irgendwas faul.

Und Intel kann nicht soviel von Windows 8 profitieren wie AMD, weil schon Windows 7 "begreift", was HT ist. Für Intel fehlt also nur noch Core Parking.
Aber bei Bulldozer muss das OS noch begreifen, dass zwei bestimmte "Kerne" ein bestimmtes Modul sind, das man parken kann.

richtig da stimm ich dir auch soweit zu. Deswegen ja die Aussage dass ich auch annehme, das BD von Win 8 mehr profitiert als es die Intel CPUs werden.

Vor allem da der Turbo vermutlich durch die bessere Zuweisung besser zündet.

In Benchmarks die komplett alle 8 Threads zuballern dürfte dann aber auch keinerlei Zuwachs zu sehen kann. Sieht man da Zuwachs würde es für anderweitige Kernelverbesserungen sprechen.

Man kann alles klein reden, was?
Core Parking ist sicherlich keine "minimalste" Optimierung und die Unterstützung der Modulbauweise auch nicht, das hackt man bestimmt nicht mal eben so ganz zwischendurch zusammen. :rolleyes:

Was sind 2-10% in Spielen (siehe Folien AMD)... 140vs155 FPS? ... da muss ich schmunzeln. In Frameraten wo es interessant wird liegt fast nur GPU Limit vor. 50 mhz an der GPU bringen mir da mehr.
Da muss ein ganzer Parcour her + der Vergleich zu anderen CPU.

Ich wollte das nicht unbedingt kleinreden, sry. Ich halte nur 2-10% in Spielen (absolut nicht Bulldozers Aufgabengebiet) nicht das was AMD braucht, denn auch damit ist es für das 315mm² 8C/8T Silizium Plättchen zu wenig und nicht wirklich mehr oder gar weniger was ein X6 oder ein Theoretischer X8 liefern würde.

Auf dieselbe DIE hätte AMD wenn Multi-Thread Leistung so wichtig ist einen 12 -16 Core Athlon II unterbringen können. Schau dir zB Llano an. Die 4 (echten) CPU Kerne mit höherer IPC belegen bei selber Fertigung ~100mm².

Zudem nimmt Bulldozer durch den neuen Kernel wie gesagt "nur" bei Teillast zu, was vor allem bei Spielen auftritt. Doof nur dass gerade bei der Teillast Intel dank weit überlegener IPC sehr viel Vorsprung hat. Trotz extremen Turbo seitens AMD.

-> die IPC eines Moduls fällt ja weit geringer aus als bei einem Stars / K10 Kern, und fast 50% geringer als bei SB / IB.

Da frag ich mich woher das kommt... wieso ist ein Modul bei Singelthead so massiv langsamer als noch ein K10?

Der Unsinn hält sich auch ganz hartnäckig, weil die Leute anscheinend nicht begreifen, dass Zambezi, also FX, nur ein Abklatsch der Opterons ist und auf den gleiche Orochi-Die setzt und die Transistor-Zahl und Die-Fläche dafür vollkommen okay ist.

ja gut, das ist ja schon ewig so, dass Opteron praktisch quasi identisch zum Desktopmodell ist und XEON genauso... die High End Modelle mal abgesehen.

Naja, was heißt "okay" die DIE Fläche ist bezogen auf Fertigung und Transistoren groß, die Leistung / mm² schlecht. Nicht unbedingt im vergleich zur Konkurrenz, eher sogar im Vergleich zum Vorgänger.

Das gilt vor allem auch auf die Opteron Modelle. Der große L3 spricht ja für massive Server Orientierung.

@noskill

das ist mir durchaus klar, aber die Density bei 1,2 Mrd wäre schon extrem klein und der Wert passt schlicht zu AMDs Werten die auf Module bezogen sind. Ein SB-E hat zwar die ausgereiftere Fertigung, spielt aber ohne GPU und mit noch mehr L3 in ähnlicher Liga wie es ein 2Mrd. Bulldozer täte.
Rausfinden wird man das eh nicht, das wissen nur die AMD Ingenieure selbst.

Mit 315mm² ist er jedenfalls nicht klein, Density hin oder her. Das "Monster" bezieht sich eher auf die Leistung die dabei raus springt.

Ich bin gespannt ob AMD einen wirtschaftlichen Bulldozer-Nachfolger bringt. Viele Module, kaum / kein L3.

Edit:

Was dein HD7970 vergleich angeht is das ja auch Quatsch. Das sind 28nm und wie du sagt ist das GPU only was wegen den Shadern sehr hohe Packagedichte zur Folge hat.
 
Zuletzt bearbeitet:
*pipip das ist dann gekauft. suche was kleines, feines, günstiges für eine bekannte, die noch nen athlon x2 hat und der würde sowas wie mein alter rechner hier vollkommen reichen, ca. die leistungsklasse und neuee features, zu gutem preis .
 
@Krautmaster

Der Unterschied zwischen 28nm und 32nm ist aber nicht so groß, dazu ist die Fertigung eine andere und bei Llano ist mehr als die Hälfte der APU eine GPU.
Die Density kann also durchaus hinkommen und wird bei Trinity wahrscheinlich in einer ähnlichen Region liegen.
 
Krautmaster schrieb:
In Benchmarks die komplett alle 8 Threads zuballern dürfte dann aber auch keinerlei Zuwachs zu sehen kann. Sieht man da Zuwachs würde es für anderweitige Kernelverbesserungen sprechen.
Eigentlich müsste das OS noch paarweise einschätzen können, welche Threads von den 8 am ehesten zusammen auf ein Modul gehören, weil sie sich vielleicht irgendwelche Daten teilen. Das wird so schnell wohl nicht kommen.
Aber wenn ich beim 8-"Kern" FX alle Threads "zuballer" (:D), entspricht die Leistung im großen und ganzen einem Core i5 (wenn auch nicht wirklich dem 2500K). Wenn Vishera nun darauf aufbaut und bei Benutzung aller "Kerne" von der Leistung her ungefähr einem Core i7 entspricht (wenn auch wieder nicht dem K-Modell), dann ist die Leistung bei Benutzung aller Kerne für das, was AMD überhaupt noch schaffen kann, gut.
Bleibt doch noch die Schwäche bei der Singlethread-Leistung, die durch Windows 8 aber etwas kleiner wird, und so könnte AMD Vishera gut als "Core i7 für Arme" verkaufen, sofern sie es mit dem Preis nicht mal wieder übertreiben (was ich eh schon kommen sehe).

Krautmaster schrieb:
Was sind 2-10% in Spielen (siehe Folien AMD)... 140vs155 FPS? ... da muss ich schmunzeln. In Frameraten wo es interessant wird liegt fast nur GPU Limit vor. 50 mhz an der GPU bringen mir da mehr.
Bei 140 vs. 155 fps siehst du natürlich keinen Unterschied mehr.
Und bei niedrigen Frameraten liegt natürlich üblicherweise ein GPU-Limit vor, aber das heißt doch nicht, das da nicht mal CPU-intensive Szenen ablaufen, die den Framerate-Durchschnitt umso mehr drücken, umso schwächer die CPU ist.
Da sag ich zu 5 bis 10% Mehrleistung doch nicht nein, und wenn ich nur 5% kriege, wo es 10% sein könnten, ist und bleibt das schlecht.

Der GPU gebe ich natürlich auch ihre so-und-so-viel MHz mehr, wenn ich überhaupt übertakten will. Meine Güte, ist doch nicht so, dass sich GPU-Übertaktung und möglichst optimale Nutzung der CPU durch das OS gegenseitig ausschließen würden.

Krautmaster schrieb:
Ich wollte das nicht unbedingt kleinreden, sry. Ich halte nur 2-10% in Spielen (absolut nicht Bulldozers Aufgabengebiet) nicht das was AMD braucht, denn auch damit ist es für das 315mm² 8C/8T Silizium Plättchen zu wenig und nicht wirklich mehr oder gar weniger was ein X6 oder ein Theoretischer X8 liefern würde.
"Nicht das was AMD braucht" klingt so als wäre es definitiv reinste Zeitverschwendung sich mit Microsoft auseinanderzusetzen und akzeptable Unterstützung der Modulbauweise in Windows reinzubringen.
Tja, ich weiß nicht wieviel Zeit und Geld das AMD gekostet hat, von daher kann ich schlecht sagen, ob das woanders vielleicht besser aufgehoben gewesen wäre.
Aber es ist nicht so, dass es nichts gebracht hat, das steht jetzt schon fest.

Krautmaster schrieb:
Auf dieselbe DIE hätte AMD wenn Multi-Thread Leistung so wichtig ist einen 12 -16 Core Athlon II unterbringen können. Schau dir zB Llano an. Die 4 (echten) CPU Kerne mit höherer IPC belegen bei selber Fertigung ~100mm².
12 bis 16 Kerne halte ich für übertrieben, aber ich denke auch, dass eine Art Phenom III X8 prinzipiell möglich gewesen wäre, nur kam es nun mal nicht dazu: Bulldozer-Tapeout => Kind in Brunnen gefallen. :evillol:

Krautmaster schrieb:
Naja, was heißt "okay" die DIE Fläche ist bezogen auf Fertigung und Transistoren groß, die Leistung / mm² schlecht. Nicht unbedingt im vergleich zur Konkurrenz, eher sogar im Vergleich zum Vorgänger.
Dass Bulldozer auch im Server-Bereich nicht berauscht, streite ich ja nicht ab, aber da er sich wahrscheinlich hauptsächlich in irgendwelchen Crays oder Ähnlichem befindet, wo am ehesten optimiert wird, dürfte er seinen Vorgänger in dem Bereich wirklich übertreffen. Für genau diesen Bereich ist der Orochi-Die geschaffen und damit okay.
 
Ich habe mal nur als Vergleichsfazit das von PCGH hier stehen, die kommen nämlich zu einem positiven Resultat, beim Lesen denkt man, dass es sich um eine andere Prozessorarchitektur handeln muss:
"Während wir derzeit für die kommende Print-Ausgabe 07/2012 unsere eigenen Messungen anstellen, lässt sich anhand der bisherigen Resultate und Erfahrungen zumindest so viel sagen: AMD hat mit Trinity den Vorsprung bei der Grafikleistung ausgebaut, die Effizienz des CPU-Parts leicht verbessert und die generelle Akkulaufzeit erhöht - Schwächen gibt's wie gehabt bei der (leicht gesteigerten) Performance des Prozessors, für den Alltag ist diese aber dennoch völlig ausreichend und gerade mit einer SSD fühlt sich ein Trinity-Notebook an wie ein Desktop-Rechner.

Es bleibt abzuwarten ob und vor allem wann die Hersteller die Vorarbeit von AMD in gelungene Geräte umsetzen - zu wünschen wäre es, denn Stand heute sieht es nicht danach aus, als ob der Markt von Trinity-Notebook überflutet wird. Wie bei Llano wird es hier ein bisschen dauern, vor allem schlanke Modelle mit den 17-Watt-ULVs dürften erst in ein paar Wochen erscheinen."
 
ich sag auch nicht zu 1% nein, und natürlich ist jedes % gut und recht, macht aber die Modulbauweise auch bei korrekt funktionierendem Scheduling nicht zur Überflieger Architektur... viel eher holt es noch nicht mal die bisherige Architektur ein wenn man bedenkt wie effizient zB ein Stars Kern im Llano ist oder ein Athlon II bezogen auf die benötigten Recheneinheiten und Fläche.

Nehmen wir den Athlon II, als 2 Kern braucht er 117,5 mm² - als 4 Kern gerademal 169 mm²... bei 300 Mio T. und 45nm!
Wenn Bulldozers 1,2 Mrd stimmen wären das imho 3 ganze Athlon II X4 - ink 3x SI etc = 6 ChannelController.

Die zusätzlichen 2 Kerne brauchen gerademal 50mm² mehr.

Adaptiv zu Llano... 4 Kerne brauchen da in 32nm gerademal 100mm² was ca dem Shrink Athlon II X4 169 mm² -> 100mm² in 32nm gleich kommt. Fast 1:1.

Aber ja, man wirft nicht was weg was in zig Mrd seit 2005 entwickelt wurde... und über kurz oder lange ist Bulldozer ja eventuell auch die richtige Architektur. Aber man stelle sich nun einen 300mm² Athlon X12 vor ;) @ 3,5 ghz der pro Kern auch noch 20-30% höhere IPC hat als Bulldozer ^^
Wenn man die lächerlichen + 50mm² in 45nm für die 2 Zusatzkerne beim Athlon II noch mit einbezieht und skaliert... bleibt auch noch was für L3 über was es zum Phenom macht.

Was das Schedulling gemacht hat wird CB hoffentlich mal in einem ausführlichen Windows 8 Test beleuchten - dann würde der FX auch besser dastehen.

@ Server.

Ja das sollte er. Aber auch hier muss man den Takt & Kerne sehen.
Der Vorgänger hat 2x900mio, + 12 Kerne @ 140W @ 2,5 ghz.

Bulldozer basierte Opterons kommen da schon mit 16 Kernen und 3,3 Ghz daher bei 140W und nicht zu vergessen 32nm. So überzeugend ist das nicht, ausgehend von den massiv aufgewerteten techischen Daten.
 
Zuletzt bearbeitet:
Ach, ich weiß nicht, ob AMD damit so gut beraten war, bei Trinity den L3-Cache (TDP-Budget hin oder her) weg zu lassen.

Alles, was nicht im L2 zu finden ist, muss gnadenlos aus dem RAM geladen werden, wo auch noch die vergleichsweise leistungsfähige GPU dran nuckelt und einen nicht unerheblichen Anteil der Bandbreite haben will. Allein an dieser Stelle dürfte die Inklusive-Shared-L3-Lösung von Intel schon einen massiven Vorteil bieten. Vielleicht wäre es sogar sinnvoll gewesen, zumindest die Option auf 512 MB Side-Port-Memory mit einzubauen, solange die HSA noch nicht bis zur Vollendung getrieben wurde.

Ansonsten würde ich aber einige der Benchmarkwerte mit Vorsicht genießen. Anders als mit Treiberproblemen lassen sich z.B. die ein Drittel Nachteil bei BF:BC2 kaum erklären.
 
jumijumi schrieb:
Naja, bei ner APU ist mir die CPU Leistung doch egal, Hauptsache das Ding kann nen Film flüssig wiedergeben und Office geht ja auch mit einen Atom.
Ich glaube immernoch, dass Bulldozer/Piledriver einfach nur der Zeit voraus ist. Alle Programme sind auf Intel optimiert.

Das ist doch quatsch. Das kann bald jedes Tablet. Ein Laptop mit so einer mieserablen CPU Leistung ist einfach nur Fail.
 
Für einen Laptop ist die Leistung aber grundsätzlich immer noch ausreichend. Zumal AMD hier ohnehin nicht in das Hochpreissegment reingeht, sondern eher in der Kategorie bis max. 500 Euro wildert.
 
Simon schrieb:
Für einen Laptop ist die Leistung aber grundsätzlich immer noch ausreichend. Zumal AMD hier ohnehin nicht in das Hochpreissegment reingeht, sondern eher in der Kategorie bis max. 500 Euro wildert.


Der Preis ist nur das Nebenprodukt der CPU Leistung. Wenn die CPU Leistung passen würde, würde AMD liebend gerne weiter höher mit dem Preis gehen. Schon alleine weil die CPU rein von der die size größere Herstellungskosten verursacht als Sandy Bridge oder Ivy Bridge. Na mal sehen wo sich die Preise letztendlich einpendeln.
 
Klar, die Preise richten sich nach der Leistung, aber es macht eben kein Sinn zu sagen, ein i7 ULV mit 17W TDP ist sogar schneller als ein A10 weil die beiden einfach in einem anderen Preissegment sind und es damit für beide einen Kaufgrund gibt.
Man bekommt mit einem i5 vielleicht mehr CPU Leistung muss dafür aber auch bezahlen und es nützt mir nichts, wenn ich 600€ habe aber für 700€ 20% mehr Performance bekomme.
Wenn ich eben nur 600€ hab und mir reicht die Leistung sowieso dann kauf ich eben das Notebook ;)
 
Krautmaster schrieb:
ich sag auch nicht zu 1% nein, und natürlich ist jedes % gut und recht, macht aber die Modulbauweise auch bei korrekt funktionierendem Scheduling nicht zur Überflieger Architektur... viel eher holt es noch nicht mal die bisherige Architektur ein wenn man bedenkt wie effizient zB ein Stars Kern im Llano ist oder ein Athlon II bezogen auf die benötigten Recheneinheiten und Fläche.
Mal angenommen Windows 8 brächte für die Modulbauweise so gut wie nie mehr als ein paar Prozent Mehrleistung und allermeistens null, dann würde ich mich echt fragen, ob AMD bzw. MS Softwaremäßig nichts besseres zutun haben.
Aber so ist es wohl nicht. Wenn's im Schnitt ein paar Prozent und bei einigen Anwendungen (Spiele sind auch "Anwendungen" :D) 5 bis 10% bringt, hat es sich wohl gelohnt, dann kann man nicht meckern. Das dürfte dann auch gut zu den Verbesserungen passen, die Piledriver und danach Steamroller bringen.

Die Überfliegerarchitektur kann ein Underdog wie AMD ohnehin nicht liefern. Das haben sie selbst mit K8 nicht wirklich getan. Netburst war nur so schlecht und darum stand K8 so gut da.

Und ein Phenom III X8 hätte 2011 vielleicht besser ausgesehen als Bulldozer, aber was soll man auf der alten Architektur danach noch aufbauen und vor allem wann soll man dann endlich Bulldozer als "silicon-in-hand" haben und testen können? Irgendwann muss die Katze aus dem Sack, sonst geht sie ein.

Das mit der CPU mit zig K10-Kernen halte ich für puren Spekulatius. Wenn ein 8 K10-Kerner mit 32nm nicht drin wäre, würde ich mich ja auch schwer wundern, aber da Komodo mit 5 Piledriver-Modulen gecancelt wurde, würde ich nicht davon ausgehen, dass eine CPU mit mehr als 8 K10-Kernen plötzlich kein Problem ist.
Aber selbst ein Phenom III X8 ist natürlich schon Spekulation, vielleicht wäre auch der für AMD nicht realisierbar gewesen (warum auch immer) und wir wissen es nur einfach nicht.


Krautmaster schrieb:
@ Server.

Ja das sollte er. Aber auch hier muss man den Takt & Kerne sehen.
Der Vorgänger hat 2x900mio, + 12 Kerne @ 140W @ 2,5 ghz.

Bulldozer basierte Opterons kommen da schon mit 16 Kernen und 3,3 Ghz daher bei 140W und nicht zu vergessen 32nm. So überzeugend ist das nicht, ausgehend von den massiv aufgewerteten techischen Daten.
Bulldozer könnte natürlich besser sein und wird es mit Piledriver ja auch (und selbst der wird ihn natürlich nicht auf Intels Niveau heben), aber wenn du irgendwo eine Cray-Kiste voll mit den Dingern rumstehen hast und gut darauf optimierst, sollte Bulldozer dem Vorgänger wirklich davonziehen, wenn auch nicht revolutionär weit.

Es kann eh alles immer irgendwie besser sein. :evillol:
 
MikelMolto schrieb:
Keine Ahnung, warum Ihr hier 14 Seiten lang auf teilweise niedrigstem Niveau diskutiert.

Es ist ein 2 schneidiges Schwert.
- Wer spielen will kauft Trinity.
- Wer produktiv arbeitet kauft Intel.
- Wer beides machen will muss entscheiden, was ihm wichtiger ist. CPU Leistung oder GPU Leistung.

Wer spielen will wird in der Regel nach wie vor auf eine Kombination aus CPU und Grafikkarte setzen. Die APUs sind weder Fisch noch Fleisch.
 
suessi22 schrieb:
@Krautmaster

Sag mal, mit dir stimmt doch was nicht.
...
PS Juhu ich steh mal als letzter da :rolleyes:

selbiges könnte mir bei diesem Post auch durch den Kopf gehen ;)

Simon schrieb:
Ach, ich weiß nicht, ob AMD damit so gut beraten war, bei Trinity den L3-Cache (TDP-Budget hin oder her) weg zu lassen.

Ich denke es war absolut die richtige Entscheidung. Auch ohne L3 nimmt die Fläche gegen Llano um 10% zu und BD besteht zu ~30% nur aus L3.

Beim Phenom II brachte der L3 ab und an recht viel, aber verschlang auch extrem Platz. Der Athlon II war dagegen ein Leichtgewicht und in Anwendungen mitunter kaum langsamer. Später hat AMD ja sogar ihre Athlon II als Phenom IIs verkauft (bzw tut es noch), ganz ohne L3 ...

L3 war bei Trinity wohl nie ne Option.

@ Opteron.

Ich denke hier geht es auch um Kompatibilität. AMD wird sicher recht lange den G34 Sockel beibehalten und eventuell von 45nm bis 22 nm oder gar darunter CPU herausbringen und das rentiert sich für diese Supercomputer bei denen die Infrastruktur wohl teurer ist als die eigentlichen Prozessoren.

Für viele Szenarien ist BD wie gesagt auch eine willkommene und vor allem preislich interessante Option. =)
Ergänzung ()

Richthofen schrieb:
Die APUs sind weder Fisch noch Fleisch.

Wenn AMD aber der einzige ist der dieses "Weder Fisch noch Fleisch" bieten kann, so hat das auch seine Vorzüge.
 
Zuletzt bearbeitet:
Der Preis ist nur das Nebenprodukt der CPU Leistung. Wenn die CPU Leistung passen würde, würde AMD liebend gerne weiter höher mit dem Preis gehen. Schon alleine weil die CPU rein von der die size größere Herstellungskosten verursacht als Sandy Bridge oder Ivy Bridge. Na mal sehen wo sich die Preise letztendlich einpendeln.

Also ich warte mal ab wie schnell der Trinity A10 65 watt tdp wird. Wenn dieser ca einen A8 3850 erreicht, dann könnte man mit einer 45 watt version schon einiges schaffen
Weiteres hätte AMD auch APUs mit defekten Grafikship auch extrem hochtakten können auf 45 watt tdp.
Dann hätte man zwar ähnlich wie Intel eine schwache igp, aber mehr CPU Performance. Nur wäre es nicht mehr eine APU wie AMD es vorgesehen hat.

Somit ich bin gespannt ob der Multi wieder offen ist. Denn dann könnte man wenn die Kühlung es zulässt, die Trinity richtig overclocken.
Hat man ja schon bei Llano gesehen dass 3 ghz drinnen sind.

Und ein Phenom III X8 hätte 2011 vielleicht besser ausgesehen als Bulldozer, aber was soll man auf der alten Architektur danach noch aufbauen und vor allem wann soll man dann endlich Bulldozer als "silicon-in-hand" haben und testen können?
Das hätte aber bedeutet dass man für den Desktop eine eigene Maske gebraucht hätte. Dann hätte man ja auch Bulldozer für den Desktop besser optimieren können oder ???

Interessant wäre ein FX 4200 zu sehen. 4 Module und jeweils ein aktivierter Core + hoher Takt. Hat zwar nix mehr mit CMT zu tun, wäre aber im idle effizienter als der PII hat aber höheren Takt, und die Threads würden besser ausgelastet sein ect ect.
 
Zuletzt bearbeitet:
Zurück
Oben