Bericht Bericht: AMD A8-4500M („Trinity“)

Das der 17W nur ein Modul hat war zu erwarten, aber nicht diese "Leistung". Das Ding ist ja langsamer als mein SU9400 wenn ich das richtig rauslese. Klar kann man jetzt argumentieren das man die Leistung gar nicht braucht im normalen Alltag... aber dann brauch ich auch kein neues Notebook ;-)

Aber meine momentane Nutzung zeigt das ich da doch ab und an die CPU oder auch GPU brauch, einfach weil ich doch auch drauf zock oder mal etwas anspruchsvollere Anwendungen laufen hab (auch mal Multitasking mit mehr Sachen gleichzeitig). Eine bessere GPU wäre nett, ein Rückschritt bei der CPU ist ein no-go.

Ich hatte meine Hoffnungen auf Trinity gesetzt, aber das wird wohl nix... also doch ein TimelineX, aber diesmal als Travelmate ;-)
 
@Caanon
Naja, da die Auftragshersteller nun doch eng mit den "Designern" zusammen arbeiten denke ich schon, dass AMD Testsamples hat fertigen lassen. Zumal GF und AMD damal noch sehr eng zusammen waren. Woher sollte GF das Know-How nehmen, hochkomplexe CPU's wie die von AMD eigens zu entwickeln und designen und dann mit Testmustern im 32nm Prozess zu testen? ... Da wird schon was von AMD selbst gekommen sein, zumal es ja auch in AMD's interesse ist, auszuloten, was mit 32nm möglich ist.
 
@Jesterfox: Vergiss die 17W-Trinitys, das werden teildefekte Chips sein, die AMD irgendwie loswerden muss. Wenn der Preis stimmt, werden die schon irgendwen ansprechen können, aber für sich genommen kann man nur die A10-Modelle ernstnehmen.

@Toms: Testmuster sind keine Prototypen, auch wenn da drölfzig K10-, K10.5- oder sonst welche -Kerne drauf sind.
 
Zuletzt bearbeitet:
@Krautmaster
Ein PD Modul muss auch erstmal schneller als Zacate sein.

Beim 3D Mark Vantage (CPU-Score, Entry-Preset) z.B. macht der E-450 immerhin auch rund 1.900, der A8-4500M rund 4.300 Punkte. Wenn man eiskalt auf ein Modul, nochmal 200 MHz weniger Takt (im Turbo) und 50 Prozent weniger Cache herunterrechnet, kommen am Ende zumindest an dieser Stelle vielleicht wenn überhaupt noch 5-10 Prozent Vorteil heraus. Nicht gerade der große Sprung. An anderen Stellen wirds u.U. nicht viel besser aussehen, da ein Piledriver-Modul auch nur eine FPU, die Bobcats aber immerhin zwei FPUs füttern können.

Eine voll auf Durchsatz und hohe Taktfrequenzen optimierte Architektur in den Sub-20-Watt-Bereich reinzuprügeln, halte ich am Ende des Tages für wenig erfolgversprechend.
 
Zuletzt bearbeitet:
Die A10 nuckeln aber den Akku mal gekonnt leer... für mich muss ein Notebook auch ne brauchbare Laufzeit haben und das fängt bei mir bei so 6 Stunden leichten Office-Use an... mein jetziges packt 7 (Hersteller-Angabe 8).

Ich will ein Gerät das ich Unterwegs oder bequem am Sofa benutzen kann und in beiden Fällen stört das Ladekabel vom Netzteil. Meine Referenz sind wie gesagt die Acer Timelines, auch wenn einige nicht viel von Acer halten ;-) aber ich bin mit meinem jetzigen soweit zufrieden, hätte aber gern nen Upgrade.
 
Simon schrieb:
Ein PD Modul muss auch erstmal schneller als Zacate sein.
Bobcat ist rein leistungsmäßig schon im Vergleich zu Bulldozer ein Witz, sobald mal die FPU richtig gefordert ist. Da hat er nämlich nicht mehr die rund 90% eines K8 mit gleichem Takt, pi mal Daumen eher die Hälfte.

Jesterfox schrieb:
Die A10 nuckeln aber den Akku mal gekonnt leer... für mich muss ein Notebook auch ne brauchbare Laufzeit haben und das fängt bei mir bei so 6 Stunden leichten Office-Use an... mein jetziges packt 7 (Hersteller-Angabe 8).
6 Stunden bei leichten Office-Aktivitäten sollten mindestens bei dem 25W-, wenn nicht auch bei dem 35W-A10 locker drin sein, oder was verstehst du unter "leichten Office-Use"? :D
Wobei die OEMs natürlich fies sein können und Trinity deutlich schlechtere Batterien verpassen können, dann kann er noch so effizient sein.
 
2,77 wär ja mal heftig...

Wobei ich grad seh, das ich mit meiner Schätzung daneben lieg weil ich das falsche Ergebnis genommen hab... bei x-cpu liegt der A8 30% vor dem SL9400. Damit ist er ca. 75% schneller als der SU9400, machts aber auch nicht viel besser... damit wär der 17W grad mal gleich schnell mit dem SU9400 (so pi mal Daumen)

PS: leichter Office Use ist halt n bissl Word/Excel Spielerei, PDFs lesen und im Internet surfen (nicht grad HD Videos schauen)

Mein Timeline hat nen guten 6 Zellen Akku mit 48Wh, von so etwas geh ich im groben aus, größere Akkus sind meist unhandlich und auch ne Ecke schwerer. Ich kann mir nicht so recht vorstellen das mit so einem Akku die größeren Trinitys auf die gleiche Laufzeit kommen wie ein SU9400 mit 4500HD Grafik.
 
Zuletzt bearbeitet:
Caanon

Bin der gleichen Meinung. Es ist sehr teuer einen Prototypen zu machen, und falls es echt einen gab, dann war das vllt einmalig. Es hat ja Gründe wieso man Prozessor Design simuliert ect.
Eventuell hat man nur kleinere Teile getestet eben ein llano ohne gpu und dann eine Hochrechnung gemacht, wer weiß.
Aber dass AMD irwas gemacht hat, um raus zu finden was wirtschaftlich besser ist, sollte klar sein.

Ich für mein Teil sage eins, jz ist es sowieso schon zu spät Gedanken über sowas zu machen. Ich für mein Teil bin gespannt wie der Trintiy sich im Desktop schlägt.


Was die 17 watt CPU angeht, Leute die damit auskommen brauchen nix schnelleres, das sind eben die Leute, die aufs Design schauen, und nicht gleich 800 + ausgeben wollen. Wenn also jemand einen 14 oder 13 zoll Sleekbook um 400-500 Euro bekommt, kann sich so ein 17 watt Trinity schon ein Angebot sein (natürlich mit passender Ausstattung). Damit würde man sich preislich über die Zacate um 300-400 euro setzen und unterhalb des 25 watt tdp Modelles 500 euro +.


Jesterfox
Nur weil der A10 eine TDP von 25 watt hat, heißt das nicht gleich dass er soviel mehr frisst (außer beim Gamen)
Weiteres darf man nicht vergessen, dass das Board eventuell weniger Verbraucht als bei den 35 watt tdp Modelle ect. Da ja der Chip direkt verlötet ist ect.
Somit wenn man mit der 25 watt tdp A10 surft ect, könnte es sein dass dieser genauso viel verbraucht wie die 17 watt Version. Falls mehr könnte sich das auf der Batterie vllt Minuten unterschied bedeuten.
Beim x121 hat man bsp unter vollast 3h Akku Laufzeit.
Bei Trinity soll ja die igp am meisten verbrauchen, also mehr als die CPU unter Last. Das ist auch der Grund wieso Trinity weniger verbraucht beim Gamen als SB mit der igp, obwohl ersteres ein besseres oder ähnliches Bild liefert.
 
Zuletzt bearbeitet:
Jesterfox schrieb:
Mein Timeline hat nen guten 6 Zellen Akku mit 48Wh, von so etwas geh ich im groben aus, größere Akkus sind meist unhandlich und auch ne Ecke schwerer. Ich kann mir nicht so recht vorstellen das mit so einem Akku die größeren Trinitys auf die gleiche Laufzeit kommen wie ein SU9400 mit 4500HD Grafik.
Da stellt sich einfach die Frage, ob es auch hochpreisige Ultrathins mit dem A10 geben wird oder immer nur Billigheimer.
Und 6 Zeller mit 48Wh sind heute ganz übel billig, da gab's schon 2008 im Samsung NC10 welche mit 57,2 Wh.
 
Caanon schrieb:
Bobcat ist rein leistungsmäßig schon im Vergleich zu Bulldozer ein Witz, sobald mal die FPU richtig gefordert ist. Da hat er nämlich nicht mehr die rund 90% eines K8 mit gleichem Takt, pi mal Daumen eher die Hälfte.
Dafür hat der Bobcat wie oben erwähnt immerhin zwei FPUs.

Schau dir mal den Cinebench 11.5 Vergleich an. Da ist der A8-4500M gerademal ca. doppelt so schnell wie ein E-350. Takt- und Modul-bereinigt sehe ich auch da eine Pattsituation.
 
Jesterfox schrieb:
Mal extrapolieren was das für den 17W Trinity bedeutet... (ich nehm mal Cinebench)

Cinebench ist als Vergleichsgrundlage ungeeignet. Wegen meiner Schreibfaulheit: https://www.computerbase.de/forum/threads/bericht-amd-a8-4500m-trinity.1061293/page-13#post-12043922

Also wenn da bei den Benches oder dem Asus Notebook nicht gehörig was daneben gegangen ist [...]

Das Notebook ist ein Vorserienmodell, bei dem an der Speicherausstattung gespart wurde. Nur eine der beiden Speicherbänke ist mit einem RAM-Riegel bestückt, sprich: Halbe Bandbreite, oder in Zahlen ausgedrückt: 64 statt 128 Bit Speicheranbindung. Dadurch bricht die Rechenleistung von Trinity drastisch ein. Dieser "Test" ist nicht repräsentativ.
 
Simon schrieb:
Dafür hat der Bobcat wie oben erwähnt immerhin zwei FPUs.
Dafür sehr abgespeckte, besonders energieeffiziente eben. Aber SSE-Befehle mögen sie definitiv nicht.

Und so dramatisch fern ist ein Bulldozer-Modul nun auch wieder nicht von zwei Kernen, dass man bei Bulldozer rein leistungsmäßig ernsthaft von nur einer FPU pro Modul reden könnte. Es ist einfach irgendwas zwischen einer und zwei.
 
Was ist denn "Standby" unter den Verbrauchstests? Weniger als 1 Watt Verbrauch kann ich mir hier kaum vorstellen wenn es sich dabei um den S3-Suspend to RAM-Standby handelt.
 
Caanon schrieb:
Ehrlich, entweder du hast da totalen Unfug aufgeschnappt oder dir das selbst aus den Fingern gesogen.
Solche Prototypen wären verdammt teuer gewesen.

Schau mal wie enorm hoch die Strafzahlungen sind, die AMD gezahlt hat, um zumindest aus einem Teil des Volumenvertragsschlammassel für 32nm bei Globalfoundries rauszukommen und vergleiche das mit einem hypothetischen Phenom II Prototypen in 32nm, den AMD kosteneffektiv zu fertigen versuchte, denn Bulldozer erschien zumindest bei den ersten Samples als überhaupt nicht brauchbar.

Es gab dazu auch absurde halbgare ""Phenom II X8" Gerüchte, die aber nicht das enthielten was wirklich Sache war.

AMD sah sich nicht im Stande/konnte/wollte überhaupt keine Bulldozer Prozessoren für den Desktop Markt in 32nm anbieten, sondern nur Llano Prozessoren in dem Fertigungsprozess ( aber da hatte man auch sehr sehr schwache yields aufgrund der dazugeklatschten IGP, weniger wegen dem Prozessorteil) und weiterhin leicht verbesserte Phenom II X4 und Phenom II x6/x8 Prozessoren in einem ausgereiften 45nm Prozess mit-ja leider- bis zu 140 Watt TDP. ( Welche man auch in 32nm wegen den Verträgen zu fertigen versuchte)

So hätte man die hohe Nachfrage nach Llano decken können und Bulldozer für den Servermarkt/Workstationmarkt anbieten können, wo er durchaus teils deutlich schneller und auch effizienter ist als Magny Cours und auch als die Modelle mit wenigeren Threads, da sind die neu implemenierten Befehlssätze auch wirklich sinnvoll.
Da spielte Globalfoundries aber nicht mit, schließlich rampt man nicht für Lau einen neuen Prozess und liefert dem Hauptabnehmer weiterhin 45nm Kost.

Man hat Anno 2009 schon allererste frühe 32nm Samples von Bulldozer bei Globalfoundries fertigen lassen, ja auch 45nm Samples (Bulldozer war mal für 2009 angekündigt) und als das komplett in die Hose ging, entschied man sich nen Phenom II x6 herauszubringen.

Der Server Heini John Fruehe hat das sogar noch dementiert, weil er keine Ahnung hatte dass sowas für den Desktop geplant war, der war damals schon auf Bulldozer fixiert, der ja zumindest im Desktop Markt in die Hose ging.

AMD wusste schon mitte 2010, dass Bulldozer keine tolle Weiternetwicklung werden würde und man hoffte einfach inständig auf einen guten Fertigungsprozess um die IPC Problematik ausgleichen zu können.
(Schätzungen waren damals schon eher weniger positiv)

Anstattdessen hat man große Werbekampagnen betrieben, von 50% Merhleistung gegenüber eiem i7 950, oder X6 1100T( 1090T) gesprochen und sich voll in die Nesseln gesetzt, obwohl man sich schon !!sicher!! sein konnte dass man das nicht schaffen würde, schon gar nicht mit dem schlechten Fertigungsprozess, der gar keine HKMG Bezeichnung verdient hat.

Ein absolutes Musterbeispiel von miserabler Zusammenarbeit der unterschiedlichen Abteilungen, das ist ja das große AMD´sche Problem, das jetzt Rory Read zu lösen versucht.

So wie es scheint haben sie aber den richtigen dafür ausgesucht, die Impulse waren bis jetzt aus meiner Sicht positiv.

Leider ist der 32nm Prozess immernoch nicht optimal und AMD fährt Trinity immernoch mit deutlichen zu hohen Spannungen.
Yield Raten von lediglich um die 60% bei Trinity (meines Wissens Stand mitte März) und knackig hohe V-Cores bei allerersten Samples deuten wieder auf ungenütztes Potenzial hin.
 
Zuletzt bearbeitet:
@Freddy72: Es kann echt jeder daher kommen und so einen Post zusammenschreiben, am Ende noch eine Behauptung zu den Yields von Trinity reinpacken und hoffen man wird dadurch für glaubwürdig gehalten.
"Ja nee, is' klar" wie man so schön sagt. ;)

Da Bulldozer für 2011 eh fest eingeplant war (sonst wäre er ja vielleicht tatsächlich wieder mal gecancelt worden), hätten irgendwelche "Phenom II Prototypen in 32nm" genau einen "Sinn" gehabt: Akademische Übung. Für so einen totalen Blödsinn wird AMD kein Geld gehabt haben, da kann irgendein Deal mit GF noch so toll gewesen sein.
Und wie gesagt, Prototyp != Testchip. Vielleicht haben sie ja mal einen Thuban oder Deneb geshrinkt, um die Fertigung zu testen, aber sicherlich nicht um jemals auf dem Markt zu erscheinen.
 
Zuletzt bearbeitet:
Fantasio schrieb:

Leider ist das der einzige Test bei dem auch das MacBook dabei ist... ansonsten kann ich schwer mit meinem C2D vergleichen, mit dem SU4100 wirds eher schwer was rauszulesen.

Aber wenn ich mit dem TimelineX mit "altem" i5 Vergleich bleibts auch in den anderen Benches übel... 187% für den i5 beim 3D Mark Vantage CPU. Und das ist die Referenz für mich wenn ich mir n neues Notebook hol, da tendier ich sehr stark dazu wieder ein Timeline zu nehmen (hatte ja eigentlich auf ein Timeline mit 17W Trinity gehofft).


Ok, einfach mal abwarten bis die finalen Geräte am Markt sind und was diese dann in den Tests ergeben. Vor allem ob dann ein 2. Speichermodul so viel bringt, denn das nachzurüsten wäre das geringste Problem (genauso wie auch wieder ne SSD rein muss ;-)
 
@ Jesterfox:

Trinity profitiert, genauso wie Llano, von Speicherbandbreite und hoch taktenden Speichermodulen. Im langsameren Single-Channel-Modus brechen bei Llano, je nach Anwendung, CPU- sowie GPU-Leistung um ca. 20% bis 50% ein. Bei Trinity wird das nicht anders sein. Zusätzlich treten momentan noch Treiberprobleme auf. Also: Abwarten.
 
Ein bisschen verwirrender Test ,ich wollte eigentlich mal rausbekommen was mein kleiner Hp635 Apu E-350 so an Strom verbraucht .

Nun habe ich das hier gefunden:

http://www.hardware-infos.com/news.php?news=3762

Ich denk mir reicht der auch für Office und im Internet surfen, dafür ist er schnell genug und ich verzichte gerne auf mehr CPU ,solange die GPU Leistung das bringt,was es bringen soll ,nämlich Videos ruckelfrei wiedergeben und bisher hat er das gemacht .

Naja alles in allem sehe ich keine Grund, mir deswegen was anderes anschaffen zu müssen.

Für Spiel ist meiner Meinung nach ein Notebook eh nicht geschaffen,dafür gibt es einen Desktop PC,der für sowas seinen Zweck erfüllt.
 
Zuletzt bearbeitet:
@Caanon

zu Zeiten als 32nm getestet wurde war GF / AMD praktisch noch eins. Und was fertigt GF denn sonst noch in 32nm? Es sind praktisch nur AMD CPU.

Und ein Prototyp kommt vermutlich nicht mal zu 50% Wahrscheinlichkeit auf den Markt.

Zunächst testet man eine neue Fertigung ohnehin mit Chips auf welchen sich einfache Testschaltungen befinden.

Wie gesagt, ein Testchip in 32nm der nur den Llano CPU Teil enthält kommt einem Chip von K10 32nm schon sehr nahe.

@skar29

um Videos flüssig wiederzugeben reicht auch eine Intel GMA4500. ^^ für "Video wiedergeben" sind sowohl die HD2000 / 4000 als auch die Llano /Trinity GPU absolut overkill.

Gut, bei 3D soll ja ein Zacate nicht ausreichen.
 
Zuletzt bearbeitet:
Zurück
Oben