News AMD gibt erste Performancedaten zum A10 „Trinity“ bekannt

F4naTy schrieb:
Also möchten die uns nun verkaufen , das der A6 dann gut 30 % schneller ist als der Ivy ?
Schön.. der Cpu teil ist dann sicher 50 % langsamer und die Gpu kloppt dann diesen guten Wert raus , anders kann und wird es auch nicht sein.

das will ich gern sehen.
 
Ralf die sind nicht von AMD dies ist die Steigerung von Intel von Sandy auf Ivy
 
Ralf555 schrieb:
Das schon, nur spielt die CPU kaum eine Rolle in dem Bench. Das macht nur wenige Punkte aus im Gesamtrating. Das nuckelt mit wenigen fps dahin, viel zu stark GPU limitiert. 30% ist natürlich vollkommener Blödsinn, schnell vergessen den Quark. Eine 900 Mhz getaktete HD4000 einer mobilen Ivy Bridge CPU schafft mit Vorserientreibern P3100 Vantage Punkte. Die ULV Modelle takten mit 1150 Mhz genau so hoch wie die Desktop Modelle. Da mit 1500 Punkte zu prognostizieren ist entweder Marketing oder unbewusste Blödheit von AMD.
Das mag ja alles stimmen und klingt logisch aber:

Verstehe ich das dann richtig, dass AMDs GPU langsamer (da bei weitem keine 3100 Punkte erreicht werden laut AMDs Aussage) sein soll als die der Ivy-Bridge? Das glaube ich nie und nimmer.

Am schlechten CPU-Anteil von Trinity kann es ja laut deiner Aussage nicht liegen.
 
Ich bin schon sehr gespannt auf die Trinity-APUs. Das könnte die Grundlage für viele "Standard-PCs" werden, Internet, Videos, kleine Spielchen, die vor allem die Hardware-Unterstützung benötigen wären damit (hoffentlich) kein Problem und der Preis macht den Rest klar. In der Verwandtschaft gibt es bei mir mehrere Rechner, die bald altersschwach auseinanderfallen. AMD soll sich mit dem Release mal ranhalten ;)
 
Ein_Freund schrieb:
Ralf die sind nicht von AMD dies ist die Steigerung von Intel von Sandy auf Ivy

Doch die sind die von AMD. Es gibt von Intel keine Angaben diesbezüglich.

Jigga86 schrieb:
Das mag ja alles stimmen und klingt logisch aber:

Verstehe ich das dann richtig, dass AMDs GPU langsamer (da bei weitem keine 3100 Punkte erreicht werden laut AMDs Aussage) sein soll als die der Ivy-Bridge? Das glaube ich nie und nimmer.

Am schlechten CPU-Anteil von Trinity kann es ja laut deiner Aussage nicht liegen.

Korrekt. Das 17W Modell wird mit dieser Punktzahl definitiv langsamer als Ivys 17W Modell bezüglich GPU Leistung. Die 2350 Punkte sind längt nicht ausreichend für die Ivy Bridge iGPU. Intel kann hier den 22nm Vorteil ausspielen, zumal die Intel iGPU verdammt energieffizient ist. Die 3600 Punkte des 25W Modells sehen da schon deutlich konkurrenzfähiger aus. Absetzen kann sich wohl erst die 35W Variante von Trinity.
 
NIGHTFIL schrieb:
Welche Zielgruppe hat Trinity??? Zum Zocken holt man sich ne richtige Graka, für Office nimmt man ne Intel CPU.

Gibt noch mehr Farben als schwarz und weiß :freak:

Falls du es nicht begreifst: Jeder hat andere Ansprüche und Möglichkeiten. Für die ganzen Konsolenports ist Llano und erst recht Trinity voll ausreichend für die meisten.
Und was hier schon wieder für Geschichten erfunden werden: Unfassbar!

Lesen UND verstehen, nicht nur Buchstaben anschauen!
 
NIGHTFIL schrieb:
Welche Zielgruppe hat Trinity??? Zum Zocken holt man sich ne richtige Graka, für Office nimmt man ne Intel CPU.

Fusion an sich kann eine goldene Zukunft haben.
Nämlich wenn AMD ihre ZCP Technik mit Fusion vereinen.
Denn schon hat man ein Sys, welches auch im Office verdammt stromsparend it.

BTW würde ich mir für Office bei der momentanen GPU Leistung von Intel keinen Intel CPU holen...
Denn sobald man etwas mehr will bekommt man Probleme, insbesondere GPGPU welches immer wichtiger wird...
 
reuBer schrieb:
Drei Absätze a 5 Zeilen können echt kompliziert sein... und wieviel man da rein interpretieren kann, unfassbar!

Wenigsten versuchen die die News zu lesen, da gibts andere Fälle, die schaffen es sogar nicht mal die Überschrift richtig zu lesen, die News wird gar nicht angeschaut.

ich werd sicherlich auf Trinity warten. Momentan hört sich die 17 watt version genau richtig für mein HTPC an, obwohl es dann weniger zum selber machen gibt xD.
 
Zuletzt bearbeitet:
Ralf555 schrieb:
Korrekt. Das 17W Modell wird mit dieser Punktzahl definitiv langsamer als Ivys 17W Modell bezüglich GPU Leistung. Die 2350 Punkte sind längt nicht ausreichend für die Ivy Bridge iGPU. Intel kann hier den 22nm Vorteil ausspielen, zumal die Intel iGPU verdammt energieffizient ist. Die 3600 Punkte des 25W Modells sehen da schon deutlich konkurrenzfähiger aus. Absetzen kann sich wohl erst die 35W Variante von Trinity.
Nur ein Tipp.
AMDs Marketing hat einen GPU-Base-Takt Vergleich gemacht und du versuchst ein Intel-Turbo-Core-GPU-Takt vs. Trinity-GPU-Base-Takt zu machen.
 
AMD muss Gas geben wenn Sie noch etwas vom Marktanteil für sich behaupten will auch wenn andere Artikel hier keine große Hoffnung machen.

Ein kleiner Sprung stellt die Interne Grafiklösung in den CPU´s dar. Dies war abzusehen und ist zumindest für mich keine Überraschung und das diese mehr Performance bringt genauso.

Laut Informationen die mir bekannt sind auch von Intel´s Daten Blättern wird dort von einer Mehrleistung von max. 10% gesprochen je nach Model. Das wirklich Innovative aber soll die Leistungsaufnahme sein bzw. der Verbrauch der CPU. Die sich jetzt noch besser auf den Benutzer anpassen ohne das der Verbraucher dabei etwas merkt und damit mehr Energie Spart und höre Akku Laufzeiten zumindest im Mobilen Segment bedeuten wird.

Was bringen Benchmark Werte wenn die Mehrleistung sich nur in Zahlen ausdrücken lassen aber der Auto-Normale User keinen Unterscheid feststellt.
SSD ist hier ein Gutes Beispiel, doppelte lese/schreib raten sind vielleicht messbar aber nicht Spürbar aktuell zumindest. Nur das Gefühl lässt einige anscheint besser schalten.

Aber das alles sind Themen die es hier zu hunderten gibt und immer wieder aufkommen werden.
 
3D Mark Vantage und 17W TDP gehen schonmal garnicht. Ist wohl der nutzloseste Benchmark, den man sich aussuchen kann. Zum Spielen zu langsam, für den Rest zu schnell, dafür eine Krüppel-CPU.

mfg
 
aylano schrieb:
Nur ein Tipp.
AMDs Marketing hat einen GPU-Base-Takt Vergleich gemacht und du versuchst ein Intel-Turbo-Core-GPU-Takt vs. Trinity-GPU-Base-Takt zu machen.


Wo haben sie den gemacht? In deiner Traumwelt? AMD sagt, die 17W SB CPU käme auf 1100 Punkte. Wie sie darauf kommt, kann einem völlig Schnuppe sein. Mit dem Base Takt von 350 Mhz würde der i5-2537M im Leben nicht die 1000 Punkte Hürde knacken, das ist totaler Blödsinn und sollte dir sofort einleuchten. Der GPU Turbo lässt sich gar nicht abschalten, nur mal so nebenbei. So eine Funktion habe ich in meinen Boards noch nie gesehen.
 
KainerM schrieb:
3D Mark Vantage und 17W TDP gehen schonmal garnicht. Ist wohl der nutzloseste Benchmark, den man sich aussuchen kann. Zum Spielen zu langsam, für den Rest zu schnell, dafür eine Krüppel-CPU.

Stell dir vor, es gibt Leute denen das reicht, aber von einem Troll wie dir erwarte ich nix anderes :freak: Und deine "Krüppel-CPU" ist deutlich besser als die Hardware von seeeehr vielen Menschen (bspw. mir) bzw. einfach ausreichend für 90% der Menschheit, da kannst du dich an den paar % Leistungsvorsprung von INTEL im Highend noch so aufgeilen.

Nordwind2000 schrieb:
Ich hab zwar keinen Liano zu Hause aber nen C-50 mit Grafikeinheit im Notebook. Und für kleine Spiele wie Sims in vollen Details oder MW3 mit abgespeckten Details reicht der und verbraucht nicht mal viel Akku! Also wenn Trinity jetzt noch ein bissel an Grafikleistung zulegt dann wird ein Trinity-Notebook das Fusion ersetzen.

Edit: @Athloscout: LOLWUT!
 
Zuletzt bearbeitet:
KainerM schrieb:
3D Mark Vantage und 17W TDP gehen schonmal garnicht. Ist wohl der nutzloseste Benchmark, den man sich aussuchen kann.

Ach weißt du Martin Kainer, den Vantage hat AMD nur deshalb herangezogen um ihn mit Intels HD4000 vergleichbar zu machen - denn Intel hat es mit IB dank Krüppel-IGP noch nicht geschafft 3DMark11 lauffähig zu bekommen.:evillol:
 
Zum Glück haben die bei AMD eine APU , so lässt sich marketingtechnisch gut rumtricksen und man veröffentlicht nur die iGPU Performance, den Rest der CPU Daten lässt man unterm Tisch fallen. Trotzdem ist das Ding immernoch nur eine CPU mit Onboardgrafik , die in dem Vermarktungssegment nur dann ihren Trumpf ausspielen kann wenn die User Spiele zocken wollen nur das das eben nicht der Haupteinsatzgrund der APU ist. Effizienztechnisch wird die Ivy Bridge dann nur besser dastehen können.
 
Hm. Mir missfällt etwas das Ergebnis. 2.355 Punkte sind schlicht davon abh. wie hoch der GPU Anteil der APU ist.
Hat der 17W Trinity 1 Modul oder ebenfalls 2 (nehme ich mal an). Vermutlich kommt dieselbe DIE zum Einsatz.

AMD bleibt gar nichts anderes übrig außer voll auf GPU Werbung zu setzen.

Immerhin differenzieren sie sich dadurch etwas, CPU Technisch hat man keine Chance, gegen Intels 32 nm nicht und gegen 22nm schon gar nicht. Richtig hier auf GPU Power zu fokussieren, auch wenn mir etwas das Anwendungsgebiet fehlt (außer vllt Multimedia PCs).

AMD macht das einzig richtige, sie fokussieren eine Nische (eben die die doch die GPU Leistung hier brauchen kann) und werden auch preislich versuchen Druck zu machen. GPU seitig hat man definitiv die Oberhand, noch kann Intel hier nicht kontern.


KAOZNAKE schrieb:
Wen interessiert bei Trinity bitte die CPU-Leistung?! Mehr als ausreichend würde ich sagen für die Zielgruppe. Alle anderen sollten sich wohl eher Richtung Bulldozer (2) orientieren.

Freu mich schon auf die Tests zu Trinity.

Joa richtig , wen interessiert das da. Was ist denn die Zielgruppe? Ist es dieselbe wie bei Zacate bzw zb einem E-450?

Ich habe selbst zwei davon zu Hause, mehr aber als HTPC Testplattform. Selbst da gurkt das Setting schon ziemlich durch die Gegend - das liegt aber nicht an der fehlenden GPU Leistung, im Gegenteil, diese reicht mir selbst bei Zacate schon mehr als aus.

Sicher, der 17W Trinity wird doch hoffentlich mit einem guten Turbo daher kommen und Taktraten die CPU seitig deutlich mehr Leistung bereitstellen sollten wie der 18W Zacate. Man kann sich darüber streiten ob dies nun ausreicht.

Für die GPU Leistung gibt es immer das ein oder andere Anwendungsgebiet, hauptsächlich Spiele, der Unterschied zw 1500 und 2300 Punkte auf GPU Seite sind aber meiner Ansicht nach für den täglichen Gebrauch eher unwichtig, wohin gegen 50%-100% mehr CPU Leistung fast immer durchschlagen (gerade bei diesen ohnehin vergleichsweise kleinen CPU Leistungen, hier natürlich weit mehr als im Desktop Segment bei 4 vs 6 Kerne).

Genauso wie man den Unterschied ATOM -> Zacate extrem spürt spürt man auch den Unterschied Zacate -> i5 ULV was wie ich finde nicht an der GPU Leistung liegt.

Interessant wird es mit Metro und Win8, wobei die Apps da eher so ausgelegt sein werden, dass sie auf Tablets bei geringer iGPU Leistung laufen.
 
Zuletzt bearbeitet:
Beachtlich was die kleine 17 Watt TDP Version schon leistet. Der Vantage Wert liegt über der 6490m mit der schon einiges auf mittleren Details spielbar ist. In einem stromsparenden Subnotebook wäre der doch ideal. Ich hoffe dass sowas dann auch erscheint und nicht nur theoretisch möglich ist. Von LIano sieht man ja nicht so viel auf dem Markt (im Gegensatz zu Brazos).
 
Ich hoffe die bekommen die Ausbeute bei GF endlich hin und können davon Millionen Stück liefern. Die 17-Watt-Version würde super in ein neues Macbook Air passen. Da hast du alles am Start und evtl. geht sogar der Preis runter. Und wenn du Apple erstmal am Haken hast, dann läuft der Laden direkt. Mit Llano waren sie ja damals angeblich gescheitert, aber Trinitys Vorzeichen sind einfach mal deutlich besser.
 
Dass die GPU-Leistung der 17W-Trinitys für Subnotebooks locker ausreichen wird, halte ich für sehr wahrscheinlich. Das ist nicht das Sorgenkind bei AMDs APUs.

Der spannende Teil wird die CPU-Leistung!

Wenn ich mich richtig erinnere, gab es eine Aussage, dass die 17W-Trinitys etwa genauso schnell sein sollen, wie ein aktueller 35W-Llano. Das kann alles und nichts bedeuten. Im schlimmsten Fall meinen sie damit das langsamste 35W-Modell.
Der kleinste Dualcore-Llano A4-3300M mit 35W TDP hat (in Cinebench) gerade mal halb so viel CPU-Leistung wie ein 17W-Sandy-Bridge-ULV!

Wenn die 17W-Trinitys in dieser Leistungsklasse spielen (was ja immerhin schon eine Verdoppelung der pro-Watt-Leistung von Piledriver-Cores gegenüber K10 wäre), würden sie zumindest für höherwertige Subnotebooks ala MBA uninteressant sein. Es würde vielen Apple-Kunden doch ziemlich sauer aufstoßen, wenn das neue MBA-Modell auf einmal nur noch halb so viel CPU-Leistung hätte, wie das Vorgängermodell mit SB-ULV. Zumal ja gleichzeitig schon Ivy-Brigde-ULVs am Markt sein werden, die dank 22nm und Tri-Gate-Transistoren vermutlich nochmals deutlich stärker und sparsamer sein werden, als die aktuellen SB.

So ein "Upgrade" wäre ein ziemlich fauler Kompromiss (Opferung von CPU-Leistung für GPU-Leistung).

Um Intel aus Subnotebooks zu verdrängen, müsste der 17W-Trinity mindestens eine mit den heute aktuellen SB-ULVs vergleichbare CPU-Leistung haben und oben drauf eine deutlich bessere GPU als Intels HD3000 (dahinter würde ich schonmal einen Haken machen). DANN wären sie eine Verbesserung zumindest gegenüber der heutigen Subnotebooks mit SB-ULV (Gleichstand bei CPU und bessere GPU).

Aber das würde bedeuten, dass AMD nicht nur die GPU-Leistung steigert (was eigentlich gar nicht nötig wäre), sodnern auch die CPU-Leistung verdoppelt und gleichzeitig den Verbrauch der gesamten APU halbiert und das ganz ohne neuen Fertigugnsprozess (die Llanos sind ja schon 32nm), nur mit dem Umstieg von K10-Architektur auf Piledriver.
Wenn man sich die enttäuschende Effizienz des Piledriver-Vorgängers Bulldozer im Vergleich zu K10 anschaut, wird dieses kleine Wunder nochmal etwas größer.

Nichts wäre mir lieber, als echte Konkurrenz zu Intels teuren ULV-CPUs, aber das Wunder will ich erstmal sehn. :rolleyes:
Ich glaube so eine Verbesserung von Leistung und Effizienz von einer Generation auf die andere hat es seit den frühen Kindertagen der CPUs nicht mehr gegeben. Das würde auch den Sprung von Pentium4 auf Core2 locker in den Schatten stellen.
 
Soviele Vermutungen hier, daher mal paar Fakten:

http://www.3dcenter.org/news/erster-test-einer-ivy-bridge-mobile-cpu

Bei der Core i7-3920XM 55 Watt Modell takten die den HD4000 also mit 650-1300 Mhz.
55 WATT !!!- Damit kommt Intel auf 615 Punkte im 3D Mark 11.

Dazu Trinity Daten bereits aus November:
http://www.3dcenter.org/news/2011-11-22

A4 = 17 Watt, GPU-Performance ähnlich wie Radeon HD 6450 GDDR5

A6 = 25 Watt, GPU-Performance ähnlich wie Radeon HD 5550 GDDR5

A8 = 35 Watt, GPU-Performance ähnlich wie Radeon HD 5570 GDDR5

Zum Vergleich ein Benchmark von Computerbase:




Intel 55 Watt 3DMark11 = 615, AMD A6 25 Watt 3dMark 11 = ~ 1800

Natürlich spielen da Treiber noch eine Rolle...aber für Gelegenheitsspieler sollte mehr als klar sein zu welchem Produkt man greift. Zumal AMD zudem wesentlich billiger sein dürfte.

Noch eine kleine Anmerkung vom 3dCenter:
AMD setzt einen Llano-basierten A8-Prozessor auf nur 6500 Punkte an, obwohl dieser mit dem richtigem System ganz schnell auf über 10000 Punkte  kommen kann. Demzufolge kann man die AMD-Werte in diesem Punkt nicht mit den Werten anderer Tests vergleichen, sondern nur AMD-intern

von daher stapeln die eher tief anstatt hoch...dürfte also noch schlechter für Intel ausfallen das Verhältnis.

Wer dennoch gern 200-300 Euro mehr für überteuerte Intelsysteme zahlen moechte für ca. 25% mehr Prozessorleistung kann das gerne tun ;) Aber sobald Euer Prozzi 1-2 Sekunden auf Daten von der Festplatte warten muß war das Geldfür den Geschwindigkeistvorteil schon umsonst ;)

Der Flaschenhals für die Grafikleistung bei AMD Llano war halt immer die schwache CPU, da die nun mit Piledriver flotter ist - +25%, geht die Grafik um Faktor 50% nach oben weil sie immer begrenzt wurde durch schwache CPU Leistung. Daher hat nun die 17 Watt Trinity gleiche Grafikleistung wie 35 Watt Llano A8-3500. die andern Chips entsprechend mehr...dadurch nähert man sich also den Llano Desktop Grafikwerten stark an denn die haben ja für Grafik auch "nur" max. 400 shader, von daher machen diese Zahlen auch Sinn.

Ergänzung:
Intel verwendet immer gern den 3DMark 2006. Aber was interessiert mich die Leistung in einem uralt Benchmark ? Ich hab auch kein WinXP mehr sondern Win7. Daran merkt man dass Intel mit den Dx11 Treibern noch echte Probleme hat. Deswegen fällt das Resultat so extrem schlecht aus denke ich. Beim 2006 hinkt die Ivy grafik ja Trinity nicht soweit hinterher...DX10 hat Intel eben schon besser optimiert.
Ich vermute mal dass der AMD Vorsprung durch Treiberoptimierungen von Intel schrumpfen dürfte innerhalb der nächsten 12-24 Monate weil AMD das gesamte Potential aus Trinity denke ich mal schon recht gut ausschoepft und Intel bei Ivy noch lange nicht das Optimum erreicht hat wegen schlchter Treiber....aber dennoch wird Intel immer hinterher hinken. Bei GPU Leistung. Bis allerdings APU optimierte Software ausgereift ist...dann werden sich die APU´s von AMD gegenüber Intel klar absetzen.

Momentane Realität mit Vorserien Treibern ist aber: AMD leistet mit Trinity bei halbsoviel Stromaufwand ca. das 2-3 fache an GPU Leistung gegenüber Intels Ivy wenn es um DX11 geht (bei Dx10 ists weniger vorsprung).
 
Zuletzt bearbeitet:
Zurück
Oben