Test Test: Trinity vs. Ivy Bridge im CPU-Test

Wie kommst du denn auf die 95%?
Ich wusst nicht dass mittlerweile die CB Leser nur noch aus PCGH Lesern bestehen?
Das sollte hier eigentlich immer noch eine Computerseite sein und keine Spieleseite.
 
AMD hat gegenüber seinen eigene Produkten zwar verbessert, aber im Vergleich zu den Intel-CPUs scheidet AMD nicht gut ab. Ich gehe davon aus, dass das Ende bald bevor steht.
 
Meetthecutthe schrieb:
Die einen sagen dazu "innovativ" die anderen einfach "dumm" .

Und die, die "dumm" sagen, zeigen, dass sie über ihren eigenen Tellerrand nicht hinausblicken können.


Meetthecutthe schrieb:
Man entwickelt nun mal als wirtschaftlich klug agierendes Unternehmen nicht am Markt vorbei. Das AMD sich nicht als solches Bezeichnen kann wurde wiederholt unter Beweis gestellt.

Dass Deine Aussage als falsch bezeichnet werden kann, wurde mit der über 40-jährigen Geschichte des Unternehmens und der Existenz neben einem Halbleitergiganten wiederholt unter Beweis gestellt!
 
Quad-core schrieb:
Naja immerhin 10% mehr Leistung als der Llano A8 , bei gleichem takt würde das allerdings ganz anders aussehen .

ca gleiche Leistung in Anwendungen:
Llano 3GHz
Trinity 3,3GHz
Wieviel Takt hat der A10-5700 und in welcher TDP Klasse ist dieser?
Der Verbrauch ist schon ziemlich stark gesungen bei gleicher Leistung.....
 
Zuletzt bearbeitet:
Gibt's irgendjemanden der sich einen Trinity kauft und nur die CPU Leistung möchte?

Nein, denke es werden Leute diese CPU kaufen die auf eine zusätzliche Grafikkarte verzichten möchten. Den bei der GPU Leistung ist das Ding echt der Hammer und macht selbst einen 3770K platt.. Klar ist die reine CPU Leistung.. naja, dürftig ? Selbst ein 2 Kerner von Intel ist da schneller, aber ich denke das es der richtige Entwicklungsweg ist sinnvol die GPU in die CPU zu integrieren !
 
@ meetthecutthe:

Wenn wir hier schon Haare spalten: Es war ein kleines Fragment aus einem Fazit das aus vielen hundert Worten besteht.

"Ausschnitt aus dem Fazit:

Für den Preis von knapp über 100 Euro liefert AMDs Flaggschiff der neuen „Trinity“-Familie eine gute Performance.

durch diese Dinge schlägt man den Vorgänger und auch Intels Core i3 in Anwendungen

Im Bereich der Anwendungen hält man deshalb „Llano“ mit 16 Prozent auf spürbarem Abstand und selbst Intels Core i3-3220 wird geschlagen

Unterm Strich ist es letztlich das Gesamtpaket, das zugunsten von „Trinity“ gegenüber „Llano“ spricht

Damit ist eigentlich alls gut auf den Punkt gebracht. Wie immer ein einwandfreier Test. Danke CB."

Merkste was? So kann man doch nicht diskutieren!
 
Wenn ich dann im Fazit noch Absätze wie folgenden lese kann mich auch die gute GPU Leistung des Prozessors nicht mehr erweichen ->

Lag der FX-8150 in der alten Version nur 25 Prozent hinter dem Core i7-3770K, sind es in der neuen Version 4.20 im realen Einsatz 73 Prozent – die Lücke zwischen „Bulldozer“ und den aktuellen Intel-CPUs wird hier also deutlich größer und auch der A10-5800K mit „Piledriver“ verliert auf den Core i3-3220 wieder ein wenig.
 
wenn man so selektiv ein Fazit zitier, muss ich kontern:

"...fruchtet bei „Trinity“ natürlich richtig, womit man sich nicht nur 372 Prozent vor „Llano“ platziert, sondern auch den Core i3-3220 mit 568 Prozent mehr Leistung quasi zersägt."

Geht ja ab wie Schmidts-Katze dieser Trinity...
 
Im Zuge der heutigen Popularität des Livestreamings (z.B. Twitch.tv), wäre es da möglich, eventuell einen Vergleich mit in die CPU Tests aufzunehmen (bzw. 1-2 Mal pro Jahr ein Special oder so), wie sich die CPUs dabei so schlagen?
Z.B. 720p Performance mit XSplit oder FFSplit für die meistgestreamten Games (wohl vorranging SC2 D3 MoP Dota2 LoL).
Intel ist da nicht zu schlagen, aber ich fände es schon interessant, wie weit man da mit einer APU kommen könnte.
 
CB hat hier mit 4 Speichermodulen getestet, und mit einem wahrscheinlich eher stromfressenderen Mainboard, welches sich allerdings gut für Übertaktung eignet.

Wenn man das System weiter optimiert, käme man mit dem idle-Stromverbrauch auch auf unter 30W, also hocheffizientes 200 - 300W Netzteil, nur 2 Speichermodule je 4GB @ 1,35V, und ein Mainboard mit weniger Spannungswandler-Elektronik (Überlast-Leistungsreserven):
http://asrock.com/mb/overview.us.asp?Model=FM2A75M-DGS Sowie natürlich die A10-5700 65W TDP APU
Das wäre dann schon ein recht idealer SOHO als auch Multimedia (HTPC) Computer, auf dem man sogar einige Spiele laufen lassen kann, bei dann sehr geringem Stromverbrauch (ohne extra Grafikkarte).
 
CPU und dedizierte Grafikkarte - so sieht das Szenario des interessierten CB-Lesers aus. Das es selbst bei den meisten die das ganze nun versuchen schön zu reden so ist kann man in vielen Fällen ihrer Signatur und/oder ihren jüngsten Posting rund um ihre dedizierten Grafikeinheiten im entsprechenden Unterforum entnehmen.

Zu diesem Szenario äußert sich das Fazit des Tests ganz klar (und hier wird auch schwerlich jemand von "aus dem Kontext gerissen" reden können) .

Paart man „Trinity“ dann im Spieleeinsatz mit einer schnellen, diskreten Grafikkarte, schmilzt der Vorsprung auf gerade noch zwei Prozent gegenüber „Llano“ zusammen. Selbst ein alter Phenom II X4 965 mit 3,4 GHz liefert die exakt gleiche Leistung wie „Trinity“ bei durchweg 4,0 GHz ab. Die Intel-Konkurrenz eilt in allen Lebenslagen auf und davon. „Ivy Bridge“ ist erwartungsgemäß auch in der Dual-Core-Version noch einen Tick schneller als der Vorgänger „Sandy Bridge“.
 
Zuletzt bearbeitet:
Sorry, aber Meetthecutthe kann ich echt mehr ernst nehmen, da kommt nur heiße Luft.

Ansonsten scheint Trinity für den OEM-Markt perfekt zu sein. Der OEM kann sich die Grafikkarte theoretisch sparen und der Kunde bekommt eine sehr ausgewogene Mischung.
 
Meetthecutthe schrieb:
Davon ab kommt für 95% der CB-Leser ohnehin nur eine dedizierte Grafikkarte in Betracht. Der GPU Teil des Prozessors ist somit fü diese Nutzer irrelevant (und wurde nicht umsonst separat getestet) ;) .

Es werden weitaus weniger sein, die eine dedizierte Grafikkarte in Betracht nehmen. Ich würde da auf ca. 60%-70% tippen.


Matzegr schrieb:
Trinity: 246 mm² bei 32nm-Fertigung
i3-Ivy: 118 mm² bei 22nm-Fertigung

Fertigungsvorteil 22nm vs. 32nm theoretisch: Faktor 2,1157

Nen hypothetischer Trinity bei 22nm-Fertigung würde auf ~123 mm² kommen, wäre also vergleichbar mit nem i3-Ivy.
Laut Intel kann man bei gleicher Performance die Leistungsaufnahme halbieren beim Umstieg von 32nm auf22nm.
Nehmen wir die Annahme als Grundlage würde ein hypothetischer 22nm Trinity nur noch bei 20% statt 80% mehr Leistungsaufnahme gegenüber den i3-3220 bei Last liegen, bei 5% mehr Gesamtleistung.

Was gemessen an AMDs finanziellen Möglichkeiten, gar nicht mal so schlecht wäre, oder?

Hätte, wäre, wenn. Intel hat sein Geld in die Verbesserung der Fertigung gesteckt. AMD hat damals ATi gekauft. Hat jetzt AMD eine unfairen Vorteil weil sie sich das Wissen und die Technologien von Ati geholt haben und sie in ihren APUs einsetzen?
Solche Vergleiche bringen rein gar nichts. Trinity ist nun mal in 32nm gefertigt und man muss damit leben das der DIE größer sowie der Stromverbrauch höher ist.
 
Matzegr schrieb:
Intel zieht doch mit, schau dir doch nur mal die Grafikleistungssteigerung im Haswell an. Von daher denk ich schon, dass wir bald mehr Software mit OpenCL Unterstützung sehen werden. ...

Es geht bei HSA nicht nur um die Leistungsstärke der iGPU. HSA ist mehr als klassisches GPGPU z.B. per Cuda, OpenCL oder DirectCompute. Es ist eine grundlegende Änderung der Systemarchitektur.

Ein Kernfeature von HSA ist z.B., dass CPU und iGPU erstmals gemeinsam auf einen Speicherbereich zugreifen können, so das das bisher nötige hin und her kopieren der Daten (das klassisches GPGPU für vieles uninteressant gemacht hat) nicht mehr nötig ist. Deshalb funktioniert HSA auch nicht mit dedizierten Grafikkarten. (Was einer der Gründe dafür ist, warum ich bezweifele, dass es noch allzu lange iGPU-lose FX-CPUs von AMD geben wird.)

Intel macht all das nicht mit und ist kein Mitglied der HSA-Foundation. (Nvidia auch nicht, aber z.B. ARM.) HSA wird also auf Intel-Rechnern nicht funktionieren.

@ nanoworks
Naja. Die Performancezugewinne von WoW durch DX11 waren nun aber auch mit einer ausgesprochenen High-End-GPU nicht gerade weltbewegend. Von einem Dualcore auf einen Quadcore aufzurüsten bringt mindestens genauso viel, trotz suboptimaler Multithreadoptimierung.
Ich finde nicht, dass das ein gutes Beispiel für HSA ist. Bzw. gibt es dafür noch gar kein Beispiel, denn es gibt ja noch keine Systeme, die das unterstützen. (Siehe oben.) Bisher gibt es nur rein theoretische Überlegungen über die möglichen Vorteile.
 
Casi030 schrieb:
ca gleiche Leistung in Anwendungen:
Llano 3GHz
Trinity 3,3GHz

Ich wollte eigendlich auf trinty wechseln , da mein Phenom II X6 ja doch schon deutlich was an Strom braucht , allerdings wäre trinty in sachen Leistung ein deutlicher Rückschritt für mich.
Jezt erstmal warten was Piledriver zu bieten hat .
 
Aquado schrieb:
Und als Paket reicht die CPU für 85% aller Anwendungen aus, schaut man sich die Benchmarks an dann liegt der mit den Top Desktop Prozessoren von AMD gleich auf +- und schlägt den Konkurrenten i3, also wo soll das für den Normalo nicht ausreichen?

Wenn man es auf die große Masse der normalen User umrechnet (auch Office-PCs), dann behaupte ich mal Trinity reicht locker für 99%.

Das restliche 1% sind die Nerds die hier jammern, dass es nicht genug Leistung ist.
Aber genau für das 1% ist die CPU doch garnicht gemacht, insofern weiß ich garnicht was es da zu jammern gibt.
 
Erschreckend, wie schlecht AMD inzwischen ist. Hoffentlich ändert sich das bald wieder.
 
@ Herdware:

WoW sollte ja nur als ein Beispiel dienen, ein anderes ist mir nicht eingefallen, und es zeigt halt, das enorme Potenzial bei vergleichsweise geringem Arbeitsaufwand für den Entwickler. Es zeigt aber auch was anderes:

Das GPGPU in WoW an seine Grenzen stößt ist selbstverständlich und die Antwort dafür lieferst du ja gleich mit, denn die Kommunikation zwischen CPU und dedizierter GPU ist einfach suboptimal. Das ist ja der Grund für HSA. Die vorhandene Rechenleistung in den GPUs soll endlich nutzbar gemacht werden und das funktioniert mit Grafikkarten nun mal nicht, GPGPU auf Grafikkarten ist eine Sackgasse, GPGPU auf APUs verspricht hingegen ein gewaltige Leistungsexplosion.
 
Zurück
Oben