Test Test: Trinity vs. Ivy Bridge im CPU-Test

Herdware schrieb:
Intel macht all das nicht mit und ist kein Mitglied der HSA-Foundation. (Nvidia auch nicht, aber z.B. ARM.) HSA wird also auf Intel-Rechnern nicht funktionieren.

Abwarten, zwei Plätze scheinen ja noch zu vergeben zu sein. ;)
 
Aber für einen Office PC tut es auch die IGP vom I3.

AMD geht da schon den richtigen Weg aber für Gamer ist es nach wie vor noch keine Alternative. Ich hab ja selbst einen Llano und ja man kann damit mal ein Spielchen machen, aber so richtig dolle ist die Performance noch nicht. Im Officebetrieb merkt man keinen Unterschied.

Was ich nach wie vor nicht verstehe ist die mäßige CPU Leistung. Der Phenom 2 X4 wird im Januar 4 Jahre alt und bietet nahezu identische Performance.
 
Mal eine kleine Anmerkung:
Das ist kein Core i3 ;)



(Im Test auf Seite 5: Die Testkandidaten im Vergleich. Bild ist mit dieser Seite verlinkt)

Zu Trinity: Leistung für Multimedia PCs meiner Meinung nach vollkommen ausreichend, allerdings ist der Stromverbrauch schlichtweg zu hoch. Wenn ein i3 nur ein Drittel vom Trinity verbraucht dann fragt man sich schon ein wenig was die Leute bei AMD geraucht haben als sie auf die Idee kamen Bulldozer für den Consumermarkt (Im Serverbereich ist dieser durchaus sinnvoll) einzuführen.
Schade eigentlich, hatte für meinen Medien-PC eigentlich an einen Trinity gedacht.
 
Netter Test , vor allem auch der Undervolting Test! Den hätte ich mir auch beim Mobile trinity gewünscht
 
Hervorragender Test, danke sehr!
Ergänzung ()

ankabo schrieb:
Wieder ein Prozessor den niemand braucht.
Er verbraucht für seine Leistung viel zu viel Strom und wenn es um richtig Performance geht, hat er keine Puste. Hier scheint jeder € verschenkt zu sein.
Warten wir auf die nächste Baureihe von AMD, Intel kann sich ja zur Zeit zurücklehnen.

Wenn man richtig Performance braucht, greift man auch nicht zu AMD.

Und was immer auf dem Stromverbrauch herumgeritten wird, verstehe ich auch nicht. Wie viele Jahre willst du denn deinen PC laufen lassen damit sich der gesparte Strom bei Intel amortisiert? Hört bitte auf mit völlig unrealistischen Stromverbrauchsvergleichen. Bei mobilen Geräten, ok. Aber nicht beim Desktop.

Hier ist gar kein € verschenkt, denn wer AMD kauft, kauft bewusst AMD, weil er weiß, wozu er seinen PC einsetzen will und wozu nicht. Wer einfach zuviel Geld hat oder wirklich die CPU Power braucht, kauft Intel. So einfach ist das.


olcc schrieb:
leute leute, wie kommt ihr drauf dass es für das Ding keinen Verwendungszweck gibt ?
Der Großteil der leute will macht mit ihrem PC nicht anderes als Surfen, DVD gucken und gelegentlich mal ein Spiel daddeln! Einen dementsprechenden AMD-Computer kann ich für ~300 € zusammenstellen - bei einem Intel brauch ich noch eine zusätzliche Grafikkarte und komm mit den höheren Preisen für Mainboards auf fast 400...
Und dass ein PC 90% im Idle ist dürfte euch doch auch klar sein, was regt ihr euch denn so über den Stromverbrauch auf -.-

Wahre Worte. Für unsere Office PCs verbaue ich ausschließlich AMD APUs. Der kleinste erhältliche A4 ist schneller als alle alten Intels (das sind Erfahrungswerte, keine Benchmarks). Und wofür ein Büro PC eine High End CPU von Intel benötigt konnte mir auch noch niemand sagen.

Schade finde ich das Problem mit den Mikrorucklern bei Dual Graphics. Bei mir privat sollte der A10-5800K rein und bei einem grafikhungrigen Spiel wollte ich eine dedizierte GPU zustecken :(

Meetthecutthe schrieb:
CPU und dedizierte Grafikkarte - so sieht das Szenario des interessierten CB-Lesers aus. Das es selbst bei den meisten die das ganze nun versuchen schön zu reden so ist kann man in vielen Fällen ihrer Signatur und/oder ihren jüngsten Posting rund um ihre dedizierten Grafikeinheiten im entsprechenden Unterforum entnehmen.

Zu diesem Szenario äußert sich das Fazit des Tests ganz klar (und hier wird auch schwerlich jemand von "aus dem Kontext gerissen" reden können) .

Woher willst du wissen wie das Szenario des interessierten CB-Lesers aussieht? Du kannst doch nicht einfach ein paar Sätze aus dem Fazit nehmen und damit argumentieren. Du musst das Gesamtpaket sehen und das sieht ziemlich gut aus.
 
Zuletzt bearbeitet:
nebulein schrieb:
Was ich nach wie vor nicht verstehe ist die mäßige CPU Leistung. Der Phenom 2 X4 wird im Januar 4 Jahre alt und bietet nahezu identische Performance.

Guck dir doch mal den CPU Teil an. Die Architektur ist so designed, dass sie mit zukünftigen HSA APUs, also mit rechenstarken GCN Streamprozessoren harmoniert. Dafür nimmt AMD eben jetzt Nachteile in Kauf.

Trotz vier Integer-Kernen hat der A10 5800k beispielsweise nur zwei Gleitkommaeinheiten, bei Gleitkommarechenoperationen ist die Piledriver Architektur also richtig am Arsch im Vergleich zu den Intels oder den Phenom II, denn die haben eine Gleitkommaeinheit pro Kern, im Falle eines X4 also vier Stück, dass ist 100% mehr als bei Trinity.

Mit Blick auf die HSA braucht AMD aber keine Gleitkommaeinheit in der CPU und mich würde es nicht wundern, wenn diese auch bald komplett aus der CPU verschwindet und nur noch die iGP für diese Art Aufgaben genutzt wird.

Diese Designkompromisse ziehen sich halt durch die komplette CPU Architektur und mit Blick in die Zukunft sind sie eigentlich auch richtig. Das hilft der Trinity aber heute nicht weiter und in Benchmarks sieht das natürlich blöde aus.

AMD ist gerade dabei seine komplette Ausrichtung auf HSA umzustellen und das sowas nicht einfach wird haben die sicher auch vorher gewusst. Ich bin dennoch davon überzeugt, dass die den richtigen Schritt gemacht haben.
 
Herdware schrieb:
Ein Kernfeature von HSA ist z.B., dass CPU und iGPU erstmals gemeinsam auf einen Speicherbereich zugreifen können, so das das bisher nötige hin und her kopieren der Daten (das klassisches GPGPU für vieles uninteressant gemacht hat) nicht mehr nötig ist. Deshalb funktioniert HSA auch nicht mit dedizierten Grafikkarten. (Was einer der Gründe dafür ist, warum ich bezweifele, dass es noch allzu lange iGPU-lose FX-CPUs von AMD geben wird.)

Das ist nicht ganz richtig - HSA funktioniert zur Zeit nicht mit diskreten GPUs. Das soll sich aber bis 2014 ändern:
http://www.anandtech.com/show/5493/...ed-memory-for-cpugpu-in-2013-hsa-gpus-in-2014
In 2014 AMD plans to deliver HSA compatible GPUs that allow for true heterogeneous computing where workloads will run, seamlessly, on both CPUs and GPUs in parallel. The latter is something we've been waiting on for years now but AMD seems committed to delivering it in a major way in just two years.
Dennoch soll auch dann HSA dafür sorgen, dass eben keine Daten rumkopiert werden. Viel mehr soll automatisch erkannt werden welcher Workload schneller auf CPU und welcher schneller auf GPU zu einem Endergebnis kommt.
 
Ich freu mich auf 2014 und ich hoffe das AMD seinen Zeitplan einhalten kann.

Dann baue ich mir ein System aus einer 20nm APU, DDR4 Speicher und einer 20nm Radeon HD 9870 zusammen und wenn die Performance dann Mist ist dürft ihr mich alle auslachen... :D
 
Najanaja, für einen Spieletest finde ich es völlig in Ordnung auf GPGPU zu verzichten, aber da im Anwendungstest auch Cinebench auftaucht - GPU-Leistung ist nunmal beim Bulldozer-/Fusionkonzept Teil de CPU-Leistung. Das ist ja nunmal auch der Grund, warum ein Modul mit zwei Integerkernen nur eine FP-Einheit (SSE/AVX) hat, was wiederum der Grund dafür ist, dass alles aus der Bulldozer-Ecke in der FP-Leistung ohne GPGPU so "schlecht" da steht. Klar, bei einem Spieleleistungstest ist das nicht weiter relevant, da hier GPGPU noch ewig auf sich warten lassen wird, aber der Test gibt ja mit seiner Benchmarkauswahl vor, mehr zu sein, als das....
 
nanoworks schrieb:
...
Mit Blick auf die HSA braucht AMD aber keine Gleitkommaeinheit in der CPU und mich würde es nicht wundern, wenn diese auch bald komplett aus der CPU verschwindet und nur noch die iGP für diese Art Aufgaben genutzt wird.
...

Dann wäre diese CPU aber inkompatibel zu jeder klassischen x86-Software (zumindest alles, was nicht komplett Integer ist.) Ich denke nicht, dass AMD auf diese Kompatibilität verzichten kann. Besonders nicht, da ja nicht sicher ist, dass auch von der zukünftigen Software alles oder auch nur ein wesentlicher Teil HSA unterstützen wird.

Solange der "Marktführer" Intel nicht mitmacht und wie schon oft genug erwähnt an x86-Leistung eigentlich kein Mangel herrscht, ist der Anreiz für die Entwickler, auf HSA zu setzen, nicht sehr groß.

AMD wird sich ziemlich reinhängen müssen, um die Entwickler zu überzeugen und dabei zu unterstützen.
Wenn ich mir aber anschaue, wie das z.B. beim Bulldozer-Launch gelaufen ist... Wie kann es sein, dss es erst Monate später einen Patch für Windows gab? Und fast noch schlimmer ist, dass auch die Open-Source-Entwickler von der neuen Architektur offenbar kalt erwischt wurden und erst nach der Markteinführung anfangen konnten, ihre Software für Bulldozer zu optimieren.

Das muss bei HSA ganz anders laufen, sonst wird das immer ein weitgehend ungenutztes Feature bleiben.

Außerdem bin ich sowieso davon überzeugt, dass man für neue Features konventionelle Stärken nicht opfern oder vernachlässigen darf.
Das ist bisher immer schief gegangen. Z.B. beim Pentium Pro, der schon voll auf 32Bit optimiert war, als die meiste Software, einschließlich des damals nagelneuen Windows 95, noch zu großen Teilen auf 16Bit setzte. Entsprechend war der PPro ein großer Flopp.
Ein Beispiel wie man es richtig macht, hat AMD mit dem Athlon64 und der 64-Bit-Erweiterung gezeigt. Der Athlon64 war auch mit herkömmlicher 32Bit-Software eine ausgezeichnete CPU. Das 64Bit-Feature spielte die ersten Jahre keine bedeutende Rolle und lag fast immer brach. Der Athlon64 hat sich seinen Marktanteil also mit konventioneller Stärke erobert und hat dadurch mit AMD64 Fakten geschaffen, so dass Intel nichts anderes übrig blieb, als diese Erweiterung von AMD zu übernehmen.
 
Bin Entäuscht vom CB Test.
Trinity ist zu Llano eine verbesserung, da kann keiner was abstreiten. Intels I3 hat nur durch den Fertigungssvortel 22nm einen besseren Stromverbrauch. Mir ist es aber egal was meine CPU (Die man übrigends beide hätte ohne dedizierte GPU testen sollen) verbraucht. Im Idle wo auch mein System zu 90% ist, ist Trinity auf einem sehr guten Weg. Ich verstehe nicht wie man einen Mittelklasse Chip mit einer 400€ GPU koppeln kann, das ist sowas von Realitätsfern.
Ich hätte mir dann doch eher sowas gewünscht: https://www.computerbase.de/2011-09/bericht-gpu-braucht-cpu/

Dennoch scheint CB das Potenzial von Trtinity zu erkennen, denn im Fazit wirds ja aufgegriffen. Warum aber zweitweise so einseitig geschrieben wird, verstehe ich nicht. Warum hat man nicht einfach die zugesteckte Grafikkarte weggelassen oder zumindest sich auf eine 660 geschränkt..?
Sowas hätte ich mir eher gewünscht: http://www.pcgameshardware.de/Trini...10-5800K-und-A8-5500-Trinity-im-Test-1024192/
Komisch dass es andre Seiten können, nur CB nicht will

Zum Thema: http://www.planet3dnow.de/vbulletin/showthread.php?t=408290&garpg=22#content_start
 
Zuletzt bearbeitet:
@ Herdware:

Warum wäre die APU dann inkompatibel? Früher wurde die Gleitkommaeinheit sogar als eigener, externer Chip verbaut, irgendwann ist sie dann in die CPU gewandert. Die HSA schmeißt die Gleitkommaeinheit ja nicht raus, sie verlagert sie nur von (wenigen) FPUs in der CPU hin zu (extrem vielen) FPUs in der iGP.

Und ich denke der Deal mit Microsoft und Sony in Bezug auf die NextGen-Konsolen wird AMD helfen dieses Prinzip voranzutreiben. Ausserdem werden die APUs ab Kaveri genauso wie die Intel CPUs einen Hardwarekopierschutz beinhalten. AMD löst das dann mit integrierten ARM Kernen, so macht man sich unter Entwicklern zusätzlich "Freunde". Die HSA Foundation ist auch noch frisch gegründet und da sind richtige Branchengiganten mit im Spiel.
 
@nanoworks

Ganz ehrlich mich interessiert die Architektur einer CPU nicht sonderlich, auch ist mir relativ egal ob die innovativ designed ist oder nicht.

Mich interessieren eher die nackten Zahlen was kann die CPU/GPU/APU Stand heute. Das AMD da für die Zukunft in die richtige Richtung entwickelt, mag ja alles stimmen. Aber aktuell ist es doch an dem was auf dem Markt verlangt wird, vorbei entwickelt (Angebot/Nachfrage/Bedarf).

Was sie in 5 Jahren kann interessiert dabei nicht, denn bis dahin hab ich sowieso mir wieder eine neue gekauft, sowie die meisten hier und die werden dann auch das Produkt kaufen, dass dann aktuell in Preis/Leistung etc. für sie das beste Konzept bietet.

Kann ja gut sein das dies dann von AMD ist, mag ich gar nicht abstreiten, aber aktuell ist es einfach so das wenn man einen Phenom II X4 hat, sprich die eigene Kundschaft, nicht mit einem Produkt bedient, dass es rechtfertigt das alte abzulösen.

Ich meine nur Enthusiasten steigen von einem Phenom II auf die neue Architektur um und von Intel wird auch kaum einer auf Trinity/Piledriver wechseln.

Anders sieht es da im Laptopsegment aus wo man so einen Trinitiy Lappi ohne dedizierte Grafikeinheit durchaus gebrauchen kann. Aber wieso sollte ich im Desktopbereich aktuell nicht auf Intel bauen? Weder im Officesektor noch im Privatanwenderbereich ist da ein Verkaufsargument. Lediglich die Serverperformance ist wohl in einigen Einsatzgebieten schon durchaus ordentlich.
 
Thanok schrieb:
Mal eine kleine Anmerkung:
Das ist kein Core i3 ;)



(Im Test auf Seite 5: Die Testkandidaten im Vergleich. Bild ist mit dieser Seite verlinkt)

Doch, schau mal auf die Zeile Specifications. CPU-Z suxx da halt etwas rum, die sind leider nicht mehr das was sie früher mal waren, gibt da oft Fehler in letzter Zeit. Für die AMD-CPUs hab ich deshalb schon auf andere Dinge zurückgegriffen, um halbwegs Bestätigung zu bekommen.
 
Eigentlich Schade für AMD. Das Konzept finde ich gut. Für Office PC und Multimedia reicht die Leistung der Grafik. Zwar ist die Grafikpower besser als bei der HD 4000, aber für Spiele finde ich Leistung dennoch zu schwach, so würde ich keine Freude am spielen haben.

Und Zitat:
Wenn man zudem betrachtet, dass der Core i3-3220 mit gerade 33 Watt weniger als ein Drittel des neuen AMD-Flaggschiffs für die ungefähr gleiche CPU-Leistung benötigt, dann zeigt sich erst, wie groß die Unterschiede in dem Bereich wirklich sind.

Auch wenn hier schon darauf rumgeritten wurde, die Effizienz finde ich wirklich übel. Warum? Würdet Ihr ein Auto kaufen, dass bei gleicher Motorisierung die 3-fache Menge Treibstoff verbraucht? Ihr müsst doch den Strom auch bezahlen, oder? Ok, man fährt nicht immer Vollgas, aber ich denke auch bei Officeaufgaben, sozusagen im Teillastbereich, wird Intel deutlich besser sein. Sieht man auch bei der Widergabe von Blue-Ray.

Ich rechene nur mal kurz mit, sagen wir mal im Durchschnitt mit nur 25 Watt weniger Verbrauch 10 h pro Tag und 1000000 Millionen PCs, dann sind das 250000 KW/h die mehr erzeugt werden müssen. Für eine Person hält sich das in Grenzen, aber.... auch im eigenen Haushalt ist es sinnvoll auf den Stromverbrauch der einzelnen Geräte zu achten. Am Ende zahlt man die Zeche selber :freak:.
 
AMD-Mafiosi schrieb:
Dennoch scheint CB das Potenzial von Trtinity zu erkennen, denn im Fazit wirds ja aufgegriffen. Warum aber zweitweise so einseitig geschrieben wird, verstehe ich nicht.
Weil das hier die Nerd-Enthusiast-Version des Tests ist. Für die Real-World-Version hier klicken.

Ich dachte mir nach dem ersten Lesen auch zuerst, dass das hier wieder nichts wird. Aber eigentlich stimmt es, was hier öfter betont wird. Die reine CPU-Leistung ist nicht besonders gut und leider ist sie gerade in Spielen noch schlechter als im Schnitt. AMD muss die schlechte IPC mit zu hohen Taktraten kompensieren, deshalb die Spannung erhöhen und das resultiert in einer hohen Leistungsaufnahme. Die gesamte System ist im Ruhezustand - wo die meisten PCs den Großteil der Zeit verbringen sollten - allerdings so sparsam, dass die Leistungsaufnahme unter Last nicht zu sehr ins Gewicht fällt. Übermäßig groß ist der CPU-Teil nicht. Sandy Bridge war in 32nm mit einem winzigen Grafik-Teil 160mm² groß. Trinity besteht grob geschätzt zu deutlich über einem Drittel aus GPU. Intel hat einen deutlichen Fertigungs-Vorteil, aber den haben sie schon immer und nicht erst seit vorgestern.
 
Zuletzt bearbeitet:
Floletni schrieb:
Hätte, wäre, wenn ... Trinity ist nun mal in 32nm gefertigt und man muss damit leben das der DIE größer sowie der Stromverbrauch höher ist.

Das streit auch niemand ab, dass der Stromverbrauch größer ist. Selbst mit 22nm wär der Stromverbrauch größer als beim i3.

Es geht nur um solche Sinnlosen Sätze wie:

Mit einer Die-Fläche von nur 118 mm² spielt er jedoch in einer völlig anderen Liga als „Trinity“, der 246 mm² groß ist.

Das erweckt den Eindruck als ob AMD mit ihrer Architektur wesentlich mehr Platz braucht als Intel um auf eine ähnliche Leistung zu kommen. Das stimmt aber nicht, da ein Trinity und ein Ivy i3 ungefähr gleichgroß wären, bei gleicher Strukturbreite.
 
@ nebulein:

Da geb ich dir zu 100% Recht. Ich habs ja bereits gesagt: Trinity leidet genau unter diesen Designentscheidungen und für jemanden der an diesem Chip interessiert ist bringt der Blick in die Zukunft natürlich gar nichts.

Ich habe meine Postings auch eher an diejenigen gerichtet, die AMDs grundsätzliche Ausrichtung in Frage gestellt haben.
 
Danke für den Test, für mich ist da aber nichts SPannendes dabei.

Andere Frage:
Hier wird der i3-3220 zum ersten Mal getestet, war er es nicht wert, einen eigenen Test zu bekommen? Den kleinen Unterschied zu den SB-i3's sehe ich ja, aber dennoch..
 
Zurück
Oben