Test Test: Trinity vs. Ivy Bridge im CPU-Test

Sehr guter Test, hab bis jetzt nur mal quer gelesen, aber ihr habt mal wieder gut reingehauen. :)

Und am Ende des Tages haben wir von 287 Kommentaren wiedermal 120 in denen steht, dass Intel Lichtjahre vorraus, die CPU zu teuer und zu ineffizient ist. :rolleyes:
Nur das diese Kommentare dermaßen sinnlos sind - betrachtet man die Firmenpolitik der beiden Unternehmen - wird nirgends stehen, also mach ich das mal exemplarisch. Außerdem ist es zu allererst keine CPU sondern APU ;)
Desweiteren finde ich es eine konsequente Weiterentwicklung, die höchstwahrscheinlich in der nächsten Entwicklungsstufe (Kaveri) mitsamt GCN erste Lorbeeren ernten wird.


Grüße
 
Gibt's irgendjemanden der sich einen Trinity kauft und nur die CPU Leistung möchte?

Schöner Test aber ich bezweifel, dass die Ergebnisse in der Praxis irgendeine Relevanz haben werden.
 
Schade das AMD nicht mehr konkurrenzfähig ist, das ist schlecht für die Preise.
Euer neues Preis/Leistungs- Diagramm hingegen gefällt mir sehr gut. (:
 
"Gibt's irgendjemanden der sich einen Trinity kauft und nur die CPU Leistung möchte?"

Was soll die Frage?

Man kann doch den Trinity nicht auf einen Part begrenzen, es geht um das Komplettpaket, sonst hätten die sich die arbeit sparen können, beises auf einen Die zu pflanzen.

Und als Paket reicht die CPU für 85% aller Anwendungen aus, schaut man sich die Benchmarks an dann liegt der mit den Top Desktop Prozessoren von AMD gleich auf +- und schlägt den Konkurrenten i3, also wo soll das für den Normalo nicht ausreichen?

Dazu der gute Grafikpart und das für ca 100 Euro!
Das einzige Manko ist der Verbrauch, wobei wir wieder realistisch bleiben müssen, der Käufer einer solchen APU rendert nicht 6 Stunden am Tag Bilder und Videos oder zockt 8 Stunden Battlefield, es geht um Office, Internet, Youtube und vielleicht mal das ein oder andere anspruchslose Spielchen.

Ich glaube nicht, dass da der Verbrauch relevant ist, den unter Idle liegt der Trinity gleich auf mit dem Intel, und für Games braucht es beim Intel eine extra Grafikkarte um gleiche Performace zu erreichen, damit liegt der Stromverbrauch bei gleicher Leistung Höher!
 
leute leute, wie kommt ihr drauf dass es für das Ding keinen Verwendungszweck gibt ?
Der Großteil der leute will macht mit ihrem PC nicht anderes als Surfen, DVD gucken und gelegentlich mal ein Spiel daddeln! Einen dementsprechenden AMD-Computer kann ich für ~300 € zusammenstellen - bei einem Intel brauch ich noch eine zusätzliche Grafikkarte und komm mit den höheren Preisen für Mainboards auf fast 400...
Und dass ein PC 90% im Idle ist dürfte euch doch auch klar sein, was regt ihr euch denn so über den Stromverbrauch auf -.-
 
nanoworks schrieb:
Nächstes Jahr kommt HSA...

Welche Anwendungen und Spiele sind denn für nächstes Jahr angekündigt, die dank HSA im großen Stil bisherige x86-Aufgaben auf die integrierte GPU auslagern?

Ich vermute eher, das wird ein sehr langsamer Übergang sein. Wahrscheinlich noch langsamer, als der zur Multi-Core-Unterstützung, der ja 6 Jahre nach den ersten Quadcores immer noch nicht ganz abgeschlossen ist.
Gut möglich, dass die ersten paar Generationen von HSA-APUs längst wieder veraltet sind, bis verbreitet Software existiert, die ihre Stärken nutzen würde. Wenn das überhaupt eintrifft.

Zum einen, weil nur der deutlich kleinere der beiden x86-CPU-Hersteller diesen Weg geht. Softwareentwickler optimieren erfahrungsgemäß eher für 80% des Marktes, nicht für 20%.

Und dann ist da noch der "gut genug"-Effekt, der AMD bisher geholfen hat, sich trotz Leistungssrückstand einigermaßen am Markt zu halten.
Warum sollten Entwickler sich umstellen und bemühen, per HSA Rechenaufgaben auf die GPU auszulagern, wenn selbst die x86-Leistung von kleinen und älteren CPUs für fast alles "gut genug" ist?
 
Meiner Meinung nach wurde hier deutlich zu wenig darauf eingegangen wo so ein Teil zum Einsatz kommt. Warum wird dauernt mit dem 3770K verglichen? Werden bei Grakatests auch Grafikkarten miteinander direkt verglichen die über 150% beim Preis auseinanderliegen? Ja, die Graka fällt um fast das 3fache zurück, ne das ist nun aber wirklich ne Sauerrei...

Stromverbrauch bei Last ist ja spitze theoretischer Natur aber völlig unbrauchbar um darauf mehrfach einzugehen oder das Fazit komplett darauf auszulegen. Ich habe auf einen 3770K gewechselt von meinem 5 Jahre alten Q6600 (beide OC), habe ein Strommessgerät über eine Woche laufen lassen und ausgewertet. Stromersparniss ...nicht erwähnenswert bei den Preisen. Im Idle tut sich da einfach nich viel und wer unbedingt Coins oder Seti laufen lassen will der hat den Schlag eh noch nicht gehört.

Trinity ist für mich eine sehr gute Apu, die beste auf dem Markt. Schon allein die grottigen Treiber von Intel und das bei deren Budget....ich bin, wie man vielleicht raushören kann, nicht wirklich begeistert von meinem 3770er... ;)
 
Ein gutes Ergebniss wenn man mal die Daten der Anwendungen auf Llano runterrechnet und den viel geringeren Verbrauch zum Fx beachtet.
AMD A8-3870K, 4C/4T, 3,00 GHz 49,5%
AMD Phenom II X4 965,3,00 GHz 4C/4T, 47,8%
AMD A10-5800K, 2M/4T,3,00 GHz 45,2%
AMD FX-4170, 2M/4T, 3,00 GHz 41,6%
Da schaut das Gesamtergebniss sehr gut aus.
 
beckenrandschwi schrieb:
Die Leistung, wofür AMD hier mächtig die Muskeln (großes DIE, hohe Leistungsaufnahme) spielen lassen muss, schüttelt INTEL einfach so aus dem Ärmel.


Trinity: 246 mm² bei 32nm-Fertigung
i3-Ivy: 118 mm² bei 22nm-Fertigung

Fertigungsvorteil 22nm vs. 32nm theoretisch: Faktor 2,1157

Nen hypothetischer Trinity bei 22nm-Fertigung würde auf ~123 mm² kommen, wäre also vergleichbar mit nem i3-Ivy.
Laut Intel kann man bei gleicher Performance die Leistungsaufnahme halbieren beim Umstieg von 32nm auf22nm.
Nehmen wir die Annahme als Grundlage würde ein hypothetischer 22nm Trinity nur noch bei 20% statt 80% mehr Leistungsaufnahme gegenüber den i3-3220 bei Last liegen, bei 5% mehr Gesamtleistung.

Was gemessen an AMDs finanziellen Möglichkeiten, gar nicht mal so schlecht wäre, oder?
 
Herdware schrieb:
Zum einen, weil nur der deutlich kleinere der beiden x86-CPU-Hersteller diesen Weg geht. Softwareentwickler optimieren erfahrungsgemäß eher für 80% des Marktes, nicht für 20%.

Und dann ist da noch der "gut genug"-Effekt, der AMD bisher geholfen hat, sich trotz Leistungssrückstand einigermaßen am Markt zu halten.
Warum sollten Entwickler sich umstellen und bemühen, per HSA Rechenaufgaben auf die GPU auszulagern, wenn selbst die x86-Leistung von kleinen und älteren CPUs für fast alles "gut genug" ist?

Traurig aber wahr.
Aber warum geht nur der kleinere von beiden x86-CPU-Herstellern diesen Weg? Weils der große einfach nicht kann. In dem Bereich hinkt Intel nun meilenweit hinterher - da kann man nichts schön reden.

Und das AMD mit Bulldozer eine gewagte Architektur geschmissen hat ist mit Hinblick aufs Große Ganze durchaus innovativ.
Immerhin macht man den weg frei für echte Innovation im Grundaufbau der CPU (oder besser gesagt APU).
Intel protzt von Jahr zu Jahr ihre Core-Architektur auf und fügt (wohlbemerkt aus Zugzwang) noch ne GPU auf den Die.

Die Architekturfortschritte von Intel sind viel sicherer und gehen stumpf in die selbe Richtung.
 
Wlkir100 schrieb:
Traurig aber wahr.
Aber warum geht nur der kleinere von beiden x86-CPU-Herstellern diesen Weg? Weils der große einfach nicht kann. In dem Bereich hinkt Intel nun meilenweit hinterher - da kann man nichts schön reden.

In Sache GPU ist Intel definitiv hinten an. Aber genau deshalb ist es natürlich für sie aus wirtschaftlicher/strategischer Sicht klug, weiterhin x86 zu puschen.

Vielleicht könnten Intels iGPUs auch in einem HSA-Design funktionieren. Die eher noch schwächeren/featureärmeren iGPUs von ARM-SoC sollen es ja zukünftig auch. Aber Intel hat natürlich kein Interrese daran, seinen größten Trumph, nämlich die überlegene x86-Leistung, zu relativieren.

Intel protzt von Jahr zu Jahr ihre Core-Architektur auf und fügt (wohlbemerkt aus Zugzwang) noch ne GPU auf den Die.

Immerhin haben sie das noch vor AMD hinbekommen. ;)

Die Architekturfortschritte von Intel sind viel sicherer und gehen stumpf in die selbe Richtung.

Ja. Auch bei Intel wird es Befehlserweiterungen (z.B. AVX2) und allgemein Verbesserungen der Archtektur geben, die die Leistung der x86-CPUs auch in den Bereichen deutlich steigern sollen, die die HSA-Gruppe in die iGPUs auslagern will.
Das ist natürlich ein deutlich konventionellerer Weg als HSA und APUs, aber damit ist zukünftige breite Softwareunterstützung auch wahrscheinlicher, als bei radikalen Neuerungen.
 
Zuletzt bearbeitet:
Herdware schrieb:
Ich vermute eher, das wird ein sehr langsamer Übergang sein. Wahrscheinlich noch langsamer, als der zur Multi-Core-Unterstützung, der ja 6 Jahre nach den ersten Quadcores immer noch nicht ganz abgeschlossen ist.

Zum einen, weil nur der deutlich kleinere der beiden x86-CPU-Hersteller diesen Weg geht. Softwareentwickler optimieren erfahrungsgemäß eher für 80% des Marktes, nicht für 20%.

Intel zieht doch mit, schau dir doch nur mal die Grafikleistungssteigerung im Haswell an. Von daher denk ich schon, dass wir bald mehr Software mit OpenCL Unterstützung sehen werden.

Und bei Spielen kann es auch schneller gehen als manch einer glaubt. Stellen wir uns mal vor die NextGen Konsolen von Sony und Microsoft erhalten statt nen Prozessor und nem Grafikprozessor eine APU und einen Grafikprozessor. Wobei der Grafikteil der APU u.a. Physikberechnungen übernimmt. Und schon hätte die integrierte Grafikeinheit bei AMD und Intel auch für Spieler eine Bedeutung, da eine Portierung auf den PC recht problemlos gehen sollte.
 
An sich keine schlechte CPU, man merkt jedoch deutlichen Unterschied zwischen 22nm und 32nm.
Wäre die CPU auch in 22nm gefertigt, wer weiß wie dann der Test aussehen würde ;)

Beim Preis könnte man sicherlich bei AMD günstiger rumkommen, da die Boards in der Regel günstiger als bei Intel sind. (zumindest mit vergleichbarer Ausstattung) auf lange Sicht hilft auch, dass die Sockel länger leben als bei Intel.

@CB:
Wäre es möglich in den Preisvergleich irgendein Board mit reinzunehmen (als kleiner Zusatz zu bestehendem System) , denn man kauft eher selten eine CPU ohne ein passendes Board.
 
Naja immerhin 10% mehr Leistung als der Llano A8 , bei gleichem takt würde das allerdings ganz anders aussehen .
 
Matzegr schrieb:
Mal ne Frage zu den "Performance-Leistungsaufnahme-Rating"

Was für einen Sinn hat eigentlich das "Performancerating zu Watt (Differenz Idle/Volllast)"?
Das frage ich mich auch seit dieser Wert eingeführt wurde. Wo ist da der Sinn zu finden und welche Aussage will man damit machen?

Allgemein finde ich es bemerkenswert, dass Planet3DNow einen Idlewert von 31 W für das Gesamtsystem erreicht und auch Anand einen Idlewert von 32 W für das Trinity System.
Aber den Abschuß hat ja xbitlabs mit Ihrem Test gemacht - mit einem 1200W Netzteil :freak:
Die kommen dann auch auf 53 W im Idle - das verwundert, da ja hier laut Testbeschreibung ein 400W Netzteil verwendet wurde und die Werte hier dem entsprechen. Wurde da die diskrete GPU drin belassen bei der Messung?

Edit: Aus eurem eigenen GPU Test:
Im Idle-Zustand kann Trinity auftrumpfen: Mit 34 Watt (gemeint ist der gesamte PC) schafft es der A10-5800K auf den ersten Platz in unserem Testfeld und zieht noch einmal ein Watt weniger aus der Steckdose als der A8-3870K aus demselben Hause. Intels Core i3-3220 ist mit 37 Watt dagegen etwas stromhungriger.
Was soll denn das für ein Leistungsaufnahmetest sein wenn das System hier im CPU-Test mit einer fetten GPU bestückt wird?

50410.png


Das sind mal schnell 20% Unterschied im Idle zum Intel 3220-System.

Herdware schrieb:
Immerhin haben sie das noch vor AMD hinbekommen. ;)
Wirklich? Mit welchem Produkt kamen Sie denn da zuerst raus das CPU und GPU auf einem Die integriert hat?
 
Zuletzt bearbeitet:
Wlkir100 schrieb:
Und das AMD mit Bulldozer eine gewagte Architektur geschmissen hat ist mit Hinblick aufs Große Ganze durchaus innovativ.

Die einen sagen dazu "innovativ" die anderen einfach "dumm" .

Man entwickelt nun mal als wirtschaftlich klug agierendes Unternehmen nicht am Markt vorbei. Das AMD sich nicht als solches Bezeichnen kann wurde wiederholt unter Beweis gestellt.
 
Zuletzt bearbeitet:
@ Herdware:

Der Vorteil von HSA APUs ist im Gegensatz zum Mehrkernprozessor die tolle Skalierbarkeit und genau deswegen bin ich davon überzeugt, dass sich HSA schneller durchsetzen wird als Multicore.

Wie ist es denn derzeit? Wenn du einen Vierkerner hast und das Programm nur zwei Kerne unterstützt, dann liegt 50% der Prozessorleistung brach. Es skaliert nicht automatisch mit mehr Kernen, das ist bis heute der größte Nachteil dieses Prinzips. Und für viele Kerne zu optimieren ist teilweise nicht wirtschaftlich, einfach weil extrem viele Menschen günstige PCs oder Notebooks nutzen und dort mehr als zwei Kerne richtig teuer und somit weniger verbreitet sind als vier Kerne.

Ein riesiger Vorteil der HSA ist, dass sie richtig günstig ist. Das heißt AMD kann die ganzen Low-Cost und Mobile Segmente mit dieser Technologie versorgen um somit sehr leicht eine Basis für die Entwickler schaffen. Die Skalierung erfolgt dann mehr oder weniger automatisch, ein tolles Beispiel für sowas ist World of Warcraft:

WoW unterstützt nur zwei Kerne und weil Blizzard das Spiel nicht auf mehr Kerne optimieren will (Kosten-Nutzen Aufwand stimmt nicht) haben sie klugerweise einen DirectX11-Pfad integriert, der die FPS mittels Direct Compute verbessert. D.h. WoW skaliert automatisch mit einer stärkeren Grafikkarte, weil viele Dinge die im DX9-Pfad von der CPU berechnet wurden jetzt mit GPGPU gelöst werden.

Das ist der große Vorteil der HSA: Wenn eine 50€ APU ausgereizt wird, wird automatisch auch die 250€ APU ausgereizt, denn das Arbeitsprinzip bleibt gleich. Anders ist es derzeit, denn wenn ein 50€ Zweikerner ausgereizt wird, wird der 250€ Vierkerner nicht automatisch ausgereizt und der 1000€ Sechskerner schon gar nicht.

Ausserdem ist es doch logisch, dass es irgendwann einen "point of no return" für Mehrkernprozessoren gibt, bei dem so viel Parallelität gefordert ist, dass die CPU gegen die Streamprozessoren der GPU nicht mehr anstinken kann. Wo dieser Punkt ist weiß ich nicht, aber ich denke auf dem Desktop werden wir auch in den nächsten Jahre nicht mehr als vier x86-Kerne sehen. Für laufzeitintensive Tasks ist das genug. Aufgaben die extreme Parallelisierung verlangen können effektiver mit den Streamprozessoren berechnet werden und da hat man dann obendrein die bereits angesprochene, überragende Skalierung.
 
Das ist das Fazit für den CPU Part. Eine APU besteht aber nicht grundlos aus CPU und GPU.
 
Es war ist das Fazit für eben diesen Test den wir aktuell kommentieren und somit richtig.
Davon ab kommt für 95% der CB-Leser ohnehin nur eine dedizierte Grafikkarte in Betracht. Der GPU Teil des Prozessors ist somit fü diese Nutzer irrelevant (und wurde nicht umsonst separat getestet) ;) .
 
Zuletzt bearbeitet:
Zurück
Oben