Test Test: Trinity vs. Ivy Bridge im GPU-Test

An dieser Stelle sei erwähnt, dass das verwendete Board nicht gerade sparsam ist. Planet3DNow! hat das an dieser Stelle mal getestet. Das Undervolting wird im Test auch geprüft.
 
Zuletzt bearbeitet:
Der Stromverbrauch ist absolut nicht extrem. Bitte hör doch auf, nur die großen balken anzusehen.
Es ist offensichtlich, dass ein 3770k mit einer Grafikeinheit, die gerade mal die halbe performance bringt, weniger stromverbrauch hat.
Unter CPU last sind es jedoch auch 10% mehr Verbrauch bei dem AMD. Dafür halt idle weniger. Ich halte den Stromverbrauch für gut!
Für die Mainstreamkunden ist das Ding doch toll. Laut Bench kann man sogar BF3 mit 1x AA zocken.
 
Das Fazit ist, so leid es mir tut, Müll.
Dasselbe gilt übrigens auch, wenn primär Blu-rays abgespielt werden sollen – Stichwort: Stromsparender HTPC. In dem Fall sollte man „Ivy Bridge“ vorziehen. Für alles andere ist Trinity bei dem Preis die bessere Wahl.
Zum Beispiel. Hier wird nicht beachtet, dass der Trinity die bessere Bildqualität hat, es noch kleinere Trinity Modelle gibt, die auch weniger Strom verbrauchen,...
An Hand des Topmodells zu empfehlen einen Intel HTPC gegenüber einem Trinity zu bevorzugen ist schwachsinn.

Auch die Empfehlung bei hoher benötigter Prozessorleistung auf Intel zu setzen. Das ist inzwischen anwendungsabhängiger als je zuvor. Teilweise ist der Bulldozer schneller als ein doppelt so teures Intel Modell.

Eine differenziertere Betrachtung beim Fazit wäre wünschenswert.
 
Unabhängig davon für welche Rechnerart die eine oder andere Prozessorart die beste ist, gefällt mir die Entwicklung bei AMD eigentlich sehr gut.

Sollten die es hinkriegen ihre APUs in den nächsten Generationen weiter zu verbessern und vor allem die verfügbare Software das APU Konzept unterstützen, könnte AMD auf lange Sicht auch im High Performance Bereich wieder ein Konkurent für Intel werden.
 
KainerM schrieb:
Also muss man den billigen Prozessor mit teurem Speicher kombinieren, damit was weitergeht. Die Energieffizienz ist katastrophal, sowas im Jahr 2012 anzubieten ist schon fast eine Frechheit.

Und ich bleibe dabei: lieber eine kleine Intel-Cpu mit einer diskreten Karte wie der HD 6570, bringt mehr Leistung, braucht weniger Strom und man kann auf billigen DDR3-1333 setzen, wodurch sich der Preisunterschied auch egalisiert.

Genau so. Und wenn man dann den erhöhten Stromverbrauch noch in € umrechnet, dann kann es sogar sehr gut sein, das nach 2-3 Jahren der Rechner mit dedizierter Graka sogar günstiger ist.

Ich sehe den Vorteil der AMD CPUs nur in einigen wenigen Bereichen.... Wirkliche Casualgamer, die kein BF3 zocken, sondern Sims oder andere anspruchslose Games, wo die Intel noch zu langsam sind, aber der Rechner extrem kompakt gehalten werden muss, zb AllInOne Computer oder irgendwelche Mini-Gehäuse.
 
KainerM schrieb:
Und ich bleibe dabei: lieber eine kleine Intel-Cpu mit einer diskreten Karte wie der HD 6570, bringt mehr Leistung, braucht weniger Strom und man kann auf billigen DDR3-1333 setzen, wodurch sich der Preisunterschied auch egalisiert.

So wird das aber nichts, weil AMD wieder mal nur über den Preis argumentiert, und da würde es mich nichtmal wundern, wenn in Komplettrechnern sogar DDR3.1066 verwendet würde, so wie die mobilen Llanos fast nie Dualchannel bekommen, obwohl es viel bringt...

Mfg

P.S.: der korrekte Gegner wäre übrigens der i3-3225 gewesen, der bringt für einen kleinen Aufpreis die HD4000 mit...


Tss man sieht nur einmal mehr das hier wieder einmal mehr nur auf die Vollast Verbrauch oder TDP geschaut wird. Abgesehen davon, dass das verwendete Board ein Stromfresser ist,
ist der IDLE Verbrauch beim Trinity besser als beim Ivy und im Idle wird der PC zum grössten Teil von der Masse am Meisten benutzt. :rolleyes:
Wenn man Ivy mit einer 6570 (60W TDP) kombiniert ist man a) teurer unterwegs und braucht b) Idle nochmals 10W mehr als schon vorher.
Also Strom sparen lässt sich so nicht.

Und die Vollast Werte von CB sind fraglich, ob man die in der Praxis wirklich solche Verbräuche erreichen kann wenn man das betrachtet:
http://www.planet3dnow.de/vbulletin/showthread.php?t=408290&garpg=22#content_start

Weiterhin bekomme ich für das selbe Geld wie für den kleinen Ivy "bei gewissen Anwendungen" etwas weniger CPU Leistung, oft aber auch etwas mehr.
Dazu eine GPU die Kreise um HD2500 und HD4000 fährt und auch mal für ein Spielchen zwischendurch für den Normalanwender einläd. Mit Treibern wo man bei Intel nur davon träumen kann.

Der Preis dafür ist etwas mehr Leistungsaufnahme unter Vollast die nicht ins Gewicht fällt weil a) von den meisten kaum jemals so belastet und b) falls doch dann kaum oft und kaum mit der CPU.
 
Zuletzt bearbeitet:
der Stromverbrauch unter CPU-Last scheint OK zu sein, für eine APU mit 100W TDP.

Also wenn man transkodieren CPU her nimmt, mit 108W Leistungsaufnahme Gesamtsystem, davon dann den idle-Wert abzieht von 34W, welcher ja auch auf andere Systemkomponenten entfällt, wie Festplatte, opt. Laufwerk, RAM, Chipsatz, usw., kommt man Daumen*Pi auf 74W Leistungsaufnahme vom CPU-Teil, in der Realität könnten es sogar noch ein paar Watt weniger sein, weil ja unter Vollast auch andere Komponenten aus dem Idle-Schafzustand aufwachen. Also Festplatten zB. brauchen idle auch weniger Strom, als unter Vollast, genauso RAM und Chipsatz. Insofern könnte man schätzen, dass die Abwärme an der CPU sich nicht auf 74W, sondern nur auf ca. 66W beläuft ...
 
Ich habe einen 120Hz 1080P Monitor.
Wer es einmal erlebt hat mit 120/100Hz im Windows zum Surfen, Arbeiten oder auch Spielen, der will nie wieder zurück zu 60Hz, alleine schon beim Scrollen von einfach Textseiten ist der Unterschied wie Tag und Nacht.

Meine Frage:
Stimmt es das der Ivy-Bridge noch immer nicht Dual-Link DVI über das Mainboard unterstützt ohne dem 1080p@120Hz nunmal nicht geht?
HDMI kann es nach Spezifikation definitiv nicht. Der Liano konnte das schon, der Trnity kann es dann vermute ich noch immer, oder?

Könnten Sie das bitte abklären, Sie als renomierte Testseite bekommen von den beiden Herstellern sicher eine verbindliche Aussage bezüglich diese Sachverhalts.

Danke
 
für Alle die sich über den Stromverbrauch beschweren schaut euch mal den A10 5700 (ohne K) an , der sieht in meinen Augen richtig interessant aus mit seinen 65W TDP.:)
 
HITCHER_I schrieb:
der Stromverbrauch unter CPU-Last scheint OK zu sein, für eine APU mit 100W TDP.

Also wenn man transkodieren CPU her nimmt, mit 108W Leistungsaufnahme Gesamtsystem, davon dann den idle-Wert abzieht von 34W [..]

Das ist aber auch alles sehr schön gerechnet. Die meisten Seiten messen halt teilweise deutlich höheren Verbrauch für Trinity beim Topmodell, beispielsweise hier: http://www.pcper.com/reviews/Proces...d-A8-5600K-Break-Cover/Power-and-Overclocking
Da sind die Extreme gar noch größer als bei uns. Letztlich ist der 5600K dort gleich schnell wie Llano in allen Belangen und verbraucht auch quasi exakt das gleiche. Also keinerlei Fortschritt in dem Segment.
 
Loopman schrieb:
Genau so. Und wenn man dann den erhöhten Stromverbrauch noch in € umrechnet, dann kann es sogar sehr gut sein, das nach 2-3 Jahren der Rechner mit dedizierter Graka sogar günstiger ist.
Klar. Vor allem, wenn du die 8W im Idle noch dazu rechnen musst.

Nehmen wir mal
i3-3220: 110€
Graka mit der Leistung des Trinity: 70€
Ram: 35€
Summe: 225

vs

A10-5800K: 110€
Ram: 45€
Summe: 155€

Differenz: 70€ (entspricht ca. 300kWh)

Verbrauch:
(Intel) Idle: 8W mehr
(Intel) BD-Wiedergabe: 10W weniger
(Intel) Last: 20W weniger (die Graka muss ja auch noch versorgt werden)

Tagesnutzung:
3h Idle (=24Wh mehr)
1,5h BD (=15Wh weniger)
1h Last (=20Wh weniger)

pro Tag also 11Wh geringerer Verbrauch beim Intelsystem. Von den gesparten 70€ könnte man den PC also 74 Jahre betreiben bis man preislich gleichauf liegt. Selbst wenn man die Nutzungsdauer verdreifacht ist es immer noch länger als jedes Consumer-PC System jemals genutzt wird. Vorher steht ein Austausch an.
 
Für den Desktop-„Trinity“ wird es gleich zu Beginn vier verschiedene Grafikeinheiten geben: Die Radeon HD 7660D, HD 7560D, HD 7540D sowie die HD 7480D. Die HD 7660D kommt dabei auf den A10-APUs zum Einsatz, die HD 7560D auf den A8-Pendants, die 7540D auf dem A6 und die HD 7580D auf dem A4.

Warum so verwirrend?
Warum wird die "kleinste" GPU auf einem "A6" APU verbaut, die nächst-bessere GPU jedoch auf einer "A4" APU (mit somit niedrigster Nummer) und erst ab A8 und A10 finden sich wieder bessere GPUs.

Sorry AMD, aber das ist EXTREM verwirrend!

EDIT:
Ich seh den vermeintlichen "Fehler" gerade:
Der Redakteur hat wohl statt "HD 7480D" aus Versehen "HD 7580D" getippert :)
Somit würde die Benennung der APUs auch wieder passen mit der "kleinsten" GPU im kleinsten APU (A4 + HD 7480D".


Cya, Mäxl
 
Zuletzt bearbeitet:
Volker schrieb:
Die meisten Seiten messen halt teilweise deutlich höheren Verbrauch für Trinity beim Topmodell, beispielsweise hier: http://www.pcper.com/reviews/Proces...d-A8-5600K-Break-Cover/Power-and-Overclocking
Letztlich ist der 5600K dort gleich schnell wie Llano in allen Belangen und verbraucht auch quasi exakt das gleiche. Also keinerlei Fortschritt in dem Segment.

Kein Fortschritt?
Ein normaler Rechner befindet sich die meiste Zeit im Idle. Bei dem Link braucht der 5600K im Idle 41W nen gleichschneller Llano 47W, das sind knapp 15% mehr für Llano. Selbst der schnellste Trinity ist im Idle noch rund 7% sparsamer als der Llano, dass unter Vollast (CPU und GPU! bei dem Test) Trinity mehr verbraucht ist ja auch logisch. Schließlich leistet die GPU auch mehr!
 
Also ich fin de auch, dass viele Leute die hier ihren Senf dazugeben virgendwo inihrer Welt gefangen scheinen. Schaut mal in andere Foren, zB von Spielen wo Du fast tgl jemanden dabeihast der fragt ob das Spiel auf seiner HD4000 läuft die in seinem Mediamarktrechner werkelt. Auch wenn wir uns hier unsere Rechner selber bauen, ist doch der wesentlich grössere Teil der Kundschaft da weitaus weniger wählerisch. Die gehen in den Elektronikmarkt und fragen dort nach nem PC für 799,- lassen sich noch was vom Pferd erzählen und schleppen das Ding heim. Das ist doch die Realität. Geh ma hin zu deinem Vater oder deinem Opa und guck was da unterm Tisch steht ;) Wenn die Leute mit dieser Technik ihren PC nun noch für 749,- statt 799,- bekommen, ist das für die doch Spitze.

Insofern, und auch insbesndere im Hinblick auf HSA ist das schon ein guter Schrit mit dem Trinity. Ich denke die Richtung ist schon sehr gut und auf lange Sicht mit Optimierungen wird sich das sicherlich auszahlen, diesem Weg zu gehen.
 
Interpretier ich die Benchmarks falsch, oder liefert ein (übertakteter) C2D der ersten Generation (2006) mit einer HD4830 (2008) bessere Performance beim Spielen als der A10?
Bin irgendwie ziemlich enttäuscht
 
Vielleicht hat in Zehn Jahren keiner mehr eine dezidierte Grafikkarte, weil die Integrierte schon so stark ist, dass sie die Dezidierte ganz einfach abgelöst hat.

Im Moment sehe ich allerdings auch nur beschränkt Verwendungszweck für Trinity. Ich betrachte das einfach als eine Entwicklung - und nichts war/ist von Anfang an perfekt.
 
Hätte mehr erwartet, aber ist finde ich gut gemacht das man nun 2.133er ram spürbare vorteile hat.
 
Die schon beim Vorgänger viel zu hohe Leistungsaufnahme unter CPU-Last ist hier also noch schlimmer geworden. Bin allerdings gespannt, ob der "A10-5700" (mit 65W TDP) in der Hinsicht wesentlich besser aussieht.
 
Trinity ist nicht wirklich eine richtige Entwicklung. Das ist das selbe, veralterte Chipsatz-Konzept von früher. Nur diesmal mit mehr dedizierten Transistoren für den Grafikteil. Selbst die Speicheranbindung zwischen CPU und GPU läuft bei AMD fast noch komplett getrennt über das Speicherinterface.

Kein Fortschritt zu sehen. Da stellt man sich echt die Frage, was die 6 Jahre nach der Übernahme von ATi überhaupt getan haben...
 
Zurück
Oben