Test Test: Trinity vs. Ivy Bridge im GPU-Test

Naja es werden diesselben Spiele wie bei Grafikkarten Tests verglichen

aber genau das ist doch der witz an der sache. eben dass du einen bezugspunkt zu anderen tests hast. natürlich sind auflösungen und einstellungen nicht vergleichbar, dann käme man irgendwann bei 5 fps an ;)

natürlich muss man auch sagen, dass der aufwand, einen völlig neuen testparcours zu entwickeln, enorm ist, aber die spieleauswahl dient wie gesagt der leistungseinordnung, nicht der spieleempfehlung.

Ausserdem hätte ich mir auch gern einen Vergleich mit starken Karten von 2005 zur heutigen IGP gewünscht,
das wäre in der tat ein interessanter test, aber um nur mal so zu gucken ist der arbeitsaufwand doch schon recht groß. ist ja nicht so, dass wolfgang vor langeweile nicht weiß was er tun soll ;)
solche anregungen werden aber durchaus gern gelesen und in die überlegungen mit einbezogen.
 
Ich verstehe das Fazit und viele Kommentare hier nicht. Die Leistungsaufnahme ist in Spielen deutlich höher (66%) als bei dem i3-3220 aber dafür werden auch 150% mehr fps geliefert. Die Effizienz in Spielen ist bei Trinity deutlich besser als bei Ivy-Bridge.

Man könnte genauso gut sagen AMD ist sparsamer als Nvidia weil eine 680 mehr Strom braucht als eine 7750.
 
Schade nur,das sich die Leistung der Desktop APU nicht 1:1 im Notebook realisieren lässt,weil
der Strombedarf einfach zu hoch ist.Zumindest dürfte die gegenüber den i3/i5 fehlende CPU-
Leistung im Notebook-Segment nicht so stark negativ rüberkommen.Die 3D-Leistung ist ja wohl kaum kritkwürdig.Allerdings müßte auch hier mal in Punkto Speichergeschwindigkeit was passieren,wie man sieht.Aber man sollte AMD ja die Chance geben, an dem Problem Stromverbrauch bei Vollast weiter zu arbeiten.;)
Im Desktop kann man durch Trinity im 3D-Bereich bei HD Ready und vielleicht auch in HD Auflösung auch ohne zusätzliche AMD Grafik auskommen,wenn man in den Qualitäts-Einstellungen Abstriche macht.
Die CF Hybrid-Lösung, sollte nach dem CB-Test im Sinne der Vermeidung von starken Microrucklern
außen vor bleiben,und nur bei geringem Budget überhaupt interressant sein.
 
Zuletzt bearbeitet:
sie kommt auch im desktopbereich nicht so stark negativ rüber. das betrifft nur die enthusiasten ;)
ich arbeite mit einer auf 1 ghz untertaktetem core 2 duo mit einer untertakteten gf7900 gs und der hat für office, internet, daddeln und filme schaun noch satt und genug leistung. nur wenn richtige spiele gezockt werden, wird die leistung auf sagenhafte 1,66 ghz cpu und 450 mhz gpu raufgeschraubt.
im büro auf meinem i3 2100 schreiben sich die briefe keinen deut schneller und auch das surfen geht um keine sekunde schneller ;)
ist halt immer ne frage, wozu man die cpu braucht. auf dem gebiet von i7 3770k und fx8000 ist trinity eindeutig fehl am platz. ;)
 
Zuletzt bearbeitet:
Ja-außer bei Single threadet Anwendungen und Video-Bearbeitung,auf Grund der immer noch geringeren IPC des Trinity,sollte AMD gegenüber der Intel-Core i-CPU Leistung, bei Bürosoftware im Alltagsgebrauch keine allzugroßen Nachteile bedeuten.Für schnelleres surfen war ja ohnehin der Pentium4 zuständig...:D.Allerdings bei Blueray-Wiedergabe kommt eventuell ein negativer Beigeschmack auf.
 
Zuletzt bearbeitet:
Martricks schrieb:
Also ich finde Trinity sehr ansprechend. Für den Alltag ist die CPU Leistung ohnehin schnell genug, wenn man surft, nen Film kuckt oder was in Office schreibt. Auch das ein oder andere Game lässt sich damit mal spielen, wenn auch nicht auf vollen Einstellungen usw, aber für mich wäre das vollkommen ausreichend.

Seine Signatur:Asus Rampage IV Extreme////Intel 3930K////16GB Kingston 1600////AMD 7970////Win7 x64////SteelSeries Xai/7G////Intel Postville 160GB////Intel Cherryville 240GB////2xDell U2410 1xSamsung245B////Eyefinity

Für dich wäre die Leistung ausreichend? Tut mir leid, aber wessen PC die 2000€ Marke ankratzt der wird sich wohl kaum mit so einer APU zufrieden geben. Deine CPU kostete vermutlich mehr als ein Komplettsystem mit APU.
 
Laut AMD kann Trinity mit einer Radeon HD 6670, Radeon HD 6570 sowie einer Radeon HD 6450 zusammenarbeiten, unabhängig davon, ob als APU ein A10-, ein A8-, ein A6- oder gar ein A4-Modell eingesetzt wird. Jedoch empfiehlt AMD die Radeon HD 6670 ausschließlich für einen A10, während bei der Radeon HD 6570 zum A10 oder A8 und bei der Radeon HD 6450 zum A6 oder A4 geraten wird.
hab ich das richtig verstand,man kann A10 nur mit der 6670 im CF betreiben?:confused_alt:
oder geht das ganze auch mit einer HD7770/50 ?

wenn es geht,macht es überhaupt sinn,hat man da deutlichen fps Gewinn oder kaum spürbar?
 
@Chepre ja du hast richtig verstanden ;)
Die Begründung liegt einfach in diesem dusseligen AFR Verfahren welches bei CF und SLI zum Einsatz kommt.
Dabei rendern die GPUs die Frames abwechselnd. Idealerweise verwendet man dazu zwei Grafikkarten mit identischer Geschwindigkeit, damit die Abstände zwischen den Bildern annähernd Konstant bleiben.
Ist dies nicht der Fall beginnt eine Ruckelorgie, da dann z.B. zwischen Bild 1 und 2 ein geringer zeitlicher Abstand ist und zwischen 2 und 3 ein deutlich höherer zeitlicher Abstand. Selbst wenn im Mittel dann 50FPS erreicht werden, ist das trotzdem kein angenehmes Spielgefühl.
 
Ich bleibe dabei, diese APUs sind für Leute die kein Geld haben und sparen müssen und entsprechend wenig Ansprüche haben, zum richtigen Zocken zu wenig, für 2D zu viel Leistung, vor allem zu viel Verbrauch. Für mich sind das Office PCs mit Flashspieleoption. Eigentlich genau richtig für einen Wohnzimmer PC, dazu verbraten die aber zu viel.

Da gibts bessere Alternativen wie den Raspberry Pi, da kann AMDs oder Intels Stromschleuder nicht mithalten.
 
Selbst nach fast einem Jahr bekommt man von AMD nichts um die VCE Engine zu nutzen. Man wird nur gefragt, für welches Produkt man es nutzen möchte und wie viele Verkäufe man wohl erwartet.

Seit einem Jahr versuche ich nun ein SDK zu bekommen aber bisher vergeblich.
 
Lübke schrieb:
aber genau das ist doch der witz an der sache. eben dass du einen bezugspunkt zu anderen tests hast. natürlich sind auflösungen und einstellungen nicht vergleichbar, dann käme man irgendwann bei 5 fps an ;)

Vergleicht doch mal lieber die Performance zu alten Systemen ala AMD X2 @2,7GHz und ATI 3870 (also mein System :D) mit dem Trinity. Natürlich nur bei vergleichbarem Featureset.

Weitere Vergleiche wären die x1950 pro, die 8800GTX, die 7800GT (falls moderne Spiele damit überhaupt noch starten), die 4850, die 8800GT, 9600GT, naja die ganzen Klassiker halt.

Ich glaube das wäre viel interessanter zu sehen als der Vergleich mit irgendwelchen Low-End GPUs die hier wenige Nutzen und noch weniger einordnen können von der Performance.

Im Übrigen kann ich mit oben genanntem System (X2 + 3870, 2GB RAM) World of Tanks ausgezeichnet spielen mit allen Einstellungen auf medium (außer Schatten, teilweise aber auch noch höher). Das geht mit dem großen Trinity sicher genauso gut. Also an alle die meinen man kann damit nicht zocken: DOCH DAS GEHT EINWANDFREI UND SEHR GUT!

Ameisenmann schrieb:
Ich bleibe dabei, diese APUs sind für Leute die kein Geld haben und sparen müssen und entsprechend wenig Ansprüche haben, zum richtigen Zocken zu wenig, für 2D zu viel Leistung, vor allem zu viel Verbrauch. Für mich sind das Office PCs mit Flashspieleoption. Eigentlich genau richtig für einen Wohnzimmer PC, dazu verbraten die aber zu viel.

Da gibts bessere Alternativen wie den Raspberry Pi, da kann AMDs oder Intels Stromschleuder nicht mithalten.

Der nächste Spacko ders nicht schnallt, aber das kennt man von dir genauso wie von Kainer M. Wurde schon X-Mal erklärt:

1. Zum "richtigen Zocken" braucht man keine Ultra-highend-GPU, nicht mal eine aktuelle Mainstream-Karte. Siehe oben.
2. Dein Wohnzimmer PC wird kaum die ganze Zeit Vollast SuperPi rechnen, daher ist der höhere Verbrauch total irrelevant.
3. Und was du mit dem Rasp. Pi in der Windows Welt bei Otto-Normalnutzer anfangen willst, musst du mir auch mal erklären.


Lübke schrieb:
ich arbeite mit einer auf 1 ghz untertaktetem core 2 duo mit einer untertakteten gf7900 gs und der hat für office, internet, daddeln und filme schaun noch satt und genug leistung.

Nix gegen meinen 1,6GHz Pentium M "Dothan" und Radeon 9700 ;)

Surfen geht einwandfrei, bei Youtube geht er allerdings schon in die Knie. Wird ggfs. mal gegen ein Trinity Notebook eingetauscht, aber die Bildschirme in diesen NBs sind alle S*****, allein das hält mich vom Kauf ab.
 
Zuletzt bearbeitet:
"richtig zocken" darauf sollte man garnicht erst eingehen.. Wer definiert das den und warum eigentlich? :D

Was die APUs angeht, erst letztens Saints row 3 auf einem 3870k sys gezockt und hatte ne Menge spass.
 
Sehr interessanter Test. Ich werde mir wohl gegen Ende dieses Jahres / Anfang nächsten Jahres einen neuen PC kaufen. Und höchstwahrscheinlich auch nur ein Gerät mit einer APU zusammenstellen. Ich bin nicht so der Grafikhengst und wie man dem Test auf CB und vor allem dem Test von Tomshardware entnehmen kann, ist die Grafikeinheit schnell genug, um mit unter Spiele in guten Detail und/oder FullHD darzustellen.

Mir stellt sich allerdings die Frage, ob man beim Übertakten noch (wesentlich) mehr rausholt, wenn bspw. DDR3-2400er RAM (der ja von einigen Board angenommen wird) erzielen kann.

Ach und Frage zwei. Bei den Anwendungen für GPU-Computing wird von Grafikbeschleunigung gesprochen - Seite 11. Heißt das jetzt dass die CPU lediglich geboostet wird (ähnlich E-Motor bei Hybridautos), weil die GPU einen Teil der Arbeit abnimmt? Oder heißt Grafikbeschleunigung, dass die GPU alles übernimmt? Trifft Ersteres zu finde ich den Vergleich von A10 und i7 schon sehr gewagt - da ja auch der CPU-Teil dann sehr mitbestimmend ist.

Und eins noch zum Schluss. Ich kanns nicht mehr hören, dass die Grafikkarte für einen Gamer nicht ausreicht -.-! Seit wann definiert sich der "Gamerpegel" an der 3D-Darstellung? In meinen Augen regelt das eher die Zeit, die man mit PC-Spiele verbringt. Ich z.b. bin auch ein Gamer und brauch keiner Hammergrafik und FullHD zum Spielen.
 
Was die APUs angeht, erst letztens Saints row 3 auf einem 3870k sys gezockt und hatte ne Menge spass.
Stell dir vor ich hatte auch richtigen Spaß mit einer HD 6450 bei Borderlands 2 oder Max Pyne 3... Somit bezweifle ich auch nicht das man mit einer HD4000 spielen kann...
Ich für mein Teil werde mir eine FM2 Plattform zulegen. Ich kann die nächsten Jahre, ohne viel mühe, einfach die APU austauschen und mit shurican ohne Problem kühlen. Und ich hab ein kleines HTPC Gehäuse, da ist so was schon sehr vorteilhaft, besonders wenn man dann die Grafikkarte nicht mehr kühlen muss und es bei der TV karte wesentlich kühler wird.

Ich für mein Teil werde den turbo deaktiviern, die 4 cores untertaken und undervolten und die igp overclocken, damit ich noch mehr frames rauskitzeln kann. Mal sehen wie ich das mache, ob ich das im Bios gut regeln kann oder mal AMD Overdrive anschauen werde.
Die anderen die lieber dgpu und CPU austauschen wollen, können das ja auch dann so machen.

@HybridCF
hoffe ich zu mindestens dass man das ab Kaveri endlich gut gebacken bekommt. Denn dann würde ich mir vllt sogar eine HD7750 zulegen, wenn man die Performance einer 6850-6870 zaubern könnte, wobei die Performance vllt zu hoch gegriffen klingen.
 
Zuletzt bearbeitet:
schade:heul::heul::heul:
ganze warte zeit umsonst,währe nur die interne GPU in der lange extra zu berechnen,so da man diese an eine zbsp. HD7770 ankoppeln kann für ein wenig mehr power,dann währe das ganze für mich interessant.(dazu noch in Verbindung mit schnellem speicher).

aber so,total unbrauchbar,muss mich jetzt doch zum ersten mall seit Athlon XP Zeiten nach Intel Möglichkeiten umschauen.:freak:
 
Schu3 schrieb:
Und eins noch zum Schluss. Ich kanns nicht mehr hören, dass die Grafikkarte für einen Gamer nicht ausreicht -.-! Seit wann definiert sich der "Gamerpegel" an der 3D-Darstellung? In meinen Augen regelt das eher die Zeit, die man mit PC-Spiele verbringt. Ich z.b. bin auch ein Gamer und brauch keiner Hammergrafik und FullHD zum Spielen.

+1

Seh ich genauso. Ich spiel hier mit einem i3 350M@933 MHz (Cinebench R11.5: 1-CPU: 0,29 x-CPU: 0,73) mit einer HD 5650M. Klar bringt mir das bei 1920x1080 in z.B. GTA IV nur 17,8 fps und bei Deus Ex: Human Revolution knapp 25 fps. Trotzdem hatte ich Spass beim durchspielen!
 
@pipip

Somit bezweifle ich auch nicht das man mit einer HD4000 spielen kann...

Das rahm ich mir ein :D Das ist das erste mal das du das zugibst , sonst hast du immer behauptet das die gerade so officetauglich sei und man nur mit AMD Grafiken spielen könnte.
Dabei kann man schon einigermaßen mit wenig anspruchsvollen Titeln mit Westmere/Arrandale Grafiken spielen .
 
PunGNU schrieb:
Und genau das ist der Grund warum Trinity für den durchschnittlichen Privatanwender genial ist: Ein Trinity A10 ist allemale billiger und effizienter als ein i3 + gt430.
Wer eine GT430 kauft, ist auch selbst schuld. Für 5€ mehr bekomme ich eine HD6570 mit spürbar mehr Leistung, da noch'mal 10€ drauf und Trinity ist weit abgeschlagen. :rolleyes:

Lübke schrieb:
hier ging es aber explizit darum, die top-igp von intel mit der top-igp von amd zu vergleichen.
Ging es scheinbar nicht, denn der Test hinkt nur so vor Fehlern/mangelndem Horizont.

Trinity wurde mit dem billigeren i3-3220 verglichen, der nur die lahme HD2500 integriert hat. Hätte man im Test auf den aktuellen i3-3225 mit der integrierten HD4000 gesetzt, der genau so viel kostet, wäre das Bild nicht ganz so deutlich für Trinity.

Noch dazu fehlt in Gänze ein Preis-/Leistungs-/Stromvergleich, wenn man statt Trinity auf ein Intel-System mit dedizierter Grafik setzt.

Stattdessen wurde in diesem Test ein nackter i3-3220 getestet.

Der hier angebotene Computerbase-Test testet einzig und allein für eine Zielgruppe: HTPCs. Der Test trifft keine Aussage über die Wirtschaftlichkeit des Trinity auf dem Desktop. Denn da sollte man noch andere Konfigurationen getestet haben.

Draco Nobilis schrieb:
Zusätzlich müsste man irgendwie GDDR5 an die APU ankoppeln.
Wenn AMD dem Trinity eine Schnittstelle verpasst hätte, um den Mainboardherstellern eigene VRAM-Konfigurationen (GDDR3; GDDR5 etc.) onboard zu überlassen, bräuchte man sich nicht mit Kleinigkeiten á la 1866MHz-RAM rumzuschlagen. Bei onBoard-Grafikchips hatte es doch auch geklappt, warum kann man das nicht bei der APU ermöglichen? Ein Flaschenhals weniger. Und das sollte AMD hinbekommen - bevor es Intel tut.

Draco Nobilis schrieb:
Na ich denke nicht das es so lange dauern wird.
Das steht und fällt mit den Konsolen und einiger weniger Softwareprodukte.
Man entwickelt nicht 8 Jahre ohne HSA um dann in Jahr 9 und 10 plötzlich zu bemerken das die Hardware HSA kann xD
Wenn Konsolen HSA können wird es genutzt. Da APUs nächshter Gen das auch können wäre es bescheuert es nicht zu nutzen, damit vergrößert man seinen Kundenkreis als Entwickler bei Spielen um alle APU Nutzer. Sprich um alle Gelegenheitsspieler und Leute mit schmaler Brieftasche die Fertig-PCs kaufen.
Was glaubst du, wie lange die Industrie mit ihren Standards noch zu tun haben wird, bis sie alle unter einen gemeinsamen Hut passen?
nVidia hält an ihrem CUDA fest, viele Programme nutzen es bereits. Der offene OpenCL-Standard nimmt langsam an Fahrt auf und auch Microsofts DirectCompute ist nicht zu verachten.

Momentan ist nVidias CUDA Platzhirsch im GPGPU-Segment, wird aber fleißig beschossen. Wer aber die dominante Marktmacht besitzt, kann damit etwas spielen (siehe Intel...).

Es wird also noch eine ganze Weile dauern, bis sich HSA durchsetzt. Die Idee dahinter ist super, aber es wird sehr viel Zeit ins Land gehen, bis man sich gegen CUDA durchgesetzt und die Industrie überzeugt hat. Wenn AMD das überhaupt schafft.

p.s.: Ein Merkmal von HSA ist die Graphics-Core-Next-Architektur der Radeon HD7xxx-Familie. Der "Leak" von Infos zur XBox720 spricht von einem nVidia-Chip. Ob das feststeht, wage ich zu bezweifeln, aber dann könnt ihr die Verbreitung eures schönen HSA erst einmal weiter nach hinten stellen.

Draco Nobilis schrieb:
Übrigens ist die APU wirklich nur marginal schlechter in der CPU Leistung als der I3. Siehe CPU Test. Um ehrlich zu sein in meinen Augen sogar stärker da die APU AES kann, das spart sich intel bei dem I3
Das fehlende AES-in-Hardware erfreut mich auch nicht sonderlich, aber mal abwarten. Intel hat dem i3-3225 immerhin die HD4000 spendiert. Mal sehen, ob es noch eine Ausbaustufe des i3 geben wird - mit AES. Kommt eben auf die Nachfrage an.

In meinen Augen bietet der i3-3220 eine deutlich bessere Effizienz bei den Anwendungen, wenn kein AES zum Einsatz kommt. Er braucht nur etwas mehr als die Hälfte an Strom und hängt dem 5800K nur einen Hauch hinterher.

Mit dem i3-3225 hat Intel eine CPU auf dem Markt, die die Effizienz dann auch bei Spielen deutlich aufpoliert. Aber sowas testet man hier nicht. Hier testet man noch übergestern. :rolleyes:
 
Voyager10
Das rahm ich mir ein Das ist das erste mal das du das zugibst
Ist das dein ernst ? dann ließt du meine Beiträge nie richtig, ich habe zwar keine lust drauf nachzuschauen, aber du kannst ruhig in meinen Beiträgen nachlesen, dass ich nie gesagt habe dass man mit einer HD4000 nicht spielen kann.
Anderseits, werde ich von einer HD 6450 nicht auf eine HD4000 umsteigen weil ich mehr "CPU" Performance brauche xD
Ich hatte schon an eine HD7750 gedacht, aber dafür ist einfach zu wenig platz, somit muss es mindestens ein A10 werden.

Trinity wurde mit dem billigeren i3-3220 verglichen, der nur die lahme HD2500 integriert hat. Hätte man im Test auf den aktuellen i3-3225 mit der integrierten HD4000 gesetzt, der genau so viel kostet, wäre das Bild nicht ganz so deutlich für Trinity.
Vor einigen Tagen war der noch teurer, somit hat Trinity ja den Intel Fans ja einen Preisanpassung beschert.
http://geizhals.at/de/?phist=766342

Das fehlende AES-in-Hardware erfreut mich auch nicht sonderlich, aber mal abwarten. Intel hat dem i3-3225 immerhin die HD4000 spendiert. Mal sehen, ob es noch eine Ausbaustufe des i3 geben wird - mit AES. Kommt eben auf die Nachfrage an.
Um den i5 noch uninteressanter zu machen ?
Soviel ich weiß ist die Mehrperformance der CPU um genau 5% gestiegen. Der Vorteil des i3 wäre ein eventuell niedriger Verbrauch unter last. Was gaming angeht, muss es nicht bedeutet dass dieser wesentlich arbeitet. Aber ja, selber hatte ich auch gehofft auf ein i3 mit HD4000 im Test zu sehen.
 
Zuletzt bearbeitet:
@fortunes

Ich hätte das schon längst bemängelt das Computerbase hier nur die HD2500 mit der AMD Grafik vergleicht , würde in den Testdiagrammen nicht der Core I7 3770K mit der HD4000 dabei sein, die HD4000 ist aber mit dabei ;)
Warum man nicht gleich den i3-3225 genommen hat und dann nur ein Intel testet ist mir zwar schleierhaft aber so gehts ja auch noch , vermutlich hatte Computerbase das Modell nicht verfügbar.
 
Zurück
Oben