Test AMDs „Richland“ im GPU-Test

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.547
Der große Leistungssprung wird erst mit „Kaveri“ kommen, doch vorher gibt es mit „Richland“ noch ein kleines Geschwindigkeitsupdate. Wir haben die zwei schnellsten AMD-APUs getestet. Sowohl auf dem A10-6800K als auch auf dem A10-6700 hat AMD die Taktraten ein wenig angezogen und will sich so ein Leistungsplus erkämpft haben.

Zum Artikel: AMDs „Richland“ im GPU-Test
 
Die GPU lässt wie erwartend, Intels Grafikeinheit locker hinter sich. Schade, dass eine Intel CPU so teuer ist und doch grafiktechnisch nicht ansatzweise hinterher kommt.

Edit:
Da stell ich mir ja die Frage, ob DDR3 2800 RAM noch weiteren Leistungszuwachs erbringen würde. Weiß das einer?

Mfg
JeverPils
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Der neue AMD A10-6800K ist gute 20 Prozent schneller als der ältere A10-5800K – angesichts der Tatsache, dass die Grundarchitektur gleich geblieben ist, ein gutes Ergebnis....Mit einem von uns erwarteten Kaufpreis zwischen 120 und 140 Euro für den A10-6800K lässt sich mit Abstrichen – anders als bei Intel – also durchaus spielen....Dafür ist jedoch ein sehr schneller Speicher nötig. Wir empfehlen, direkt zu DDR3-2.133 zu greifen, denn selbst bei DDR3-1.866 verliert man bereits deutlich an Leistung.
Klingt gut, langsam kann man APUs wirklich auch zum Spielen nehmen.
Noch würde ich selbst aber eher eine dGPU empfehlen.
Spätestens mit der nächsten Gen wird sich das aber ändern.
 
Zuletzt bearbeitet von einem Moderator:
Habe den Test zwar jetzt nur kurz überflogen, aber die APU von dem A10-6700/6800K ist gegenüber zu ihrem Vorgängern nochmal deutlich besser, also da hat AMD gute Arbeit geleistet.
Bin auch gespannt drauf wie es sich in den nächsten Jahren entwickelt.
 
Hmm...

- an der CPU hat sich nüx getan
- schneller Speicher ist wichtiger denn je
- der A10-5800K war 66% schneller als der i7-3770K, der A10-6800K ist nur 54% schneller als der i7-4770K...

das wäre mein persönlicher Fazit
 
matty2580 schrieb:
Na denn einmal in Ruhe lesen....^^

Ist ja eigentlich nur ein Trinity 2.0


Bei 5% mehr Takt 20-25% schneller? ähm ja ^^
und trotz 10% mehr CPU takt 5% merh GPU takt und 15% mehr schnellerer SPeicher geringerer Verbrauch

da muss schon ein wenig mehr passiert sein,

Intel hat mit Haswell, einer neuen Architektur weniger geschafft wenn man einfaches anflanschen von mehr einheiten weglässt
 
mal eine dumme frage (bin in der APU-materie nicht so bewandert):

wenn dort steht "6800K + HD6670" ist das eine art CF oder läuft die 6670 alleine?
für ein CF wäre 23% plus ggü. der APU alleine ein bißchen wenig, finde ich.

und wenn es kein CF ist: warum nutzt man das nicht?
 
Also ich finde, wenn jemand nicht auf eine separate Grafiklösung Angewiesen ist, dann ist man mit AMD sicherlich viel besser Bedient!

Ich finde auch die Resultate der neuen Haswell Architektur nicht gerade Erfreulich, da wie schon gesagt wurde die doch deutlich mehr kosten als die neuen AMD's!
 
hongkongfui schrieb:
wenn dort steht "6800K + HD6670" ist das eine art CF oder läuft die 6670 alleine?
für ein CF wäre 23% plus ggü. der APU alleine ein bißchen wenig, finde ich.

Glaube das ist nur CPU + GPU, kein CF.
Allerdings verwundern mich die Werte bei Torchlight 2, scheint die GPU der APU schneller zu sein als die HD6670.
 
Zuletzt bearbeitet:
Ich bin doch schon ziehmlich erstaunt, was AMD so "lässig aus dem Ärmel schüttelt", während Intel sonst was für Klimmzüge machen muss, um die Leistung um 30% (oder mehr im Notebook-Segment - bevor sich jemand auf die Füße getreten fühlt) steigern zu können. Dafür, dass AMD an der Architektur rein garnichts geändert halt, nur den Takt um 5,5% erhöht hat und neuen DDR3-2133-Speicher und 4 neue Powerstates nutz, sind die 21% Leistungssteigerung eigentlich schon erstaunlich. Noch krasser wird es ja, wenn die iGPU mit dem gleichen Takt arbeitet, wie die Haswell-GPU (tolles Stichwort, die Intel-Fans schreien ja immer "Haha ist AMD schlecht, 500MHz mehr Takt und trotzdem langsamer!" ;) ), dann legt man ebenso ca. 30% zu, wie Intel und das wohlgemerkt bei unveränderter Architektur.
Mit Richland sollte man die GT3e ja wieder eingeholt haben. War die nicht ca. 25% schneller als die HD7660D?

Allerdings wundert mich die erheblich höhere Leistungsaufnahme beim Übertakten, dann doch. War es nicht bei Trinity so, dass durchs Übertakten, die Leistungsaufnahme kaum anstieg? Liegt das vll. jetzt daran, dass durch die Mehrleistung der CPU-Teil von Richland mehr arbeiten muss und dadurch die Leistungsaufnahme zusätzlich steigt?

Rickmer schrieb:
Hmm...

- an der CPU hat sich nüx getan
- schneller Speicher ist wichtiger denn je
- der A10-5800K war 66% schneller als der i7-3770K, der A10-6800K ist nur 54% schneller als der i7-4770K...

das wäre mein persönlicher Fazit

Stimmt, AMD ist nur 54% schneller als die GT2. Allerdings hat Intel ja eine komplett neue Architektur gebracht und den Takt um ca. 10% erhöht. Woraus halt 30% Leistungszuwachs entstanden. AMD hat nur 5,5% an der Taktschraube gedreht und sonst nur schnelleren RAM-Unterstützt + 4 neue Powerstates. Die Architektur ist immer nur die gleiche "Alte". Von daher sind 21% Steigerung schon mehr als okay. Das ist immerhin eine größere Steigerung, als AMD und NVidia im dGPU-Bereich an den Tag legen.
 
Zuletzt bearbeitet: (Weil Haie nicht rückwärts schwimmen.)
Schu3 schrieb:
während Intel sonst was für Klimpzüge machen muss

Was macht Intel? Was sind Klimpzüge? :freak:



Von daher sind 21% Steigerung schon mehr als okay. Das ist immerhin eine größere Steigerung, als AMD und NVidia im dGPU-Bereich an den Tag legen.

Intel hat den Abstand ordentlich verkürzt, bitte die Fakten nicht verdrehen. Und die getestete Version ist nicht mal die schnellste.

Was ich witzig finde, man testet auf Laptop-Auflösung, verwendet dann aber Desktop-CPUs. Dort haben die meisten Leute aber mittlerweile Full-HD Bildschirme und kaum einer wird die Auflösung in einem Spiel so weit nach unten drehen wollen.
Wo es aber interessant wird, ist auf Laptops. Da bieten viele Displays keine höhere Auflösung und dort liegt Intel mit der maximalen Ausbaustufe witzigerweise vorne.

Für AAA Spiele auf realistischen Auflösungen sind die APUs leider immer noch unbrauchbar, für die meisten Indi-Games reicht mittlerweile auch Intel.
 
Beim Bioshok infinite Test ist die Bf3 tabelle drüber.
Hab ich gesehen. (Kann man korregieren ist aber nicht nötig)
;)
 
Kaum mehr Leistung als ein 965 :D Hab ich mir gedacht. Trotzdem lieber ein 965 und übertakten :p
 
@vir0

Du verstehst schon den Sinn der Richland APUs?
Der Phenom besser? Echt, wusste garnicht, dass er eine integrierte Grafikeinheit besitzt...
 
Sehr schön! Dann kann der A10-6700 ja Einzug in mein System halten. Wer, wie ich, diesen ganzen an Accounts geknebelten Kram boykottiert und nur ältere und weniger anspruchsvolle Titel spielt, der hat mit einer solchen APU doch klasse Hardware vor der Nase.
Keine dedizierte Graka, die unter Belastung nen Haufen Strom zieht, ein Lüfter weniger, deutlich kleineres Gehäuse möglich und mit gerade mal 65W TDP kann man einen A10-6700 locker auch passiv kühlen.

Oh, das wird geil.
 
mhhh mich juckt es ja schon in den Fingern....
Rüste ich meinen 5800K auf? :D
Der Preis muss sich mMn noch ein wenig senken. Fast 30€ Aufpreis ggü 5800K ist zu viel.
Wie die aber aus der alten Architektur 20% raus geholt haben? o0
Respekt.
 
Sieht doch ganz gut aus. ist jetzt keine Revolution, aber ein ordentliches Update für Trinity (zumal Richland ja eher nur ein Lückenfüller ist). Ich bin echt gespannt, was dann Kaveri in einem halben Jahr leisten wird - 28mm, GCN und Steamroller, da hab ich großer Erwartungen dran.
 
Nix weltbewegendes. Bei der Überschrift für den Artikel hätte ich mir mehr erwartet. Für mich sollte die eher lauten "Intel holt auf". ca. 20% Mehrleistung bei der GPU und 5% bei der CPU, aber nur mit extrem schnellen und entsprechend teurem Speicher, das macht den Preisvorteil der APU zunichte. Man sollte bedenken, dass der Test mit Speicher gemacht wurde, der ca. 2-3 Mal so teuer ist wie DDR3-1600 CL9.

Und was man wohl nur als "AMD-Marketing" verstehen kann ist dass man den i7 nur mit einer GT630 als Partner antreten lässt, während der A10 eine wesentlich schnelere HD6670 als Partner bekommt.
Und die Aufstellung zum Testsystem ist ja mal völlig, komplett und durchgängig falsch.

mfg
 
Zuletzt bearbeitet:
Bei aktivierter GPU-Beschleunigung werden die Transcodierzeiten in etwa halbiert und die Differenzen zur Vorgängergeneration liegen dann bei sieben beziehungsweise 20 Prozent. Doch auch hier hat Intel die Nase vorn.
https://www.computerbase.de/2013-06/amd-richland-gpu-test/4/


Doch leider erkauft sich Intel das wohl mit schlechtere Qualität, selbst zwischen Haswell HD4600 und Ivy HD4000 soll es sichbar sein.

http://www.anandtech.com/show/7007/intels-haswell-an-htpc-perspective/8
QuickSync Gets Open Source Support, Regresses in Quality

In our opinion, the QuickSync results on HD4600 appear to be worse than what is obtained on the HD4000.
With Haswell, Intel introduced seven levels of quality/performance settings that application developers can choose from. According to Intel, even the lowest quality Haswell QSV settings should be better than what we had with Ivy Bridge.
In practice, this simply isn't the case. There's a widespread regression in image quality ranging from appreciably worse to equal at best with Haswell compared to Ivy Bridge.
I'm not sure what's going on here but QuickSync remains one of the biggest missed opportunities for Intel over the past few years.
The fact that it has taken this long to get Handbrake support going is a shame.
Now that we have it, the fact that Intel seems to have broken image quality is the icing on a really terrible cake.
 
Zurück
Oben