Test AMDs APU „Kaveri“ im Test

ICh vermisse die klassischen CPU benches. Cinebench, Winrar packen... um zu sehen, wie denn der reine CPU teil denn so im Vergleich zu den intels ist.
 
@ 4K

Hardware-based support for the brand new H.265 / HEVC codec that will be used for 4K content is not yet a part of UVD, but there's good news in this department. Together with Telestream, AMD has developed HEVC codec that uses HSA that's able to play 4K HEVC content on Kaveri with a very low load on the CPU. It's unclear how and when that codec will become available to consumers, but the fact that the chip is specifically suitable for 4K HEVC is great news if you want to build an HTPC. AMD also wants HSA to be used for Open Source projects, so it wouldn't surprise us if they release an HSA-compatible OpenCL open source H.265 codec.

http://uk.hardware.info/reviews/515...iew-amds-new-apu-extras-trueaudio-and-new-uvd

hmm weiß nicht was ich davon halten soll...
 
Krautmaster schrieb:
vielleicht reicht dir da auch ein Celeron 35€ mit 2x2,7 Ghz (Haswell) + nen 35€ Board?

Du hast die 100€ Graka vergessen... sieh es mal ein, AMD hat wieder mal was besseres als Intel auf die Beine gestellt. Rechnet man den Technologie-Vorsprung noch mit, knackt Intel sauber ab...

Kein Wunder, dass Intel kalte Füße bekommt und den mobile Markt abzuschotten versucht...
 
Bin mal gespannt auf den, hoffentlich noch kommenden, genaueren CPU Test.

Bei Anwendungen die viel FP Operationen haben könnte der zweite Decoder schon etwas bringen, da der INT Overhead dann parallel dispatched werden kann.

Bei Anwendungen die kaum FP benutzen (z.B. 7-Zip) wird’s wohl eher nichts bringen.
Glaub kaum, dass hier der optimierte Instruktion Cache und die bessere Sprungvorhersage 'so' viel bringen.

Mal abwarten ob es „average ~10%“ werden … bin gespannt ...
 
hrafnagaldr schrieb:
Daraus schließe ich aber auch, dass die Leistung für Decoding gepasst hätte.

Naja, nicht so ganz... ohne Decoding support kann man 4k Videos quasi abhacken außer man nimmt nen sehr effizienten Codec.

Their x86 performance is not high enough to correctly decode the 4K video clip, so we have nearly 100% CPU load and dropped frames. Thus, Socket FM2 platforms seem to be useless when it comes to 4K video formats, which puts their perspectives in modern multimedia computers and HTPCs under question.

Nun ist zwar seitens AMD was angekündigt... in Hardware wäre mir aber lieber und Intel + Nvidia zeigen schon heute wie effizient man 4K beschleunigen kann. Ist halt immer die Frage bis wann etwas "in software" dann wieder für alle Plattformen (linux, win etc) verfügbar ist.
 
zombie schrieb:
Aber schon schade das die Ram Speicheranbindung soviel Leistung bremst wenn man die Tests mit separater 7750 sieht. Da wird viel Potential verschenkt. Kann Mantle daran was ändern ?

Interessante Frage. Evtl. wenn HSA mit einbezogen wird, denn ich könnte mir vorstellen das ein Teil der Bandbreite für sinnfreie Kopieraktionen draufgehen die mit hUMA eigentlich nicht notwendig wären. Aber der Code ist bisher halt noch nicht drauf vorbereitet das man zwischen CPU und GPU Speicher nicht mehr umkopieren muss.

Ein Punkt auf den ich auch noch bei der PS4 gespannt bin, ich könnt mir vorstellen das die Grafikengines der aktuellen Speile das auch noch nicht voll ausnutzen.
 
Hans_Hinterseer schrieb:
Du hast die 100€ Graka vergessen... sieh es mal ein, AMD hat wieder mal was besseres als Intel auf die Beine gestellt. Rechnet man den Technologie-Vorsprung noch mit, knackt Intel sauber ab...

Kein Wunder, dass Intel kalte Füße bekommt und den mobile Markt abzuschotten versucht...

100€ Graka? Der Test zeigt dir doch wie ne 50€ Graka bereits zu Release schneller ist.
 
Die CPU Leistung ist doch für den Normalanwender eh mittlerweile schon viel zu hoch. Wenn da immer wieder über die schlechtere CPU Leistung der AMD CPUs gemeckert wird, kann ich mittlerweile nurnoch drüber lachen. Nicht einmal viele der Gamer lasten ihre arschteuren Intel CPUs auch nur annähernd aus. Gewartet, bis die Leistung benötigt wird, wird aber auch nicht. Nee, es muss mindestens alle zwei Generationen ne neue CPU sein, auch wenn die alte noch locker reichen würde.

AMD muss es einfach endlich schaffen, seine APUs in viel mehr Fertig Systeme zu bringen. Gerade das ganze Zeug, was immer bei den Discountern verkauft wird, wäre prädestiniert für die APUs. Mit den Dingern kann man mittlerweile auch gut spielen (der Discounter Kunde spielt kein Crysis 3) und somit sind die Teile perfekt für diese Multimedia Systeme.
 
Loopman schrieb:
Nö, definitiv nicht!
Da reicht auch ein 35-55€ teurer Celeron/Pentium locker aus.

Ja, das sehe ich an meinem i7-3520M im "Office". Was glaubt ihr denn, was ein "Office-PC" heutzutage können muss? Ne Schreibmaschine ersetzen? Das war mal in den 90ern ;)

Der i7 hier im "Highend" Laptop kommt oft genug an seine Grenzen.
 
Fazit schrieb:
Auch dort zeigt sich das Problem, dass der GPU eine zu geringe Speicherbandbreite zur Verfügung steht. Denn obwohl wir den GPU-Takt um hohe 39 Prozent erhöht haben, verbessert sich die Performance um noch nicht einmal zehn Prozent.
Mich würde ja interessieren, wie das ganze aussieht, wenn man etwas Eyecandy -der die Speicherbandbreite nicht frisst- einstellt.
 
CPU-Leistung = absolut ausreichend für die allermeisten (+95%?!?) Anwender, selbst die, die mal ein Bild um 90° in Photoshop drehen wollen und meinen sie wären's! Auch für die, die mit extra Grafikkarte spielen reicht die Leistung locker aus - abolute Werte hin, absolute Werte her!

Gibt da einen seeehr interessanten und aufschlußreichen Artikel auf www.ocaholic.ch - wäre mal eine Empfehlung für die Intel-Fanboys!!!

GPU-Leistung reicht auch für +95% (?!?) aller Benutzer die mal in der Brotzeitpause schnell schauen wie bei google maps die Lage ist.

Mal ganz abgesehen davon ist der Preis einfach eine hammer Sache - so viel CPU+GPU-Power für das Geld bekommt man nirgends!

AMD, gut gemacht - jetzt werft mal das Modul-Design über Bord und baut wieder richtige Rechner, wo sich GANZE kerne zum Energiesparen abschalten lassen um Strom zu sparen und nicht immer ganz oder garnicht. :-)
Und jetzt muß nur noch mal die Industrie über ihren Bestechungsschatten springen und schon hat AMD wieder Aufwind. Jetzt fehlt nur noch die richtige Software und Intel kann einpacken.
Ich fürchte aber, daß das wieder so läuft wie mit 64bit-Windows und so - AMD legt vor, Intel sahnt ab...
 
hab ich da was übersehen, oder gibt zu apus jetzt gar keine cpu tests mehr? die module sind angeblich deutlich besser geworden (single). dann möchte ich das im cinebench bewundern können. ich verstehe absolut nicht, warum der fokus bei einer apu nun noch auf spiele und benchmarks liegt, deren praktischer nutzen seit jahren an den haaren herbeigezogen wird, aber kein normalsterblicher user benutzt es. ich selbst sitze aktuell in einem vollen kurs mit fachinformatikern. weder privat noch hier im kurs nutzt irgendwer gpu-computing. aber liegt bestimmt an uns. jeder rentern, jeder schreibkraft, jeder gamer weiß was das ist und benutzt eigentlich gar nichts anderes. (kann spuren von sarkasmus enthalten)

aber was wir nutzen ist beispielsweise vbox (bis zu 6 maschinen gleichzeitig). das braucht (cpu-)rechenleistung. im schulungsraum gibts für jeden einen i5. zu hause könnte man ja auch über eine apu nachdenken. nur blöd, dass aus dem test rein gar nicht hervor geht, wie sich eine apu in klassischen aufgaben schlägt.
 
Wenn ich mir die Leistungsaufnahme dieses Tests mit dem hier vergleiche, https://www.computerbase.de/2013-07/haswell-quad-core-test/5/
dann kommen mir Zweifel, welchem ich in Bezug auf die Leistungsaufnahme vertrauen soll:

Bsp. gefällig:

Damaliger Test - Cinebench x-CPU
i7-4770k - 114W
A10-6800k - 131W


Aktueller Test - Luxmark
i7-4770k - 125W
A10-6800k - 95W

Bei Eurem aktuellen Vollalast Test verbraucht der 4770k 11W mehr, der 6800K jedoch 36W weniger.
Was soll man denn nun in Bezug zur Volllastangabe glauben?
 
@Uwe F.: Du vergleichst die Leistungsaufnahme bei zwei verschiedenen Programmen! Da werden mit unter ganz unterschiedliche Lasten erzeugt!

Cinebench nutzt z.B. moderne Recheneinheiten/Register garnicht! (Schau mal in die Specs, genau hab' ich die nicht im Kopf) Damit liegen dann bestimmte Prozessorbereiche flach und tun nichts.
 
Enttäuschend

Ich wäre so dreist und hätte nochmal ein Llano A8 3850/70K mit reingenommen und die GPU locker auf 800 - 900 Mhz übertaktet

Um den CPU Preis zurechtfertigen muss Mantle min 20% bringen

Es kann ja sein das man den Kaveri auch so toll untervolten kann wie der Llano - die Hoffnung stirbt zu letzt.


Und jetzt zum Positiven stimmt es das man in dem Bios die TDP Grenzen einstellen 45 / 65W / 95W dann wäre es ja egal welchen APU man kauft gerade für Mini ITX Systeme.

In diesem Sinne (alter Llano Werbespruch): The Future is Fusion
 
0815*Sir Tom schrieb:
Ja, das sehe ich an meinem i7-3520M im "Office". Was glaubt ihr denn, was ein "Office-PC" heutzutage können muss? Ne Schreibmaschine ersetzen? Das war mal in den 90ern ;)

Der i7 hier im "Highend" Laptop kommt oft genug an seine Grenzen.

Keine Ahnung was bei dir ein Office-PC ist, aber für ein bisschen Internet, Outlook, Word, Excel und Powerpoint reicht ein Celeron/Pentium locker aus.
 
dMopp schrieb:
Die APUs sollten eigentlich in jedem Media/Office PC werkeln. Schade das da weiterhin Intels Geld ne Rolle spielt und die Dinger viel zu wenig verbaut werden. Erst wenn man CPU Lästig / GPU Lästig arbeiten will (oder spielen) braucht man ne Extra GPU und sollte in diesem Fall gleich zu Intel greifen.

http://www.ocaholic.ch/modules/smartsection/item.php?itemid=1185
Klick Dich mal durch.
Einer modernen Spiele-Engine (i.e. Dunia, CryEngine oder FrostByte) ist die CPU vollkommen egal @ 1080p + Extra GPU (wie z.b. einer HD7970 wie in diesem Benchmark).
Und selbst bei der weitverbreiteten Unreal3-Engine gibt es gerade mal einen lächerlichen Unterschied von 10% (sic!) zwischen Richland und Core i7.

CPUs spielen keine Rolle mehr.
Mein nächster PC kriegt einen Kaveri.
 
Zuletzt bearbeitet:
Wenn sogar eine 7750 der AMD APU davonläuft, beschränkt sich die im Review so hochgehaltene Mischung aus Stromverbrauch, Leistung und Preis wirklich auf die Sparte der extremen Casual Gamer.

Die 7750 gibt es auch als Low-Profile-Karte, sodaß der Einsatz von Kaveri in einem Mini-Spiele-System auch dieser den Vorrang lassen muß, da eine Mischung aus potenterer Intel-CPU + 7750 nicht so viel teurer für ungleich mehr Leistung ist.

Mir, als 'Casual Gamer' war auch die 7750 zu langsam, aber hätte ich ihre Leistung mit Kaveri gehabt, hätte ich es mir vielleicht sogar nochmal überlegt. Jetzt muss ich mir eine GTX760 Mini ganz frickelig ins Gehäuse bauen, nur um meinen nicht besonders ausgeprägten Spieleambitionen Rechnung zu tragen.

Wer so selten spielt, sollte sich auch mit den integrierten Grafikeinheiten des Vorgängers oder sogar noch der HD4600 von Intel zufrieden geben können, darauf laufen auch die zig hervorragenden Indie-Titel.
 
KainerM schrieb:
Toll. Und den schnelleren i3-4130 ohne T gibts um 100€. Dazu eine HD7750 für 80€, kostet gleich viel wie ein 7850K, und leistet um Längen mehr. Stromverbrauch ist auch nicht höher...

Da werden aber fleißig Äpfel mit Birnen verglichen. Preisempfehlung und tatsächlicher Preis sind nie identisch, ein Vergleich:
A10-6800K: $142 Empfehlung, momentan für 116€ zu haben.
Legt man den aktuellen Wechselkurs an, dürfte der 6800K sogar nur 104€ kosten, der Währungsvorteil wird also nur teilweise weitergegeben.
Dementsprechend ist ein Preis von 130-150€ für den 7850k realistisch, deine Rechnung passt also nicht.
Sie hinkt aber auch noch in anderen Belangen: Ein möglichst kleiner PC (bspw. ein HTPC) wird ja erst möglich, weil man auf eine dedizierte GPU verzichten kann. Natürlich kann man immer etwas nachrüsten, aber in diesem Bereich ist Kaveri weniger interessant und wie du schon schreibst gibt es dort bessere Alternativen.
Aber der Stromverbrauch eines solchen Systems liegt definitiv über Kaveri - vielleicht nicht um Welten, aber höher auf jeden Fall. Gerade die Werte im Idle lassen sich mit einer dedizierten GPU gar nicht erreichen und nicht zu vergessen, dass eine 7750 (900MHz) unter Volllast knapp 80W verbraucht (siehe ht4u-Test).
 
StockholmSyndr. schrieb:
Einer modernen Spiele-Engine ist die CPU vollkommen egal @ 1080p + Extra GPU (wie z.b. einer HD7970 in diesem Beispiel).
So ein Unfug, gerade vermeintliche Grafikfresser wie BF4 und Crysis 3 benötigen eine sehr schnelle CPU.
 
Zurück
Oben