Test Alle Desktop-Trinity im CPU-Vergleichstest

Also in meinem bekanntenkreis gibt es niemanden für den eine amd apu interessant wäre vorallem nicht die grossen.
Unten rum für br, internet, office reicht eine intel igpu auch locker aus und ist billiger.
Und wenn ich die fps sehe und die Auflösung weis ich nicht wer sich das antun will auch nicht als gelegenheitsgamer.
Evtl wenn HSA den irgendwann mal in ferner Zukunft unterstützt wird werden die AMD APU`s dann glänzen können oder zu INTEL nen ganzes Stück aufholen aber bis dahin sind sie eher nicht fisch und nicht fleisch.

So wie Bulldozzer auch kein fail ist, aber zum jetzigen Zeitpunkt noch nicht optimal einsetzbar.
 
Zuletzt bearbeitet:
Wenn ich sehe was der Phenom II 965 X4 in Arma 2 leistet und was die aktuellen AMD-CPUs hier leisten. Dann werde ich mir (wenn ich mir zusätzlich mein Phenom 965 Overclocking Setup anschaue), auf absehbare Zeit bzw. innerhalb der nächsten 2 Jahren keine Stärke CPU oder PC kaufen.... Falls ich doch eine schnellere CPU her soll, muss ich wohl zu Intel greifen.
 
Im Text steht bei Intel (Beispiel Intel Core i3-3220):

2C/4T

Steht das für 2 Cores, 4 Threads?

Bei AMD (Beispiel A10-5800K) steht:

2M/4T

Steht das für 2 Module, 4 Threads?

Wo ist der Unterschied zwischen Modulen und Kernen?
 
Das würde mich auch interessieren. Höre zum ersten mal von Modulen. Dachte z.B. der A8 hat 4 Kerne. Es wird ja dort auch mit Quad-Core und 4x Ghz geworben. :confused_alt:
 
@James

DIe Kerne teilen sich zu zweit immer eine FPU (auch wenn sie doppelt so breit wie beim Phenom ii ist) und einen Encoder afaik.
Damit kann das Modul zwar 2 Threads bearbeiten, ist aber nicht das, was sich die Leute unter Kernen vorstellen.
Außerdem sind die Module auch auf der DIE abgegrenzt von anderen Modulen, was zumindest auch physikalisch eine Entfernung vom typischen Kerndesign darstellt ;)
 
N.t.H. schrieb:
@James

DIe Kerne teilen sich zu zweit immer eine FPU (auch wenn sie doppelt so breit wie beim Phenom ii ist) und einen Encoder afaik.
Damit kann das Modul zwar 2 Threads bearbeiten, ist aber nicht das, was sich die Leute unter Kernen vorstellen.
Außerdem sind die Module auch auf der DIE abgegrenzt von anderen Modulen, was zumindest auch physikalisch eine Entfernung vom typischen Kerndesign darstellt ;)

Danke.

Wie ist das denn bei den Kernen? Die bearbeiten bei Intle doch auch 4 Threads. Ist das da besser/schlechter?

Ich überlege gerade, einen 4 Kerner mit 4 Threds zu kaufen. Das ist doch am besten, oder?
 
Also ich finde es nicht zeitgemäß, dass es nicht wenigstens 1 bis 2 Modelle mit geringer TDP wie 45W oder 35W gibt. Vielleicht tut sich bei der nächsten Generation was.
 
@Volker R.

Ich würde gern wissen ob der AMD Athlon II X4 750K mit 100W TDP wirklich ohne seine Grafikeinheit eine höhere Wärmeabgabe und Leistungsaufnahme hat als der A10-5700? Ist das einfach eine Angabe von AMD aus Sicherheitsgründen wegen dem freien Multiplikator oder ein tatsächlich schlechterer Die und deswegen auch ohne GPU?
 
Der Unterschied zwischen Modulen und Kernen ist, dass AMD die Module nicht Kerne nennen will, weil es dann nicht behaupten kann, dass ein A10-5800K ein Quadcore ist.

Effektiv ist ein Modul so ähnlich wie ein Kern bei Intel. Das was AMD da mit der Bulldozer Architektur eingeführt hat, ist im Endeffekt eine komplexere und deshalb effizientere Version von Hyper-Threading.

Wenn man an die neuen AMD Prozessoren 2 Integer-Anweisungen pro Modul schickt, dann können die das Parallel bearbeiten, wie wenn es 2 Kerne wären.
Schickt man aber 2 Fließkomma-Anweisungen hin, dann ist Sense und das Teil verhält sich wie ein Single-Core.
Und genau daher kommt auch die miese Leistung der Bulldozer bei Spielen. Denn Spiele nutzen vor allem Vektorberechnungen und die finden nunmal per Fließkommazahlen statt.

@James Funk
Hyper Threading bei Intel funktioniert etwas anders. In der Regel sollte der Geschwindigkeitszuwachs bei Hyper Threading geringer sein, als bei AMDs Modulsystem.
 
Hier stand Mist!

Hyperthreading und das Modul Prinzip sind ähnlich, ein HT Kern hat Befehlsencoder, der dem System vorspielt, dass dort mehrere Kerne zur Verfügung stehen. Bei AMD ist es so das diesem Befehlsencoder zwei echte Intgerkerne zur Verfügung stehen. Außerdem impliziert der Name Modul, dass die Architektur skalierbar ist, muss man sich wie bei SoC vorstellen, was AMD auch plant, man kann bestellen ich hätte gerne 9 Module, ein LTE Modem, einen AES256 Modul usw.
Dies ist ein interessanter Ansatz und mit dem Ziel HSA, evt. Einbindung von ARM Kernen auch verständlich.

Natürlich gibt es immer Marketing, aber soll AMD sagen wir machen nur Mist, ach egal kauft doch gleich Intel. Im übrigen war es Intel, die MediaMarkt und so mit einem Knebelvertrag an Intel gebunden haben als AMD "quasi" besser war.
Aber AMD hat letztens auch ziemlich Einfluss auf die Test nehmen wollen, guck mal auf Techreport.com, da haben die einen Artikel dazu.

Fazit: 1 Modul = 1 Intel Hyperthreading Kern + 1 Integerkern
 
Zuletzt bearbeitet: (unnötiges Kommentar)
dgschrei
Das man ein Modul als Core bezeichnet, ist sicherlich nicht besser als wenn man ein Modul als Dual Core bezeichnet.

Das eigentliche Problem ist. Integer Lastig zeigt ein Modul dass man mit einem Dual core mithalten kann, dafür aber Paltz einsparen kann.
FPU lastig gleicht ein Modul ca einem Core. Der Grund FMA3/4 kann noch nicht genutzt werden, somit hat HSW ein ähnliches Problem.
Du wirst sehen, dass dein Modul = Core Bezeichnung ein Schwachsinn ist, wenn durch FMA die FPU Leistung auf einmal die eines Dual-Core übertrifft, und ein Modul auf einmal keine Nachteile mehr gegenüber einem Dual-Core hat, wenn die Software sich näher angepasst hat.
Mit steamroller mit 2 decoder sollte der Unterschied noch geringer ausfallen.

Ein Core ist übrigens bezeichnet eine Integer ALU und keine FPU.
Übrigens kann ein Integer Core auch eine FPU simulieren, auch ein Grund warum die FPU erst viel später integriert worden ist.

Hyper Threading bei Intel funktioniert etwas anders. In der Regel sollte der Geschwindigkeitszuwachs bei Hyper Threading geringer sein, als bei AMDs Modulsystem.
20% glaube ich pro "virtueller core = thread"
Bei einem Modul wird die Auslastung auf die Module halbwegs ausgeglichen aufgeteilt, somit kann man von 2 gleichwertigen Cores = threads sprechen.
 
Zuletzt bearbeitet:
pipip schrieb:
Du wirst sehen, dass dein Modul = Core Bezeichnung ein Schwachsinn ist, wenn durch FMA die FPU Leistung auf einmal die eines Dual-Core übertrifft, und ein Modul auf einmal keine Nachteile mehr gegenüber einem Dual-Core hat, wenn die Software sich näher angepasst hat.
Mit steamroller mit 2 decoder sollte der Unterschied noch geringer ausfallen.

Und wenn die AVX-Befehle bei den Sandys genutzt werden, dann ist ein 2600K auf einmal ein 8-Kerner oder wie? :freak:.

Nur weil die Bullis jetzt einen neuen Befehlssatz unterstützen ändert das nichts daran, dass es wenn man FP-Workloads an ein Bulli-Modul schickt auf einmal nur noch ein Thread da ist. Man muss die Befehle an die CPU vorher in große Makrobefehle umbauen, damit man die breitere FP-Einheit nutzen kann. Und selbst dann bearbeitet sie nicht plötzlich 2 Threads gleichzeitig, sondern den einen schneller.

Und wie "schnell" das geht, sieht man ja an AVX schon. Das gibts noch länger als den Bulli und da gibts schon praktisch kaum welche die es unterstützen. Jetzt frag dich mal wie lang das dauert, bis sich in den Entwicklungsabteilungen jemand bereit findet, die komplette Codebasis neu zu kompilieren, um den mickrigen Anteil an Bulldozer Kernen zu bedienen. Das kostet Entwickler einen Riesenhaufen Aufwand.(Auch bekannt als Geld) Bevor da mal was passiert, hast du schon drei neue CPUs gekauft.
 
Zuletzt bearbeitet:
guter Test @CB :daumen:
Jetzt weiß ich endlich, wie die APUs von der Leistung her einzuordnen sind.
Allerdings bin ich etwas geschockt von der unterirdischen CPU Leistung der Single Modul APUs :(
wollte mir eigentlich ne A6-5400K für meinen HTPC kaufen, aber jetzt bin ich am grübeln, ob die APU mir auch reichen würde von der CPU Leistung her, schliesslich bin ich von meinem PC her ne SB 2500K gewohnt und auf ein lahmes Windows habe ich keine Lust :freak:
Ich hoffe ja mal, dass die Leistung ausreicht für den Betrieb von Win7 mit XBMC, wenn nicht geht die APU eben zurück und ich kaufe mir eine A8-5500 ;)
 
Ich finde den Test gut, endlich kann man die Athlon X4 (Sockel FM2) einordnen, wo man vorher so gut wie keinen Test gefunden hat und man die Leistung nur grob einschätzen konnte. Aber wie ich erwartet habe zwischen A8 und A10.
 
dichter-karl schrieb:
@Tresenschlampe: Nein, einfach falsch was du schreibst. Es tut mir echt leid, aber sich über Neutralität von Artikeln aufregen und selber sich Dinge so hinbiegen wie sie einem gefallen.

Entschuldige wenn ich meinen anfänglichen falschen Beitrag hab stehen gelassen!
Ich bin davon ausgegangen das der vermerk "Gerade wieder was dazugelernt! Danke @N.t.H." klarstellt das meine Aussage falsch war und ich eines besseren belehrt wurde!
 
dgschrei

Tja dann verstehe ich AMD und Intel nicht, wieso man überhaupt FMA und AVX einführt ^^ Scheinbar ist das dann eh alles nur für den Server. Intel hat dann somit Glück, dass die Desktop-Software so gut für sie optimiert wird :)
 
@pipip

Aber der Clou der APU ist ja, dass die CPU durch die igp beschleunigt werden soll. Was zwar noch am Anfang steht, aber bei einem reinen CPU Test abgeschnitten wird.

Ja, soll. Sollen und Sein sind aber verschiedene Dinge. Und eine IGP beschleunigt keine Thread-Limitierten Aufgaben. Heute nicht und auch nicht in den nächsten Jahren. Um solche Aufgaben von vielen schwächeren "Prozessoren" berechnen zu lassen, müssen erst einmal die Grundlagen ausreichend erforscht werden, wie so etwas zu programmieren ist.

Und was AVX betrifft... schau dir die Entwicklerseite von Intel an, um zu erfahren, was sich damit anstellen lässt. Bis so etwas ausreichend im Mainstream benutzt wird, vergehen immer einige Jahre.

Intel hat dann somit Glück, dass die Desktop-Software so gut für sie optimiert wird

Das hat nichts mit Glück zu tun, wenn z.B. viel Aufwand in die Optimierung des Frontends der CPUs gesteckt wird. Oder glaubst du, Software, die programmiert wurde, als es Sandy Bridge noch nicht gab, läuft auf einem i5 2500 schneller als auf einem i920 oder Core 2 Quad wegen SoftwareOptimierungen auf diese Architektur?

Davon abgesehen gibt es eben auch sehr gute Intel-Compiler.

...

Was die CPUs hier angeht... ich hab mir eine von den Vorgängern geholt. Letztendlich bleibt aber die Leistung der iGP bei mir eher ungenutzt, ein G630 hätte es auch getan.
 
Zuletzt bearbeitet:
Achja und täglich grüßt das AMD-Intel-Tier.
Was die "großen" APUs angeht, liest man in diesem Text ja nichts neues. Der i3 3225 ist im Gesamten schneller in Spielen, der A10-5800K dafür schneller in Anwendungen. Wer wiedersprechen will, mögen den Satz nochmal mit Bedacht durchlesen und folgende Seiten nochmal genau betrachten: Spiele Gesamt vs. Anwendungen Gesamt. Die beiden Prozessoren nehmen sich nicht viel, was die Leistungsfähigkeit angeht.
Ein Unterschied existiert natürlich bei TDP-Einstufung (aber das ist ja eh Müll) und der Leistungsaufnahme (die aber ein Spielen nicht so unterschiedlich sein muss - wurde ja nicht getestet).

Apropo Leistungsaufnahme. Da habe ich mal eine Frage an die CB-Redaktion (die ich wahrscheinlich eh wieder nicht beantwortet bekomme). Warum wird die Leistungsaufnahme nicht auch bei einem Spiel gemessen?

Und dann gibt es noch die Preise, aber selbst die sind gleich (3€ Differenz bei Mindfactory).
Alles in allem stinken die APUs von AMD nicht so sehr ab, wie alle einem das weis machen wollen.

fiesta schrieb:
Ich habe den Test jetzt nur überflogen, aber mal im Ernst: Wenn ein core i3 schon alles schlägt (und zwar in jedem Punkt, auch in der Leistungsaufnahme), dann kann AMD langsam wirklich einpacken.
Und schon der Erste mit solchem Gefasel. Ich zitire "[...] ein core i3 schon alles schlägt [...]und zwar in jedem Punkt[...]" Wahrscheinlich bestand dein "Überflug" über den Text lediglich daraus die Überschrift zu lesen und dann die Zusammenfassung der Spiele-Leistung anzuschauen, denn andernfalls wäre dir aufgefallen, dass der von dir angepriesene i3 im Gesamten aller hier getesteten Anwendungen nicht besser ist als ein A10. Das einzig Wahre an dem Satz war "in der Leistungsaufnahme", und DANKE, dass du NICHT "Verbrauch" geschrieben hast.

Meetthecutthe schrieb:
Es geht hier um einen CPU Test und da versagt AMD nun mal gnadenlos ;) .

Danke für den Test. Mir ist ja bereits länger bewusst das die aktuellen AMD´s nichts taugen aber das es doch so schlimm ist... .
Und der Zweite mit seinem sinnlos dahergeblabberten Wortgefasel. Gott sei dank, sagen die Messwerte von CB was anderes. Denn "gnadenlos versagen" und "taugen nichts" bedeutet, dass Intels Prozessoren überall und in jedem Bereich/Programm/Spiel besser wären - gnadenlos versagt haben nur die Holländer in der WM, als sie mit 0 Punkten in der Vorrunde heimgefahren sind. Naja wahrscheinlich hast du auch nur die Überschrift gelesen, im Gesamtergebnis der Spiele deinen i3 bewundert und hast dann den Test wieder geschlossen.

Warum müsst ihr Leute immer nur zu so einer sinnlosen Übertreibung tendieren? Geilt euch das irgendwie auf? Aber euch kann man das noch so oft erzählen und erklären, dass AMDs Produkte derzeit nicht supergeil (AMD-Fanboy) aber auch nicht superscheiße (Intel-Fanboy) sind, ihr blöck weiterhin wie dumme Schafe.

Vitec schrieb:
Also in meinem bekanntenkreis gibt es niemanden für den eine amd apu interessant wäre vorallem nicht die grossen.
Unten rum für br, internet, office reicht eine intel igpu auch locker aus und ist billiger.
Und wenn ich die fps sehe und die Auflösung weis ich nicht wer sich das antun will auch nicht als gelegenheitsgamer.
Evtl wenn HSA den irgendwann mal in ferner Zukunft unterstützt wird werden die AMD APU`s dann glänzen können oder zu INTEL nen ganzes Stück aufholen aber bis dahin sind sie eher nicht fisch und nicht fleisch.

So wie Bulldozzer auch kein fail ist, aber zum jetzigen Zeitpunkt noch nicht optimal einsetzbar.
Hier gebe ich dir voll und ganz Recht, bis auf die Sache mit den Gelegenheitsspielern. Ich verstehe nicht wo das Problem ist in geringeren Auflösungen liegt. Es gibt genügend Leute die noch in 720p spielen, warum auch nicht. Das ist natürlich immer eine Geschmackssache, aber so pauschal zu sagen "das will sich keiner mehr antun", ist meiner Meinung nach fehl am Platz.

Noch ein paar Worte der OT:
Sollte AMD mit HSA einen Durchbruch erzielen können, sowohl im Anwendungsbereich (Autodesk, Adobe, Corel, Magix, ...), als auch Spielebereich (Bioware, Sony, Eidos, Microsoft, ...), dann bin ich wahrlich auf die Flut der "bekehrten Inteljünger" gespannt, die einem dann in den Ohren liegen "wie toll AMD doch sei". Nein soll sich keiner fest für ein Lager entscheiden, aber es soll auch keiner hin und her schwanken und nach Bedarf das andere Lager fertig machen.
 
Zuletzt bearbeitet:
Zurück
Oben