Test AMD A8-3850 im Test

Richtiger Preis für die Eltern zum Surfen, fürs Solitär, für Filme und den Officekrams und schnell genug für die ComputerBildSpiele-DVD vom Sohnemann :) Abnehmer gibt es reichlich, sonst würden sich die ganzen Aldi-PC's gar nicht verkaufen lassen und mehr will AMD mit diesen APUs gar nicht erreichen, was einige hier nicht verstehen wollen.

Und richtig gut, dass sie den Athlon auf Phenom II-Niveau gebracht haben.
 
Zuletzt bearbeitet:
Naja, so toll ist die nun auch wieder net. Ungefähr so wie 3870, also wie 4770, also wie <5670, also <<als 6670.
Warum macht ihr die legendäre Karte so schlecht? Sie hat mehr Vram als die meisten kleinen alten (512MB) und ist ja schon von Anfang an schneller als HD 2900XT/3870 gewesen.(bei gleichzeitig exorbitant besser BQ) Die liegt eher bei HD 4850/4870 512MB/ 5750/6750. Also sehr deutlich über Llano. Gehts um Spiele die viel Vram brauchen bricht euch Llano gnadenlos ein auf 6450 Niveau. 8800GTX ist nicht selten doppelt so schnell(und noch schneller bei Vram Limits), bei gleichzeitig besserer Bildqualität mit HQ AF!
 
Zuletzt bearbeitet:
Für HTPC Nutzer wäre interessant gewesen, wie imme eigentlich: Deinterlacing bei 1080i

Ich verstehe icht wieso ihr diesen kleinen Test nicht einführen könnt.
Da müssen wir uns entschuldigen, das hat es leider knapp nicht mit in den Testparcours geschafft.
Ich kann aber versprechen: Beim nächsten Test dieser Art wird 108ßi mit dabei sein =)

So ist im Abschnitt Testsystem (zu finden im CPU-Teil) zu lesen, dass ihr 1866er-RAM mit CL9, und 1333er/1066er mit CL7 verwendet. 1600 wird dort nicht aufgeführt, also habt ihr das wahrscheinlich mit dem 1866er-Kit simuliert.
Die Timings sind alle identisch geblieben, unabhängig vom Takt.

Macht AMD Vorgaben, welche Grafikkarten im Artikel zum Vergleich auftauchen dürfen?
Wie kommst du da drauf? Das hat AMD noch nie gemacht, genauso wie Nvidia.

Ist denn bei all den im Test durchgeführten Benchmarks und Leistungsvergleiche die CPU Performance völlig unabhängig und irrelevant?
Bei den GPU-Benches, so gut wie. Da wird es nur minimal Unterschiede geben.
 
FoxMcCloud schrieb:
Naja, so toll ist die nun auch wieder net. Ungefähr so wie 3870, also wie 4770, also wie <5670, also <<als 6670.:)
Eine 8800 GTX ist weitaus schneller als eine HD 3870 und auch idR vor einer HD 5670 :rolleyes:
 
Vitec schrieb:
für reinen office pc i3
ansonten 20€ mehr und man hat PII 955 + 6570 also ca doppelte performance eines Llano.

Aber AMDS APU steckt ja noch in den Kinderschuhen, mal sehen was die Zunkunft bringt.

Auch für nen Gamer-PC würde ich nen i3 2100 nehmen, da dieser mehr Leistung hat als jeder Phenom II, bei fast halbem Stromverbrauch
 
Oh Oh, da sind aber auch wieder alle Intel-Fanboys aus den Löchern gekrochen um subjektive Kommentare abzulassen. Man könnte fast meinen, die bekommen für jeden negativen Beitrag 1 € von Intel überwiesen. Aber egal, mein Gehirn überspringt eh schon automatisch Kommentare von gewissen Usern, die sich als befangen und/oder inkompetent in diversen Threads entpuppt haben.

Also für die A8 Llano sehe ich persönlich im momentanen Marktumfeld keine große Zielgruppe, aber der A6 bzw. A4 werden interessant. Durch die GGPU Implementierungen, in immer mehr Programmen, kann diese Architektur nur gewinnen. Es wäre schön wenn CB dann erneut testen könnte.

Für die meisten Enthusiasten hier bei CB ist der LLano eher ungeeignet. Aber gerade für den OEM Bereich ist diese APU ideal. Sie verbindet ein exzellentes P/L Verhältnis und eine große Auswahl an (nicht nur) marketingwirksamen Features (z.B. natives USB 3.0). Der verbesserungswürdige Stromverbrauch und die geringere CPU-Leistung interessiert hier überhaupt nicht.

Die Tests sind wirklich gut geschrieben und ausführlich, aber irgendwie bekomme ich beim Lesen der beiden Llano Artikel das Gefühl, dass ich hier einen CPU-Test ohne Berücksichtigung der GPU und einen GPU-Test ohne Berücksichtigung der CPU lese. Das war beim Sandy Bridge Test nicht der Fall.
 
Lightning58 schrieb:
Die Tests sind wirklich gut geschrieben und ausführlich, aber irgendwie bekomme ich beim Lesen der beiden Llano Artikel das Gefühl, dass ich hier einen CPU-Test ohne Berücksichtigung der GPU und einen GPU-Test ohne Berücksichtigung der CPU lese. Das war beim Sandy Bridge Test nicht der Fall.

-Ich hoffe Intel bekommt genauso einen schönen getrennten Test spendiert, der aus CPU u. einen IGP Part bestehten wird. -Das wäre dann eine ausgleichende Gerechtigkeit.

-Hier ist auch noch ein guter Test, v.a. ist die Leistungsaufnahme deutich besser.

http://hartware.net/review_1366_6.html

-Nur wird hier noch mit einer GTX 285 gemessen, also kann man den Idle Verbrauch quasi knicken, eher sollte es eine weitere Orientierung sein.

Und hier ohne GTX 285
http://hartware.net/review_1366_5.html

Wenn das keine gute Leistungsaufnahmewerte sind...




-Also ich finde die A8 Plattform immer besser, -nachdem man lesen musste dass die APU mit 1.4 läuft, aber anscheinend unter 1.2V auch möglich ist, was teilweise 40% Effizienter ist, außerdem muss man nur einen schönen Mugen II Kühler rein tun u. schon hat man ruhe ;)

@Darkseth88 übertreibe nicht mit der Leistung des i3 u. d. halben Stromverbrauch... was ist eigentl. mit der Grafik des i3 2100?
 
Zuletzt bearbeitet:
@Llano:
Und ich hatte so gehofft das das Gerücht nicht wahr ist... :(
Wann sollen denn die A4 Gerüchteweise kommen?

@CB:
Werdet ihr auch die A4 testen?

@Test:
Ich finde die Trennung sehr seltsam.
Für mich ist das so als wolle man die beiden Geschmäcker von Mezzo Mix getrennt von einander unterscheiden...
Genauso sinnlos sind auch die beiden Threads, denn mein Post passt genausogut in den CPU Bereich...
Meiner Meinung nach muss CB aufwachen und verstehen, gerade in den Zeiten wo das Teamwork immer wichtiger wird.
Warum legt man das ganze nicht zusammen?!

Besser wäre gewesen entweder eine Synergie aus beidem oder ein CPU Fazit, ein GPU Fazit und einem Fazit...
 
Zuletzt bearbeitet:
Ich hab wirklich einen Lenovo S205, allerdings mit Windows Vista.. hängt es vielleicht damit zusammen?
 
devgenc schrieb:
Ich hab wirklich einen Lenovo S205, allerdings mit Windows Vista.. hängt es vielleicht damit zusammen?

Also mein DM1z läuft unter 7 so smooth wie jeder potente Desktop. Da hackt nix, da verzögert nix... Das S205 ist ja im Grunde die gleiche Hardware. Daher nehme ich mal an das es an Vista zumindest liegen könnte.

Die upgrade Lizenzen auf 7 sind doch wirklich günstig. Vista würde ich mir auf nem Netbook wirklich nicht antun.
 
devgenc schrieb:
Ich hab wirklich einen Lenovo S205, allerdings mit Windows Vista.. hängt es vielleicht damit zusammen?

ja. Was auch immer :D
 
Ist nix halbes und nix ganzes.

Wenn ich mir wirklich nur einen Office-Rechner zulegen möchte. Wäre eventuell der A4-3300 oder 3400 ideal. Da Multimedia nicht zu kurz kommt.

Wenn dazu noch ein hin und wieder ein Game kommen soll... naja, dann würde ich glaub ich was anderes holen. Obwohl ich eher der Typ bin, entweder richtiger Gamer-PC oder ebend Office-PC.
Weil CrossFire usw. noch nicht so doll ist, auch wenn man nur mal was zocken möchte. Gibt es schönere alternativen.

Den Bulldozer muss man erstmal abwarten. Aber z.Z. ist ein Gamer-Rechner eher:
Quad von Sandy-B.
Und ne ordentliche Grafikkarte. ;)

Oder wenn man es günstig haben möchte, einfach ne Konsole kaufen. ^^
 
Die Grafikeinheit kommt also trotz ihres Namens nicht an die 6570 ran, ist aber dennoch bei weitem das schnellste, was es je an Nicht-Karten-Grafik gegeben hat. Und dass eine solche aktuelle Spiele mit (leichten) Einschränkungen ruckelfrei kriegt, dürfte die letzten 10 Jahre auch niemand geträumt haben.

Der Stromverbrauch bei diesen Grafikspielchen ist im Rahmen; der bei reiner CPU-Last leider nicht. Durch den Idle-Verbrauch wird dieser allerdings bei weitem wieder ausgeglichen: 35W! So sparsame und trotzdem aktuelle Rechner gab es zuletzt beim Pentium III mit um die 500 MHz!

Mein Fazit: Geniales Teil für alle, die eigentlich keine Grafikkarte brauchen, hin und wieder dann aber doch mal ein Spielchen wagen wollen.
 
RubyRhod schrieb:
Ein schwachbrüstiger Quadcore mit hohem Stromverbauch und einer Grafikeinheit, die sich in den Leistungsbereich normaler onBoard-Lösungen einordner; mehr ist es nicht. Dafür soll man Geld ausgeben? Nochmals --> welche Kunden werden bei dieser Lösung angesprochen?

Damit Word schneller läuft? Damit mein Spiel statt mit 10 nun mit 10,5 fps läuft?
Wir reden hier über eine Grafikeinheit, die entweder unter- oder überfordert wird. Da braucht man keine Reserven herauskitzeln.

Sorry aber wo hast du die letzten Jahre gelebt? Llano (A8) ist SOWAS VON DEUTLICH über sämtlichen vorher existierenden IGPs angesiedelt, das es nur so knallt!! Und von 10 o. 10,5fps kann wohl NICHT die Rede sein, vor allem wenn man WOW, SC2 oder Portal spielen will

Portal 2 @ high @ 8aa =45fps (A8 3500M!!!)

SC2 siehe Test hier und WOW versteht sich von selbst das es läuft (wenn vielleicht nicht auf Ultra High)

SavageSkull schrieb:
Was kann denn jetzt die "kraftvolle" iGPU mehr, als die der Sandy Bridges?

Textverständnis 6-->setzen!

SavageSkull schrieb:
Preis und Stromverbrauch sind absolut gesehen auch nicht besser als das Intel Paket.
Hier wird man wohl den Preis drücken müssen (ist ja für AMD nichts Neues) um das Teil auch mal an nicht AMD Fanboys verkaufen zu können.

Der Preis ist absolut gerechtfertigt, wenn man sich die Ergebnisse objektiv anschaut. Dagegen kannste INTEL knicken. Eher muss INTEL im Preis runter, damit man sich noch ne gescheite Graka dazukaufen kann (Llanos Budget vorausgesetzt). Stromtechnisch biste dann aber immer noch im Nachteil.

oer3e schrieb:
Der Llano ist selbst unter Last durstig wie seine Vorgänger in 45NM. Braucht kaum weniger als ein 2600K. Und der hat 3x so viel Leistung? Wo ist da deiner Meinung nach der Fortschritt?

1. Vergleichst du ne absolut ausgereifte Fertigung, die "nur" CPUs produziert hat, gegen eine völlig neue Fertigung (HKMG, 32nm), die "CPUs+GPUs" in einem produziert.

2. Hat der 2600K "nicht mal" 2x soviel Leistung und das mit 8 threads und mehr Takt bei doppeltem Preis und grottiger GPU --> Lächerlicher Prozessor.

/Ironie an
Wer kauft sowas???
/Ironie aus

FoxMcCloud schrieb:
Ich kann sogar noch mit meiner GTX 8800 spielen und ich will nicht wissen, wo sich die einordnet.:freaky:

ca. 4850 = 5750 = 6750

Towatai schrieb:
"Scheuuuuklappen wohin ich schaue, von der einen seite lob, der anderen haueeee. ohh oh ohh.. du lieber foren-gott, lass sie alle sehen und das flott! sorg für licht in derer dunklen köpfe auf das ich neuen mut hier schöpfe, sie nicht zu hassen sondern zu loben.. für weitsicht, einsicht oder auch mal unfug... nur nicht mehr so groben ;) also liebe leut, seid doch erfreut was es gibt und was ihr habt, hört auf zu flamen und freut euch über vielfalt, die ein jeder mag!"

SEHR GEIL! Selber gedichtet? :daumen:

derGrimm schrieb:
Ich finde die Trennung sehr seltsam.
Für mich ist das so als wolle man die beiden Geschmäcker von Mezzo Mix getrennt von einander unterscheiden...
Genauso sinnlos sind auch die beiden Threads, denn mein Post passt genausogut in den CPU Bereich...
Meiner Meinung nach muss CB aufwachen und verstehen, gerade in den Zeiten wo das Teamwork immer wichtiger wird.
Warum legt man das ganze nicht zusammen?!

Besser wäre gewesen entweder eine Synergie aus beidem oder ein CPU Fazit, ein GPU Fazit und einem Fazit...

ABSOLUT FULLACK!! Hab ich schon vor längerer Zeit befürchtet und auch so oder so ähnlich mal gepostet. Aber hier seh ich kein Umdenken... CPUs werden nie wieder "nur" rechnen, sondern immer mehr können, hier so eine merkwürdige Trennung durchzuführen, kaschiert nur geschickt die miserable Leistung von INTEL in einigen Bereichen.

Lasst euch lieber einen gescheiten Testparcour einfallen, in dem alles beleuchtet wird. Dann ist der eben doppelt so lang! Denn Videobeschleunigung/Transkodierung (vielleicht bald alles über die GPU) interessiert eben eigentlich eher im CPU-Test. Eine gescheite Trennung kann hier GAR NICHT gelingen, von daher lieber gleich einmal richtig...


TheK schrieb:
Die Grafikeinheit kommt also trotz ihres Namens nicht an die 6570 ran

Deswegen heißt die auch 6550 ;)
 
@ ned flanders, könntest du mir das näher erklären mit den upgrade lizensen, ich würde das gerne machen, wie viel kostet das exakt?
 
devgenc schrieb:
@ SB, ich will, dass die Anwendungen sich etwas schneller öffnen, langsam wird mir die Nase voll.. Ich hab schon bissen mehr erwartet vom E-350.

Ich warte schon seit langem auf ne OC Möglichkeit, und dann wollen wir mal sehen, was der E-350 wirklich kann;)

Lol? Wer kauft sich ein E-350 System erhofft sich tatsächlich Spitzenleistungen? Kauf doch am besten ein Atom-System, wirst damit sicherlich besser bedient^^. Ne im Ernst, dann schau dich lieber nach einem Core I3 -System und einer SSD um. Den E-350 ocen bringt nichts.
 
Zurück
Oben