News AMD stellt „Richland“-APUs für Notebooks offiziell in Dienst

Morrich schrieb:
Hat man dann noch spezielle Ansprüche wie z.B. ein mattes Display und einen bestimmten Preisrahmen, hat man aktuell bei den Trinity APUs nur noch eine Auswahl zwischen vielleicht 5-6 geräten. Und diese stammen von lediglich 2 Herstellern (Samsung und Lenovo).
Naja, so schlecht sieht die Auswahl auch wieder nicht aus: klick
Vor allem sind da auch ein paar richtig gute ProBooks dabei ;)
 
Ein ULV Quadcore für FM2 wär nicht schlecht. Das fehlt noch im Portfolio, so eher ein mageres Update.
 
Gut gedachte Hardware, aber keine Linux-Strategie. Mein 4 Jahre alter Laptop ist wohl mein letzter x86. Wer will schon zweitklassig behandelt oder ignoriert werden.
 
pipip schrieb:
Bleibt der Desktop Sektor, wo ich den richtigen Vorteil von CPU sehe. Leider wird AMD da etwas unterschätzt, weil ich habe keine Probleme mit meiner CPU gelegentlich zu spielen und wer ständig damit berechnet kauft auch kein Gaming-PC. Die alte Leier halt.
Es zeigt sich halt nur, dass viele eine CPU nicht richtig bewerten können, weil der Massen-Alltag-Gebrauch eben anders aussieht.
Denn die meisten Notebooks werden immer noch mit HDD verbaut. Da kann sogar mit Atom mit SSD viel schneller das Win XP starten als mein Hauptnotebook Core i5 mit HDD, welches ich bei einer Sonderaktion um 25% billiger bekam.

Wer sich mal mit Teillast (Internet, DVD, Office) beschäftigt hat, der weiß, dass da AMDs APUs und Intels achsoeffiziente CPUs nicht weit auseinerander liegen. Wer aber richtig Performance braucht, der hat auch viel (wenn nicht mehr) mit HDD-Limitierung zu kämpfen, die wie schon erwähnt in den meisten Notebooks noch verbaut werden.

Also, für die Massen-Notebook-Käufer 75-80% ist die APU mehr als gut. Erst recht, wenn HDD in den Massen-Notebook verkauft werden.
Und wer das Wachstum von Tablet & Smartphone versteht (= Verlagerung von einigen PC/Notebook-Tätigenkeiten), der hätte ein verständnis, warum die jetztigen Notebooks für die Masse schon längst genug CPU-Performance besitzen.
Denn es ist nicht nur an den Dual-Core-Ultrabooks sichtbar, die nur aus Dual-Cores bestehen, sondern die Quad-Core setzten sich seit über 5 Jahren in der Standard-Plattform seit 2008 nicht durch (und stagnieren AFAIK bei 10%)

Der Erfolg von Tablet & Smartphone liegt somit nicht in der CPU-Performance sondern generelle in der Anwendungs-Alltags-Technik für Jedermann. Und daher sind im Richland die neuen Techniken wie Gestik-Kontroll, Face-log-In erheblich wichtigere Verbesserungen, weil dies von Menschen deutlich spürbare Verbesserungen sind, während man CPU-Performance vielleicht erst ab +30% spürt.

Kurz gesagt, der CPU-Performance-Bedarf des Gesamt-Marktes wächst schon länger langsamer, als die CPU-Performance-Steigerung.

Morrich schrieb:
Zwar schön, dass AMD da immer wieder Optimierungen bringt und ich finde diese APUs auch wirklich klasse, aber das große Manko an der Sache sind die wenigen Notebooks die man mit diesen Dingern überhaupt kaufen kann
Ob das zufall ist.
Denn zufällig sind in jenen Shops, wo es erheblich weniger AMD-Modelle (Notebook & Desktop) gibt, auch jene Notebook zu finden, die ziemlich schlecht konfiguriert sind. Das erinnert schon an 2006/2007er-Zeiten.
 
Grantig schrieb:
Naja, so schlecht sieht die Auswahl auch wieder nicht aus: klick

Ne A4 APU brauch ich nicht. Etwas Leistung sowohl bei CPU und GPU muss schon da sein um auch mal das ein oder andere Spielchen zocken zu können.

Also da gehts erst ab A8 los. Und dann schau dir da mal die Geräteauswahl an. Die ist unglaublich mager.

Gut, ne A6 APU als Zwischenlösung für weniger hohe Ansprüche kann man sicher noch empfehlen, aber selbst wenn man die auch noch mitzählt, kommt man nur auf knapp 30 Geräte von denen einige im Grunde das Gleiche, nur eben mit hier und da etwas andere Ausstattung in Sachen HDD und RAM sind.

So oder so ist da die Auswahl sehr mager, wenn man sie mal mit den zig Geräten vergleicht die es mit Intel/NVidia Innenleben gibt.
Aber was nutzt mir eine schnelle Intel CPU, wenn ich als Grafiklösung nur die miese HD4000 bekomme?
 
Zuletzt bearbeitet:
Glueckspilz schrieb:
Wie dreist man bei der Vergleichsgrafik den stärksten mobilen Ivy-Bridge dual core nimmt (i7-3520M) anstatt das Ganze mit einem richtigen quad core von Intel zu vergleichen.

Wieso? Das sind beides Prozessoren mit 4 Threads. Das ist doch genau das, was hier beim FX-8350 immer gefordert wurde, ihn mit einem i7-3770 zu vergleichen und nicht mit einem i5 (Stichwort 4-Moduler vs. 8-Kerner). Man muss das ja nicht gut finden, aber man sieht eindeutig, was man von Intel bekommt und was von AMD. Wenn Intel so eine unterirdische Grafikperformance liefert, darf man sich nicht wundern, wenn AMDs Marketingsabteilung das ausnutzt. Genauso macht es Intel ja auch mit der Rumreiterei auf der TDP, um sich von AMD abzusetzen.
Ergänzung ()

Morrich schrieb:
Aber was nutzt mir eine schnelle Intel CPU, wenn ich als Grafiklösung nur die miese HD4000 bekomme?

Nein nein, die reicht für 95% aller Notebooknutzer und wenn ich spielen will, kaufe ich einen Desktop-Rechner. ;)
 
DinciVinci schrieb:
Wieso?
Nein nein, die reicht für 95% aller Notebooknutzer und wenn ich spielen will, kaufe ich einen Desktop-Rechner. ;)

Tch finde das einfach pauschal und es ist auch als Agument oft unrichtig.


1_) nicht jeder kann sich einen Laptop und einen Desktop_Rechner leisten.

2_) Wie kommt der Desktop_Rechner mit an den Urlaubsort?.

3_) AMDs APUs sind optimal geeignet für lange Laufzeit und gute Grafikleistung, die CPU Leistung ist für Normalos
mehr als ausreichend....Intel ist eigentlich auf den mobilen Sektor(Mainstream) schon geschlagen.(vorlaüfig?)
Schade das es die Laptophersteller anscheinend noch nicht gemerkt haben!. mfg:)



#
 
Zuletzt bearbeitet:
@pipip
Habt Ihr eigentlich nichts anderes im Kopf als zocken, zocken und noch mal zocken? Ich brauche meine Notebook zum arbeiten und abends mal ein Solitare.
Wenn Kaveri, dessen igp ca einer 7750 entspricht effizienter ist als eine GPU HD7750, wird man davon leider nichts merken, weil die CPU ja mehr Strom verbraucht als das Gegenstück von Intel. Selbst wenn wir hier von 3W-5W unterschied reden, ist das doch nichts, wo man sich darüber freuen kann und die Siegesfahne raus holt. Manchmal bekomme ich Kopfschmerzen vom Kopf schütteln.
Ich wünsche mir nichts mehr als eine AMD CPU, die billiger und besser ist als eine von Intel. Die muss aber erst noch kommen und sich beweisen. Ihr redet immer von zukünftigen CPU´s von denen noch keine Details da sind. AMD sagt max. 10% mehr Leistung und 3 Tage später wird hier über 30% mehr Leistung spekuliert. Soll man so etwas noch ernst nehmen?
Lasst das Teil doch erst einmal auf den Markt kommen und dann sieht man doch was daraus geworden ist.
 
Ach, die EInmoduler werden ein Gefühl zurückbringen, das der durchschnittliche Windows-User schon lange vergessen hat: Wartezeiten, Hänger, Aussetzer... Mit einem Kern fängt man halt in der Multithreading-Welt wenig an, schon garnicht, wenn er so schwach ist. Und nein, zwei Integer-Einheiten machen noch lange keine zwei Kerne.

AMD sollte mal endlich eine Vernünftige CPU Einheit auf den Markt bringen. Seitdem sie auf das Bulldozer Design und seine Nachfolger setzen, sind sie völlig abgeschlagen. Was bringt eine tolle Grafikkarte, die von einer besch... CPU ausgebremst wird - oder noch viel schlimmer, die kaum Leistung haben darf, weil die CPU zu viel Energie verbrät (in Mobilgeräten, meine ich). Die Effizienzfrage kann Intel einfach wesentlich besser beantworten.
Und die Tatsache, dass die volle Leistung nur mit teurem DDR3-1866 zur Verfügung steht, bricht dem Müll endgültig das Genick. Weil der frisst den Preisvorteil schön wieder auf.

mfg
 
Zuletzt bearbeitet:
Ab diese zwei Threads sind gleich wie bei Hyperthreading nicht "echt" - und in den wenigsten Fällen verdoppelt sich dadurch auch die Leistung. In der Realität - vor allem der Art von Realität, die man auf Mobilgeräten antrifft - liegt die Performance eines "SMT-kerns" weit unterhalb der eines echten - zwei Intel-Kerne matchen sich meistens mit zwei SMT-Modulen (also vier "Kernen"). Deswegen stinkt alles, was auf Bulldozer basiert, trotz exorbitanter Taktraten und Kernzahlen in der Endanwender-Realität ab. Außer bei Servern und Rendering-Farmen - die können teilweise recht gut mit den Ressourcen umgehen, und dann liefern die SMT-Kerne gewaltige Performance. Nur ist das dem 0815-Privat-Endkunden egal, weil er diese Leistung niemals "erfahren" wird.
Das gleiche Problem hatte nVidia mit Fermi GF100: In Spezialfällen war sie zu ihrer Zeit unantastbar (und ist dort nach wie vor deutlich schneller als eine GTX 680), aber in Spielen war sie nicht besonders gut.

mfg
 
Wenn ich das noch richtig im Kopf habe, bringt die SMT-Erweiterung ca. +20%, ein CMT-Kern hat momentan ca. 80% Leistung eines "normalen" Phenom-Kerns, zwei mal CMT also 160%. Die ct hat wunderschön gezeigt, wie der Bulldozer mit CMT gegenüber dem SMT bei Multithreading abzieht. Die Probleme des Bulldozers liegen ganz woanders.
 
KainerM schrieb:
AMD sollte mal endlich eine Vernünftige CPU Einheit auf den Markt bringen. Seitdem sie auf das Bulldozer Design und seine Nachfolger setzen, sind sie völlig abgeschlagen. Was bringt eine tolle Grafikkarte, die von einer besch... CPU ausgebremst wird - oder noch viel schlimmer, die kaum Leistung haben darf, weil die CPU zu viel Energie verbrät (in Mobilgeräten, meine ich). Die Effizienzfrage kann Intel einfach wesentlich besser beantworten.
Und die Tatsache, dass die volle Leistung nur mit teurem DDR3-1866 zur Verfügung steht, bricht dem Müll endgültig das Genick. Weil der frisst den Preisvorteil schön wieder auf.

Die Effizienzfrage beantwortet Intel (nicht nur, aber durchaus massiv) durch die kleineren Strukturbreiten, die AMD sich nicht leisten kann. Die TPD aller AMD-Prozessoren würde deutlich sinken wenn sie in 22nm gefertigt würden.
Und die Aussage der "vollen Leistung" ist totaler Quatsch. Auch eine HD4000 ist mit DDR3-1866MHz leistungsfähiger als mit 1600, und alle iGPUs werden auch mit RAM oberhalb ihrer Herstellerspezifikationen noch schneller. Und wie 1866MHz-RAM den Preisvorteil eines A8/A10 gegen einen i5/i7 auffrisst musst du auch nochmal genauer erklären.
 
DinciVinci schrieb:
Wenn ich das noch richtig im Kopf habe, bringt die SMT-Erweiterung ca. +20%, ein CMT-Kern hat momentan ca. 80% Leistung eines "normalen" Phenom-Kerns, zwei mal CMT also 160%. Die ct hat wunderschön gezeigt, wie der Bulldozer mit CMT gegenüber dem SMT bei Multithreading abzieht.....

Ein Dualcore würde 200% des Platzes eines SCs benötigen und liefert bis zu 200% der Leistung eines SCs
Ein Modul würde 120% des Platzes eines SCs benötigen und liefert bis zu 180% der Leistung eines SCs
Intels HT würde 105% des Platzes eines SCs benötigen und liefert bis zu 125% der Leistung eines SCs
Die Angaben beziehen sich immer auf einen theoretischen SingleCore (SC)
 
Genau, DEN Singlecore gibt's halt nicht. Und ein Intel-SC ist auch nicht gleich AMD-SC. Deswegen schrob ich das oben so umständlich. ;)
Ergänzung ()

Aber die 180% stimmen net so ganz, 160% sind schon richtig.
 
DinciVinci schrieb:
Die Probleme des Bulldozers liegen ganz woanders.
Falls man von Problem reden kann.
Denn in Server & Notebooks halten sie sehr gut mit.
Dass Bulldozer wegen PC-Games angeblich sooo schlecht ist, ist ja nur so, weil es ihnen ins Schema passen, aber nebenbei die Bobcat-Geschichte & Server-Gesichte völlig ignorieren.

Schließlich verkauft sich Bobcat fast genauso schlecht, obwohl der sogar dem Atom @ Netbook überlegen ist.
Denn Einbruch im Server-Markt passierte bei AMD blöderweise mit dem K10.5, während es mit Bulldozer den Sinkflug zuerst stoppte und dann wieder zu steigenden ASP & Marktanteile führte.

Nur weil der Bulldozer den ganzen Fertigungs-Rückstand von Intel nicht doppelt & Dreiffach kompensieren kann, ist die Architektur noch lange nicht schlecht. Für die IPC-Freunde & CPU-Freunde wird dann eh Kaveri & Steamroller kommen, aber was sie jetzt schon übersehen ist, wie AMD mit neuen Features nach vorne zieht. Denn die Gestik-&-Co-Features sind schon interessante Features, wenn man bedenkt, dass es sich nur um ein Trintiy-Refresh handelt. Da kann man gespannt sein, welche neuen Features dann bei Kaveri kommen werden. Der Richland-Sprung erinnert wieder stark an R770-->Thaiti-Entwicklung, wo AMD eben immer Schritt für Schritt evolutionär aufholte und dann mit GCN die GPU-Welt drehte, sodass sie jetzt sogar Sea-Island @ 28nm vielleicht sogar überspringen können.

Richland erfüllt die Erwartungen sogar mehr.
Die Behauptungen, dass von den angekündigten +20% Performance-Steigerungen quasi nur von der GPU kommen werden, bestätigt sich jetzt überhaupt nicht. Für die ULV-APUs hat AMD ja +40%-Performance-Steigerung angekundigt.
 
Diese Unterstützung von 1866er DDR3-Speicher ist doch Augenwischerei. Nur die teuerste APU bietet das überhaupt an und in der Vergangenheit hat sich gezeigt, dass eben diese teuerste APU so gut wie nie verbaut wird, weil sie die low-budgets sprengen würde. Teurer Speicher würde diesem Unsinn dann wohl noch die Krone aufsetzen. Bleibt der Nutzen im Endeffekt nur der Marktnische der Selbstbauer und Bastler vorbehalten. Ganz großes Kino...
 
KainerM schrieb:
Ach, die Einmoduler werden ein Gefühl zurückbringen, das der durchschnittliche Windows-User schon lange vergessen hat: Wartezeiten, Hänger, Aussetzer ...
Sofern du Office nutzt, im iNet surfst, Musik hörst und Videos schaust, ist ein A4 oder A6 nicht von Wartezeiten, Hängern oder Aussetzern geplagt [zumindest Desktop-Versionen mit 3,x GHz].

aylano schrieb:
Denn in Server & Notebooks halten sie sehr gut mit.
Der Marktanteil bei Servern steigt nicht nennenswert.

aylano schrieb:
Der Richland-Sprung erinnert wieder stark an R770-->Thaiti-Entwicklung, wo AMD eben immer Schritt für Schritt evolutionär aufholte und dann mit GCN die GPU-Welt drehte, sodass sie jetzt sogar Sea-Island @ 28nm vielleicht sogar überspringen können.
Welcher Sprung? Bei den 35W wohl kaum, aber die ULVs werden sehr spannend - Kabini sowie Temash und Kaveri umso mehr.
 
Zuletzt bearbeitet:
Zurück
Oben