News AMD: Drei Millionen „Llano“-APUs im dritten Quartal?

@[F]L4SH
Apple hat schon längst mit AMD Gespräche geführt, also ist es nicht so abwegig dass sie Llano verwenden könnten, kann aber auch sein, dass es nur um die nächsten mobilen Grafiklösungen ging
 
Bin mal gespannt ob sie diese Umsatzzahlen auch wieder erreichen werden.

BTW, wofür steht APU?
Kenne nur CPU und GPU...
Kann mir nur vorstellen dass das "A" für advanced steht.

Edit:
Steht doch für accelerated
Aber meine Vermutung war richtig (APU = CPU + GPU), dann währen die Sandys aber auch APU's :confused_alt:
 
Zuletzt bearbeitet:
@timo82

Windows geht viel, aber für ein reines HTPC system ist "Ubuntu minimal" besser geeignet. Es ist einfach "leichter" schneller, ne 8 GB SSD für 40€ reicht vollkommen aus und XBMC rennt herrlich.

Ich sag mal mit Nvidia Karte ist es in 30 min aufgesetzt ink LiveTV, AMD und Intel machen etwas mehr Arbeit ;)
 
Zuletzt bearbeitet:
Das ist nur ein Bestätigung für das, was AMD schon vor 6 Monate sagte.
Nur die Zweifler glaubten nicht daran bzw. dachten AMD ist noch so unglaubwürdig wie AMD-ALT

Ein Schneller Umstieg auf 32nm alias Ende 2011 quasi nur mehr 32nm-Wafer-Starts.

Im 1Q 2011 Geschäftsbericht-Call wurde sogar fürs 1H 2011 eine "breitflächige" Verfügbarkeit versprochen.

Marcel55 schrieb:
Steht doch für accelerated
Aber meine Vermutung war richtig (APU = CPU + GPU), dann währen die Sandys aber auch APU's :confused_alt:
Deine Vermutung liegt ziemlich sehr richtig.
APU ist die Verschmelzung von CPU+GPU

Wobei da die Ansichten Unterschiedlich sind und manche Sandy-Bridge nicht dazuzählen, weil der AFAIK nicht einen Memory-Controller für den CPU & GPU-Teil hat.

Ursprünglich wollte AMD ja auch Swift rausbringen, der so wie Westmere eine CPU und GPU damals aufs CPU-Package gelötet bekommen hätte.
Aber eine Verschmelzung von CPU+GPU kann man auch so sehen, wenn die Software von GPU+CPU zusammen optimiert / "verschmilzt" wird. Es dürfte eben kein Zufall sein, dass damals (2009) ohne Swift das Fusion-Marketing gestartet wurde, da mit OpenCL die Software von GPU+CPU zusammen optimiert wurde.
 
Zuletzt bearbeitet:
Wenn Apple nach AMD greift pushen sich beide. Ohhh hoffentlich setzt Apple auf Llano!

Die Brazos-Plattform scheint mir der breiten Masse einfach nicht zugänglich!
Doch wenn Apple mit einer C-60 (9W TDP) Version des 11,6'' MBA's kommen würde... dann!
Gut, weniger Leistung (...doch genügend!) als im jetzigen. Dafür aber weniger Verbrauch, leiser (passiv?) und ausbalancierter.

Das muss doch Apple gefallen. Ein kleiner Prozessor der 'out of the box' perfekt ist. Kein zusammenwürfeln der benötigten Leistungen aus X- Prozessoren...

Naja und bei dem was aktuell drin ist könnte man auch einen mobilen 25W Llano in's 11,6'' MBA rein setzen!
Ein Prozessor! Ein einen cm² großer Punkt der gekühlt werden muss. Board drum rum. SSD. RAM.

Dachte eigentlich Appleleute wären die Art von Menschen die bei dieser Vorstellung... naja... :rolleyes:

Hätte halt gerne so ein Gerät gehabt. Bei jedem MM-Besuch wird es angefingert, aber perfekt ist das jetzige nicht!
Doch mit dem kommenden C-60... 9W TDP was ist da an Laufzeit möglich?
Und die Source Engine scheint ja gut zu laufen! Was soll ich noch wollen?
 
Zuletzt bearbeitet:
Hoffentlich erreicht AMD sein gesetztes Ziel, sodass wir uns auf eine bessere Konkurrenz seitens AMD gegenüber Intel freuen können. Vielleicht senkt Intel dann auch mal seine Preise ;)
 
Mich würde interessieren, wieviel mehr so ne Llano-Plattform real als ne Zacate-Plattform verbrauchen würde, sonst waere das für nen HTPC schon noch interessanter als nen Zacate.

Gibt ja einige, die nen Zacate Board in dieses unglaublich günstige LC Power Gehaeuse inkl. Pico-NT reinstecken. Wenn da auch nen LLano-Sys leise reingeht =P

@Krautmaster

hatte mich neulichst auch etwas reingelesen in Forenthreads und es gibt einige, die meinen Mediabrowser > XBMC und Mediaportal. Hast du das auch mal getestet?

Wichtig sind in meinen Augen zwei Punkte: Einmal die Bildqualitaet unter DXVA und zum anderen die Klangqualitaet.

Unter Windows nutzen manche Player nen WASAPI Plug-In, z.B. in Foobar optional und das soll die Klangqualitaet schon ordentlich steigern.

Ka, wie das die drei "Grossen" Mediacenter-Programme so handhaben, aber unter Windows mit FFDShow CPU beschleunigt sehen alle meine Videos, v.a. h.264 deutlich !!! besser aus als mit DXVA über ne HD 5450.

Hast du beide Punkte mal verglichen und gibt es das Soundproblem unter Linux z.B. garnicht?

Sonst nettes Vid, ich vermisse die Emulationsabteilung, z.B. eingebettes Hyperspin ^^, sonst scheints gut zu laufen. Waere natürlich noch besser, wenn man den gesamten Bootvorgang verdecken könnte mit nem selbst gewaehlten Bild etc.

*g* back to Topic, waere cool, wenn LLano auch etwas früher rauskommt. Die Vorlesungszeit will ja auch überbrückt werden =P
 
@Holylight

kann nachher mal nen Vid von 10.10 machen, da kommt Zeug beim Booten nich ;)

Man kann auch nen BootSlash draufmachen, nur hab ich den beim i3 nie gebraucht da er eh nicht kommt weils zuschnell geht :D

Ton, hm musst mal schauen in wie fern Alsa das regelt, das meiste geht eh direkt raus. Soundprobleme hab ich keine.

Zunächst wars etwas instabiel, im Vid fällt auf dass die 1080p mkvs langsam laden. Das ging soweit das 3 liefen und dann ging nichts mehr. Woran lags...? Video Mem im Bios von 128 MB auf 256 oder 512Mb erhöhen, nun lüppts 1a.

Das vid is auch ne XBMC 11 Pre. Die normale Dharma 10 sieht genauso aus und läuft bei mir besser.

Windows Foobar WASAPI ? Müsste ich mal testen. Hab ne XFi und geh eig immer über SPIDF an den Receiver ;)


Edit:

Getestet und 0 bis gar keinen Unterschied gehört, einzig die Tatsache gemerkt, dass Foobar dann die einzige SW ist die Ton ausgeben kann :D

Edit:

ich film mal das neue 10.10 Setting mit NEON und XBMC ab. So gut lief es noch nie :D - morgen kommt der 55" TV dann wird das gesteigert.
Das fertige Image für das SU2300+ION Board gibts dann im 16 W Thread
-> Backup done -> Bootsplash Test
 
Zuletzt bearbeitet:
Marcel55 schrieb:
BAber meine Vermutung war richtig (APU = CPU + GPU), dann währen die Sandys aber auch APU's :confused_alt:

Nö.

Während die SB Grafikeinheit einfach nur eine (ziemlich schlechte) "Grafikkarte" auf dem CPU-die ist, sind die Streaming-Prozessoren der APU programmierbar und somit lässt sich jegliche darauf angepasste Software damit beschleunigen.

So ähnlich wie CUDA vereinfacht gesagt. Ob INTEL da jemals hinkommt, werden wir sehen. Oder auch nicht :evillol:

Jedenfalls sind 3 Mill. schon mal ein guter Anfang, aber ich würde den Bedarf eher auf das 10fache schätzen. (2009 wurden mehr als 300 Mill. PCs verkauft, die Hälfte davon sollte Llano problemlos abdecken können)

@Krautmaster: Du bist komplett OT, kannst du bitte woanders angeben. Danke
 
@Krautmaster

Puh, werd es wohl selber testen müssen mitm Sound ^^ Aktuell hab ich kein PC lol, Lappy vom Daddy wird grad genutzt.

Soweit ich weiss, sampelt Windows jeglichen Sound einmal down und dann wieder up und dabei soll einiges draufgehen und das wird unter anderem mit ASIO Soundtreibern oder eben WASAPI umgangen.

Bleibt die andere wiiichtige Frage bezüglich der Bildqualitaet. Nen SU2300 hat wohl genug Power um auch so 1080p zu decodieren und würde dann auch das beste Bild liefern. Da wir aber alle ja schön maximale Effizienz wollen, waere das über die Graka beschleunigt schon optimaler. Vermutlich ist das niemandem aufgefallen oder es gibt bessere DXVA-Decoder, aber mit FFDShow ist das keine Freude das anzusehen ^^

Wundert mich schon, dass das Thema noch nirgends gescheit behandelt wurde, obwohl jeder hier mit 1080p GPU Beschleunigung wirbt.

Ok, das werd ich dann auch mit Alternativdecodern durchtesten müssen =P

Ansonsten könnte ein LLano (*gg*) ja per CPU dekodieren und die Graka wird halt für Games genutzt hehe.

Ok genug OT, vielen Dank nochmal für die Tests!

Bis dann und hf an alle
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Nö.

Während die SB Grafikeinheit einfach nur eine (ziemlich schlechte) "Grafikkarte" auf dem CPU-die ist, sind die Streaming-Prozessoren der APU programmierbar und somit lässt sich jegliche darauf angepasste Software damit beschleunigen.

So ähnlich wie CUDA vereinfacht gesagt. Ob INTEL da jemals hinkommt, werden wir sehen. Oder auch nicht :evillol:
Auch die Shader der GPU von Sandy Bridge sind programmierbar, den sonst wäre die GPU ganz bestimmt nicht DX10.1 und OpenCL tauglich! :rolleyes:
 
@kaigue

das Encodieren / Transcodieren wird aber meines Wissens nicht von den GPU "Shadern" an sich erledigt, sondern sozusagen von einem spezial Shader der praktisch nur für dieses Encodieren da ist.

Dieser "Spezialshader" ist aber offensichtlich weit performanter und effizienter als diese "alles-könnenden" GPUComputing fähigen Shader die sonst für die Grafikdarstellung eingesetzt werden.

Für mich ist Stand heute dieser Spezialshader die deutlich bessere und effizientere Lösung, zumindest für diese Aufgaben. Intel geht damit den richtigen Weg.

KAOZNAKE sieht in seiner fixen Art einen Nachteil, den ich so nicht erkennen kann. Vielleicht bietet sich für dieses Video Encoding + Raytracing zB ein Spezialshader eher an als für Dinge wie zB Flash Beschl oder Browser.

Schönes Beispiel nach wie vor:

Tessellation. Bei AMD eine fixe Spezialeinheit die nur das kann, bei Nvidia hingegen in Software über GPGPU auf den normalen Shadern gelöst. Hat vor und Nachteile. AMDs Lösung wird weniger Transitoren für selbe Tessellationsleistung brauchen, weniger Fläche, weniger Energie. Nvidias Lösung wird besser skalieren mit der Gesamtzahl der Shader, die Leistung ist dynamisch verteilbar.

Kein Konzept würde ich für die bessere / richtigere Lösung bezeichnen.
 
Zuletzt bearbeitet:
Auch bei bei den AMD GPU seit dem R700 gibt es eine extra Einheit für Video Beschleunigung usw., nämlich UVD ;)
Das hat aber auch nichts mit dem zu tun was KAOZNAKE meinte...
 
Krautmaster schrieb:
Schönes Beispiel nach wie vor:

Tessellation. Bei AMD eine fixe Spezialeinheit die nur das kann, bei Nvidia hingegen in Software über GPGPU auf den normalen Shadern gelöst. Hat vor und Nachteile. AMDs Lösung wird weniger Transitoren für selbe Tessellationsleistung brauchen, weniger Fläche, weniger Energie. Nvidias Lösung wird besser skalieren mit der Gesamtzahl der Shader, die Leistung ist dynamisch verteilbar.
So ein Quatsch, du hast wohl zu viel Charlie gelesen :p

AMD wie NV nutzen eine Tessellation-FFU samt Hull- und Domain-Shader. Und nicht AMD in Hardware und NV in Software :freak:
 
Fonce schrieb:
Auch die Shader der GPU von Sandy Bridge sind programmierbar, den sonst wäre die GPU ganz bestimmt nicht DX10.1 und OpenCL tauglich! :rolleyes:

Zeig mir EINE Software die von der INTEL iGPU beschleunigt wird :rolleyes:

(Und nein ich meine keine Spiele und nix was mit Quicksync zu tun hat)

@Krautmaster: Der Nachteil liegt prinzipiell darin, dass die Hardware unflexibel ist. Sie kann nur geändert werden, wenn ein neuer CPU rauskommt. Nicht umsonst hat INTEL mit ITANIUM versucht die Sache flexibler zu gestalten.

Aber theoretisch können selbst relativ "alte" programmierbare Shader für neueste Software verwendet werden und somit lässt sich ein Prozessor länger sinnvoll nutzen.
Wär jetzt mal mein Senf zu dem Thema. Wer eh dauernd neue Hardware anschafft, dem kanns natürlich grad egal sein, zudem stehen wir noch am Anfang und man wird sehen müssen, ob das Ganze überhaupt Fahrt aufnimmt. Aber immerhin setzt Apple schon voll und ganz auf OpelCL, nur darum unterstützt INTEL das überhaupt.
 
KAOZNAKE schrieb:
Zeig mir EINE Software die von der INTEL iGPU beschleunigt wird :rolleyes:

(Und nein ich meine keine Spiele und nix was mit Quicksync zu tun hat)

Das Wichtigste wird von Intel beschleunigt, nimm zB. Flash. Ich denke nicht, dass Intel ne fixed Unit für Flash verbaut hat. Das wäre auch recht schwachsinnig.

Nenn mir eine Software bei der die iGPU von Nvidia / AMD nennenswerte Vorteile gegenüber der iGPU von Intel bietet? Software die im Alltag Relevanz hat.
Und bitte mit Benchmarks dazu.

(Und nein ich meine keine Spiele und nix was mit Brutforce zu tun hat)
Ergänzung ()

Fonce schrieb:
Auch bei bei den AMD GPU seit dem R700 gibt es eine extra Einheit für Video Beschleunigung usw., nämlich UVD ;)
Das hat aber auch nichts mit dem zu tun was KAOZNAKE meinte...

genau, sagte ich bereits. Warum verwendet man hier eine Fixed Unit (obwohl das ja so unflexibel ist)? Weil es effizienter ist.
Ergänzung ()

y33H@ schrieb:
So ein Quatsch, du hast wohl zu viel Charlie gelesen :p

AMD wie NV nutzen eine Tessellation-FFU samt Hull- und Domain-Shader. Und nicht AMD in Hardware und NV in Software :freak:

Meines Wissens sitzt die Einheit dafür bei Nvidia aber in jedem Shader, während sie bei AMD doch zusammengefasst außerhalb der normalen Shader in einer speziellen TessellationsEinheit gebündelt ist. Oder?

AMD

https://pics.computerbase.de/1/7/0/6/0/9-1080.64490471.jpg

Und bei Nvidia

http://techgage.com/viewimg/?img=/a..._04.png&desc=NVIDIA's Fermi - Parallel Design

Das im Endeffekt beides über Software angesprochen wird ist nur logisch:

http://www.semiaccurate.com/forums/showthread.php?t=2097

I was under the impression that because NV used software (shader-based) tesselation, they would be at a disadvantage against ATI's purpose-built tesselation unit.

Prinzipiell hast du aber recht, bei Nvidia gibt es kleine Tessellator in jedem Shader und bei AMD eine große Tessellationseinheit.
 
Zuletzt bearbeitet:
AMD verwendet eine FFU, ja - und Nvidia hat eine PME pro SM. Dennoch sind das beides Hardware-Tessellatoren, welche von den ALUs mit Hull- und Domain-Shader gefüttert werden. Nur skaliert Nvidias Lösung halt mit ab- sowie zunehmender SM-Anzahl, bei AMD ist der Tessellator immer gleich flott (zumindest Cypress und Juniper). Im Extremfall tesselliert iirc (!) eine HD 5770 so schnell wie eine HD 5870.
 
Zurück
Oben