News AMD verdreifacht Fusion-Absatz

Genau, wichtig ist, was hinten rauskommt.

Ob ein Video in zwei oder in drei Minuten gerendert wird, ist verschmerzbar. Wenn ein Game aber nur mit 12 fps läuft statt mit 30 - das ist definitiv ein KO-Kriterium.
 
is doch vollkommen Banane ob man 6350 Chip oder intergierter Chip oder HD6350 sagt ^^
Die HD6350 is halt auf dem DIE mit verbaut, aber APU ist mehr oder weniger ein reiner Marketingbegriff.
Der Fusion von heute ist nicht mehr APU als Sandy Bridge auch.


Hauptsache das Ding verkauft sich gut. Ich für meinen Teil hab auch schon ein MSI Zacate bekommen und auf das ASUS Zacate warte ich noch.

Doof nur dass die Teile unter Linux mangels Treibersupport noch nichts taugen =/
 
Zuletzt bearbeitet:
Da bin ich nicht ganz deiner Meinung, Krautmaster. AMDs APU kann dank DX11 GPU Berechnung, Sandy Bridge nicht.
 
Freut mich für AMD. Die Fusion-APU ist ein klasse Stück Hardware. Günstig und ausreichend Leistungsfähig. Top!
 
naja ist nicht soooo berauschend..
ein uralter Pentium M 733 @1,1Ghz anno 2004 hat eine nicht zu tief darunter liegende Leistung und verbraucht auch nur seine 5 Watt maximal bzw. M 773 5,5W @ 1,3 Ghz
Und jetzt 2011 gerade mal im besten Fall 50% mehr Leistung -.-
 
Complication schrieb:
Ist halt immer die Frage was man unter "mithalten" versteht. Reine CPU Benchmarks zeigen ein anderes Bild als grafiklastige Anwendungen.
Schau dir an wo die aktuellen Fusion-APUs eingesetzt werden und frage dich nochmal ob das Orientieren an einem CPU Bench Sinn macht.

Sie müssen das OS flüssig darstellen, preislich attraktiv, wenig Energie verbrauchen und 1080p HW-Beschleunigung unterstützen.
Das versteht man unter mithalten.
 
Ich hoffe um ehrlichzusein das AMD die Preis leicht erhöht... im Vergleich zu den mMn deutlich uninteressanteren Atom-Boards werden die AMD-Boards bereits für sehr günstige 79€ an den Mann gebracht... . Liegt das am starken Euro/Dollar Kurs atm oder wieso verschenkt Asrock z.b. das hier^^ http://gh.de/a610927.html.

mfg
 
Freut mich sehr für AMD.
Aber da geht noch mehr! Ob ihr es glaubt oder nicht noch immer werden z.B. ATOM Netbooks verkauft! :o

Spreche übrigens immer von CPU- und GPU-Part. Wäre einfacher, wenn man auch eine Bezeichnung für den CPU-Part hätte. Dann könnte man die beiden beim Namen nennen, aber C-50 ist halt die gesammte APU und die HD6250 nur der GPU-Part.

An alle Skeptiker. Das ist der AMD C-50 (9W TDP) im Stande zu leisten!
 
Krautmaster schrieb:
is doch vollkommen Banane ob man 6350 Chip oder intergierter Chip oder HD6350 sagt ^^
Die HD6350 is halt auf dem DIE mit verbaut, aber APU ist mehr oder weniger ein reiner Marketingbegriff.
Der Fusion von heute ist nicht mehr APU als Sandy Bridge auch.
Aua - da werden Artikel über Artikel geschrieben über das gesamte letzte Jahr hinweg, die das integrieren der CPU und GPU auf einen Die erklären und welche technischen Vorteile abei entstehen, nur um dann 1 Jahr später zu sagen dass es egal ist ob die GPU auf einem eigenen Chips sitzt oder integriert auf der CPU ist?

Und dass APU und Intels völlig andere Ansätze sind sollte dir dieser Artikel mal erklären:
https://www.computerbase.de/2011-01/test-sandy-bridge-grafik/3/#abschnitt_technische_details_part_2
Eine interessante Beobachtung sind die erweiterten Fixed-Function-Einheiten. Denn während AMD und Nvidia immer weniger verbauen und stattdessen auf flexible ALUs setzen, geht Intel einen etwas anderen Weg, da es so für den Chipriesen einfacher sein soll, die Leistungsaufnahme gering zu halten.

APU ist völlig verschieden von Intels OnCPU Grafik - auch jetzt schon - da die APU programmierbar ist und es dafür eine komplette Entwicklungsumgebung gibt. Dies existiert bei Intels onCPU Grafik bis heute nicht. Es werden fixierte Funktionseinheiten wie bei Mediachips von Sigma oder Marvel verbaut um die meisten Funktionen stromsparend dennoch umzusetzen (z.B. Quicksync). Die grossen Unterschiede werden kommen sobald Intel versucht DX11 einzugliedern - vorher kann man nicht mal von ähnlicher Architektur sprechen.

Der Unterschied ist nur deshalb für viele nicht erkennbar, da AMD APP Software erst noch programmiert wird - und dennoch sollte es bald jedem auffallen der einen modernen Browser benutzt der GPGPU Beschleunigung verwendet, da Webprogrammierer die Dinge schneller in die Praxis bringen.
Ergänzung ()

estros schrieb:
Schau dir an wo die aktuellen Fusion-APUs eingesetzt werden und frage dich nochmal ob das Orientieren an einem CPU Bench Sinn macht.
Muss ich nicht , da ich in den CPU Benches keinen Sinn sehe - nur ist das in Foren nicht bei jedem so. Daher habe ich diese Relativierung verwendet, damit mir nicht jemand dann eben diese vor die Nase hält.
 
Das war es, was AMD brauchte.

Aber da geht noch mehr... Llano und Bulldozer werden das Paket abrunden und endlich Intel in allen Bereichen Paroli bieten können.
Im Artikel fehlt übrigens, dass Fusion auch ideal ist für HTPCs. Da kommt die APU sicherlich häufiger vor, als in Tablets.
 
Die Zahl der HTPCs wird richtig steigen, wenn paar Boards noch dazu kommen :), momentan sind es ja nur 4-5 Boards und diese sind z.T. nicht lieferbar.
 
Raucherdackel schrieb:
Da bin ich nicht ganz deiner Meinung, Krautmaster. AMDs APU kann dank DX11 GPU Berechnung, Sandy Bridge nicht.

Und was bitte will ich mit ner Dx 11 Karte die mir kein Dx 11 Spiel fluessig darstellen kann? Der Grafikchip, die IGP, APU was auch immer, ist ja eben fuer 2D Anwendungen und Filme gedacht, und nicht fuer 3D Spiele mit Dx 11, deswegen seh ich keinen Sinn darin so nem Dingen Dx 11 zu spendieren.
 
ChilliConCarne schrieb:

fixed ;) EIn MSI Zacate hab ich schon bekommen, warte aber auf das ASUS seit Ewigkeiten schon.

http://www.phoronix.com/scan.php?page=article&item=amd_fusion_e350&num=1

Meinst du jetzt ATI onboard Karten an sich, oder speziell die Fusion CPU?

HD Beschl rennt, mehr oder weniger. Bis Level 4.1 was für die meisten Filme ausreicht. Allerdings geht VA Deinterlacing nicht was für TV Intel als auch AMD unbrauchbar macht.

Wobei Intel innerhalb eines Jahres AMD in Sachen HD Beschl unter Linux deutlich überholt hat und auch da wird gerade an VA Deinterlacing gearbeitet. Im VAAPI Code ist es angeblich bereits mit drin aber noch nicht offen.

Bisher geht es mit Nvidia halt 5 mal einfacher und besser.

Deswegen werkelt gerade ein SU2300 + Gf9400 http://geizhals.at/deutschland/a564889.html
im HTPC, das Vergleichbare Leistungsaufnahme (unter win 7 ca 17W idle und 26W CPU Full load) zeigt dabei aber die besser Kühlung im Vergleich zum E-350 MSI besitzt und Wlan hat.

Wenn AMD mal einen Nvidia gleichwertigen Treibersupport hinbekommt dann wird Zacate / Llano erst richtig interessant. Unter Windows 7 empfiehlt sich Zacate schon heute, allerdings is Windows als HTPC System mit LiveTV meiner Ansicht nach ungeeignet.

@Complication

Der tolle GPU Part ist genauso programmierbar wie meine HD6950. Über GPGPU Erweiterungen ansprechbar. Ich habe bisher nichts dahingehend gehört, dass Zacate spezielle Befehle dynamisch ohne zutun des Programmierers auf seine GPU Register auslagert.

Solange spezielle Software nötig ist gewinnt man dadurch ohnehin wenig.

Ist den Zacate bei normalen CPU Berechnenden Floating Berechnungen nun zig mal schneller da die APU das auf GPU Registern bewältigt?

@Malkavien

Prinzipiell ist Fusion perfekt fürn HTPC ja. Allerdings nur so gut wie sein Support / Treiber ist.
Und da ist was das angeht sowohl Intel als auch Nvidia gerade vor AMD.
 
Zuletzt bearbeitet:
Seby007

Aber dafür ist der Pentium M auch bei der ersten modernen Berechnung am Ende, die SSE4 oder ähnliches beinhaltet am Ende und stirbt ab :) aber zweifelsfrei war der Pentium M der einzige brauchbare P4.

So jetzt zum Thema: Bobcat ist nur der Anfang und mit etwas Glück ist Llano aber spätestens sein Nachfolger das Ende vom Anfang. Das geradezu revolutionäre Konzept einer APU soll irgendwann mal so aussehen, dass alle Einheiten an allem mitrechnen. Beispielsweise sie Shadereinheiten zur CPU Berechnung herangezogen werden. Das Hängt aber stark von den Softwareentwicklern und vor allem Microsoft ab. Vielleicht schreiben die Windows 8 so, dass endlich auch mal GPUs einige wichtige Dienstprozesse oder Sonstiges berechnen.

Leider lechzt Bobcat nach Speicherbandbreite. Ein sehr schneller OC RAM bringt dort enorme Leistungssteigerungen. Singlechannel ist da halt wirklich arg wenig. Weiß zufällig jemand, wie der RAM bei Bulldozer angebunden ist? Bei der 2. Generation mit einer sicher sehr starken GPU wäre Quadchannel sehr von Vorteil. DDR3 2000 unterstützend am besten. Dann kommt man schon auf das Niveau eines guten GDDR5.
 
Zuletzt bearbeitet:
Lorch schrieb:
Und was bitte will ich mit ner Dx 11 Karte die mir kein Dx 11 Spiel fluessig darstellen kann? Der Grafikchip, die IGP, APU was auch immer, ist ja eben fuer 2D Anwendungen und Filme gedacht, und nicht fuer 3D Spiele mit Dx 11, deswegen seh ich keinen Sinn darin so nem Dingen Dx 11 zu spendieren.

DX11 ist ja nicht nur für Spiele wichtig! Hoffe da sagt jemand mit mehr Ahnung noch was dazu... ;)
 
Direct2D, DirectWrite... DX11 hat nicht nur mit Spielen zu tun, sondern auch mit 2D Darstellungen.
http://en.wikipedia.org/wiki/Microsoft_Direct3D
  • Tessellation — to increase at runtime the number of visible polygons from a low detail polygonal model
  • Multithreaded rendering — to render to the same Direct3D device object from different threads for multi core CPUs
  • Compute shaders — which exposes the shader pipeline for non-graphical tasks such as stream processing and physics acceleration, similar in spirit to what OpenCL, Nvidia CUDA, ATI Stream achieves, and HLSL Shader Model 5 among others.[15][16]
http://en.wikipedia.org/wiki/Windows_Advanced_Rasterization_Platform
WARP is a full-featured Direct3D 10.1 renderer device with performance on par with current low-level graphics cards such as Intel GMA 3000 [1], when running on multi-core CPUs. [2] To achieve this level of rendering performance, WARP employs advanced techniques such as just-in-time compilation to x86 machine code and support for advanced vector extensions such as SSE2 and SSE4.1.
Und damit nicht wieder jemand sagt dass dies ja auch DX10 Hardware kann - es ist ein Unterschied in der optimierten Pipeline und es macht grosse Performance Unterschiede, ob das OS die multiplen Threads selber verteilen kann nach Bedarf oder ob sie durch die API fixiert werden in der Anzahl und Flexibilität:
http://www.bit-tech.net/bits/2008/09/17/directx-11-a-look-at-what-s-coming/6
Although multi-threading is not a new part of the graphics pipeline, per se, it is an incredibly important feature for DirectX 11. It becomes even more important when you factor in the potential to port these improvements to DX10-class hardware as well through driver updates.
 
News schrieb:
Der Anteil der Fusion-Chips an allen Mobilprozessoren habe zudem bei 50 Prozent gelegen. Mit Einführung der zweiten Fusion-Generation „Llano“ im zweiten und dritten Quartal sollen diese Zahlen weiter gesteigert werden.
Ich glaube, das ist was falsch verstanden worden.

Es soll mit Llano nicht der Fusion-Anteil steigen, sondern der Anteil der normalen Notebooks, mit dem AMD dann mehr Geld machen kann.

Ein Ontario-Anteil aller AMD-Notetbooks/Netbooks/Subnotebooks von 50% ist verdammt viel. Intel selber schaffte es mit Atom erst nach 1-2 Jahren "nur" auf 25%

Dass AMD in Zukunft nur Fusion anbieten will, haben sie sowieso schon immer jahrelang gesagt und das bräuchte man jetzt nicht erwähnen.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@Complication

Der tolle GPU Part ist genauso programmierbar wie meine HD6950. Über GPGPU Erweiterungen ansprechbar. Ich habe bisher nichts dahingehend gehört, dass Zacate spezielle Befehle dynamisch ohne zutun des Programmierers auf seine GPU Register auslagert.
Ja aber es gibt immer noch keine Intel GPU die entsprechend programmierbar wäre - daher ist es falsch zu sagen der Unterschied zwischen APU und Sandy Bridge onCPU Grafik wäre lediglich Marketing. AMD möchte ja dedizierte GPUs ebenso programmierbar haben wie die APU und hat entsprechend die Hardware kompatibel gemacht.

Nur kann eine dedizierte GPU nicht auf gemeinsame Cache oder RAM Bereiche zugreifen wie es eben eine APU kann - das verursacht wesentlich größere Datenmengen auf dem Speicherinterface und entsprechend größere Chips mit großem SI die wieder mehr Strom verbraten um die selbe Leistung zu erzielen.

Seltsam eine AMD Grafikkarte als Beleg heranzuziehen, dass die Intel onChip Grafik das selbe sei wie eine APU.
 
Zurück
Oben