News AMD: Nach CeBIT-Video nun Zahlen zur Leistung von „Llano“

Krautmaster schrieb:
Wenn du schon fleißig mit Links um dich wirfst solltest du vielleicht diesen ergänzen:

https://www.computerbase.de/news/pr...t-weniger-shadereinheiten-als-erwartet.30208/

Danke, dass du den von mir verlinkten Artikel nochmals verlinkst!:freak:

Bestätigt leider auch, dass du wohl nur um der Meinungsmache Willen mit ellenlangen Beiträgen in denen du übrigens immer wieder aufs Neue deine festgefahrenen Ansichten runterleierst um dich wirfst und den Ansichten bzw Argumenten anderer Disskusionsteilnehmer weniger offen gegenüberstehst!
 
ICh frag mich immer für was man so viel Grafikpower benötigt. Ein großteil der Nutzer haben nen groößeren nutzen durch ne stärkere CPU. Und die Intelgrafik reicht ja für alles...
 
Krautmaster schrieb:
ja, AMD geht mit den APU und Bulldozer interessante Wege. Bei Intel ist es mehr als eine simple Kopplung GPU + CPU zu sehen, während es bei AMD schon als Ziel gesehen werden kann die DIEs komplett zu verschmelzen und folglich direkt Befehle auf GPU Anteil auszulagern, Man darf gespannt sein wie das funktioniert, aber eine solche "echte" APU wird man wohl erst in einigen Jahren sehen und ein eigener Befehlsatz wäre wohl auch notwendig.

Bei Zacate sind die Dies schon komplett verschmolzen und voll integrierte APUs - da dauert nichts mehr einige Jahre. Schaut man sich die Bulldozermodule an, so braucht man nicht viel Phantasie um sich vorzustellen dass die FlexFPU durch GPU Shader mit FPU Funktionen ersetzt werden soll - die Software für diesen Schritt ist unterwegs durch GPGPU Code.

Dieshot Llano:

llano_comp2-jpg.224256


Dieshot Zacate E-350:
amd_zacate_dual_core_die_shot-jpg.224257


Hier wird eine Verschmelzung aus drei Richtungen voran getrieben
-> Brazos ist für die Integration zuständig auf niedrigem Verbrauch in bewährtem 40nm Prozess.
-> Llano testet die GPU Integration auf neuem 32nm Prozess mit bewährter CPU Architektur.
-> Bulldozer testet die neue CPU Architektur auf 32nm und soll für Performance sorgen.

Das Ziel ist eine Bulldozer APU - und diese drei parallelen Entwicklungen zusammen zu führen. Und hier ist AMD Intel mit Sicherheit mehr als 3 Jahre voraus. Und dies ist mit Sicherheit auch der Grund warum die Infos so spärlich fließen. Ich denke Intel hat zu spät erkannt dass die x86 Performance bald nicht mehr das Maß aller Dinge sein wird - es ist eine gewisse Sättigung erreicht die dazu führt dass die Verbesserung des "User Experience" nicht mehr von mehr CPU Leistung abhängt. SSD+GPU sowie Mobilität sind die nächsten 2-3 Jahre die Bereiche wo die Aha Effekte her kommen
 

Anhänge

  • Llano_comp2.jpg
    Llano_comp2.jpg
    281,8 KB · Aufrufe: 1.188
  • amd_zacate_dual_core_die_shot.jpg
    amd_zacate_dual_core_die_shot.jpg
    86,5 KB · Aufrufe: 1.089
Zuletzt bearbeitet:
^^ genau meine Meinung. ;-)

Das Märchen vom "GPGPU"-Computing welches uns AMD bzw. Nvidia seit ein paar Jahren verzapfen, ist doch für 99% der Leute sowas von unwichtig. Bis auf ein paar spezialisierte Anwendungen braucht das keiner. Office auf der Graka?
Wie schon einige Vorredner angeführt haben: wer um Himmelswillen schaut gleichzeitig ein HD-Video, zockt und macht eine Office-Präsentation? Richtig! - keiner. Eine hohe SingleCore - Leistung wär mir lieber... diese integrierten Grakas sind viell für den LOW - unteren MID - Leistungsbereich interessant. Und diese Klasse ist, wie wir alle wissen ähm naja *gääähn* gg
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Aber: Eine diskrete GPU ist schneller. Llano + Diskrete GPU macht wesentlich weniger Sinn als SB + diskrete GPU. -> kleiner Markt.

Edit:

Ist eigentlich Zacate + Llano endlich mal fähig zwei digitale Displays anzusprechen?


Wieso macht Llano + GPU keinen Sinn? Stichwort Hybrid Crossfire, das kann Intel nicht, bzw. "untersagt" es sogar.

Und was meinst du mit zwei digitalen Displays? Jedes Brazos System kann theoretisch über HDMI+DVI zwei digitale Geräte "beliefern.


Zum Thema: Ich finde es lustig wie hier herumgeschäumt wird und dabei völlig vergessen wird was hier verglichen wurde: zwei Notebook-Prozessoren. Der eine wird in Notebooks jenseits der 1000 Euro Grenze eingebaut

http://geizhals.eu/?cat=nb17&asuch=Core i7-2630QM
http://geizhals.eu/?cat=nb15w&asuch=Core i7-2630QM&sort=p

der andere wird meiner Meinung nach in Notebooks weit unterhalb der 1000 Euro Grenze eingesetzt, ich schätze mal ab 700 Euro (ohne Gewähr)

AMD sagt selbst, sie sind sich bewusst dass die reine CPU-Leistung der von Sandy Bridge unterlegen ist.

Hier wird mal wieder nicht verstanden, dass Llano eine reine Mainstream APU ist, im Gegensatz zum i7-2630QM dessen Preis sicherlich jenseits von gut und böse anzusiedeln ist der aber "nur" eine HD 3000 Grafikeinheit sein eigen nennt. Wieviele haben im MBP-Artikel aufgeschrien, dass die 13 Zoll Version keinen dedizierten Grafikchip hat, bzw. ein Rückschritt im Gegensatz zur 320M darstellt. Der Llano würde hier sehr gut passen und ich kann mir im Gegensatz zu manch anderen durchaus vorstellen, dass im nächsten bzw. wohl eher übernächsten MBP eine Bulldozer APU werkelt.
 
Naja, mit GT540M liegt man schon bei 80W TDP (CPU 45W, GPU 35W). Hinzu kommt noch der Chipsatz.

Imho für den mobilen Alltag ungeeignet!
 
Complication schrieb:
Hier wird eine Verschmelzung aus drei Richtungen voran getrieben
-> Brazos ist für die Integration zuständig auf niedrigem Verbrauch in bewährtem 40nm Prozess.
-> Llano testet die GPU Integration auf neuem 32nm Prozess mit bewährter CPU Architektur.
-> Bulldozer testet die neue CPU Architektur auf 32nm und soll für Performance sorgen.

Das Ziel ist eine Bulldozer APU - und diese drei parallelen Entwicklungen zusammen zu führen. Und hier ist AMD Intel mit Sicherheit mehr als 3 Jahre voraus.


3 Jahre voraus? Alles was du hier schreibst findest du heute schon in SB. Nächstes Jahr kommt schon Ivy Bridge um Erfahrung in 22nm zu sammeln und 2013 Jahr später kommt ein komplett neues CPU Design während BD einen refresh erlebt.

Alles in allem eine doch ziemlich ausgewogene Geschichte.
 
@Athlonscout

Das ist durchaus richtig und genau in die Kerbe müsste Llano ja auch schlagen, mein Argument war aber, dass er jenseits von 1000 € eingesetzt wird, das ist nachweislich falsch.:(

Llano hat genau diesen Vorteil, er kann ein Mainstream Grafiknotebook "mobilisieren", einfach durch die geringe Leistungsaufnahme.

@paradox

Es gibt nicht nur einen refresh Bulldozer, er wird auch zusammen mit einem Grafikkern zu einer APU verbunden, Codename Trinity, Piledriver ist dabei der BD-Kern.


Übrigens, theoretisch beginnt AMD Ende 2013 der Produktionsstart für 20nm Herstellung

globalfoundriesroadmap.png


und der refresh ist für 2012 angesetzt nicht 2013, da soll ein Next-Generation Bulldozer kommen

S10412016.png
 
Zuletzt bearbeitet:
Athlonscout schrieb:
Naja, mit GT540M liegt man schon bei 80W TDP (CPU 45W, GPU 35W). Hinzu kommt noch der Chipsatz.

Imho für den mobilen Alltag ungeeignet!


Es ging ja nur um die Preise. Hier ist der Intel ja dann sogar benachteiligt, da extra Karte die auch was kostet. Es hängt viel von der Ausstattung ab, aussagekräftiger kurz nach launch wären die reinen CPU Preise.
 
Paradox.13te schrieb:
3 Jahre voraus? Alles was du hier schreibst findest du heute schon in SB. Nächstes Jahr kommt schon Ivy Bridge um Erfahrung in 22nm zu sammeln und 2013 Jahr später kommt ein komplett neues CPU Design während BD einen refresh erlebt.

Alles in allem eine doch ziemlich ausgewogene Geschichte.
Und was soll davon in SB vorhanden sein? Kein DX11, kein Linux Support, keine GPU Beschleunigung für Software. Man braucht Lucid oder muss zusätzlich unnötige Monitore anstecken um das einzige GPU Beschleunigung Feature zu nutzen wenn eine diskrete Grafik eingesteckt wird (QuickSync) und auch dies ist eigentlich durch Special Function Units gelöst wie bei AMD durch UVD. Eigentlich nicht durch GPU Shader. Das einzige wo Intel aufgeholt hat ist der Video Decoder - und das können viele andere auch, wie Sigma oder Realtek.

Das Problem bei Intel ist dass sie sich ihre bessere Leistung mit den schnellen Shrinks und Investitionen in kleinerer Fertigung erkaufen. Nur hat AMD die Fähigkeit aus einem Prozess mehr raus zu holen ohne gleich weiter runter zu müssen für Mehrleistung. Das zeigt sich nun an den 40nm APUs vs. Atom. Der Bulldozer Refresh ist auch schon in 2012 zu erwarten und wird wohl kurz nach Ivy Bridge kommen - und warum sollten die kommenden Bulldozer APUs schon auf 22nm runter müssen?

Je schneller Intel shrinkt desto schwieriger wird es leistungsfähige echte GPUs in der neuen Fertigung zu integrieren. Weder die Sandy Bridge noch Ivy Bridge Architektur sind geeignet die GPU voll zu integrieren - Bulldozers Architektur schon.
 
deadohiosky schrieb:
Wieso macht Llano + GPU keinen Sinn? Stichwort Hybrid Crossfire, das kann Intel nicht, bzw. "untersagt" es sogar.

Und was meinst du mit zwei digitalen Displays? Jedes Brazos System kann theoretisch über HDMI+DVI zwei digitale Geräte "beliefern.

Meines Wissens gehen mit allen AMD IGPs auf den Mainboards immer nur 1 analoges Display + 1 digitales, nicht aber DVI + HDMI. Wenn ich mich irre gerne korrigieren.

Wäre gut wenn Brazos das besser macht.

Hybrid Crossfire muss erstmal funktionieren. Und Crossfire bleibt Crossfire mit Microrucklern. Am interessantesten wäre noch eine Grafikswitch Option um Energie zu sparen da die 32nm GPU sicher recht genügsam ist.

@Complication

APU ist relativ. Es sind nach wie vor getrennte Bereiche auf der DIE. ich wüsste nicht, dass Zactae dynamisch die GPU für Berechnungen miteinbezieht. Die ist imho nur für die Grafik zuständig. Auch hier lass ich mich gern korrigieren.

Bei Llano siehts eigentlich genauso aus wie bei SB. Eine DIE, die eben GPU und CPU umfasst. Der Begriff APU ist hier eher Marketing.

Ich finds eher interessant, dass der DIE Shot nicht zu der Folie der News passt. Vermutlich sind die Werte bezogen auf ein DualCore Llano.
 
Zuletzt bearbeitet:
APU ist der Marketingname von AMD. Es bedeutet nichts weiter als das GPU und CPU auf dem gleichen Die verschmelzt sind. Das ist bei Intel auch der Fall. AMD erkauft sich die bessere GPU Leistung mit deutlich mehr GPU Fläche auf dem Die. Das ist kein sonderlich großes Kunststück. Hier treffen einfach nur 2 unterschiedliche Philosophien aufeinander. Wie gesagt, der Vorsprung von 80% ist da eher ernüchternd wenn das der Durschnitt in unabhängigen reviews wird.
 
Complication schrieb:
Und was soll davon in SB vorhanden sein? Kein DX11, kein Linux Support, keine GPU Beschleunigung für Software. Man braucht Lucid oder muss zusätzlich unnötige Monitore anstecken um das einzige GPU Beschleunigung Feature zu nutzen wenn eine diskrete Grafik eingesteckt wird (QuickSync) und auch dies ist eigentlich durch Special Function Units gelöst wie bei AMD durch UVD. Eigentlich nicht durch GPU Shader. Das einzige wo Intel aufgeholt hat ist der Video Decoder - und das können viele andere auch, wie Sigma oder Realtek.

DX11 ? Wozu, bei ner IGP die nicht primär zum Zocken da ist?
Linux? Da ist der Intel Support besser als der von AMD.
Beschleunigung? Flash wird doch beschleunigt, genau wie HD Material. Sogar unter Linux.
Was ist mit HDMI 1.4a und der Unterstützung von 3D? Find ich jetzt wichtiger als DX11 ...

Außerdem setzt man DX11 nicht mal eben um da zB. Tessellation zwingend vorhanden sein muss. Warum all das integrieren wenn es 99,9 % der Benutzer gar nicht benötigen weil sie nur ihren Aero Desktop damit flüssig darstellen... Ist doch nur Ballast.
 
Zuletzt bearbeitet:
APU ist ein Konzept das Intel in dieser Form nicht verfolgt. Es geht darum ausser x86 Code auch weiteren Code auszuführen - Intel hat keinerlei SDK das vergleichbar wäre mit CUDA oder AMD APP (früher ATI Stream).

Wer immer noch meint es gehe lediglich darum GPU und CPU auf einem Die zu vereinen, der hat es noch immer nciht begriffen - hier steht ein ähnlicher Schritt bevor wie damals als der Mathematische Co-Prozessor in die CPU gewandert ist und heute eine CPU ohne FPU gar nciht mehr denkbar ist. Intels Marketing versucht natürlich das ganze runter zuspielen und mit solchen Merkwürdigkeiten wie der angeklatschten Clarkdale Grafik soll irgendwie der Eindruck erweckt werden man bewege sich hier technologisch auf Augenhöhe - nur das wird mit der Ivy Bridge GPU in der Sackgasse enden sobald man DX11 versucht zu integrieren. Das hat sowohl AMD als auch Nvidia viel Funktionen gekostet.

Intel müsste jetzt schon mit Hochdruck an einer GPU arbeiten um das Larabee Fiasko und die dadurch verlorene Zeit aufzuholen - es war eben ein Irrweg mit x86 auf GPU. Und nun kommen die ARM basierenden Designs auch noch - x86 verliert immer mehr an Boden und das ist nun mal Intels Bastion.
 
@Krautmaster, warum muss ich dir nachweisen, dass HDMI+DVI/D-SUB funktioniert. Ich könnte jetzt einen lmgtfy Link setzen aber ich helfe dir auf die Sprünge

http://www.asrock.com/mb/manual.asp?Model=E350M1

Lade dir das User-Manual runter, Seite 16, grauer Kasten unten.


"Hybrid Crossfire muss erstmal funktionieren."

was ist denn das für eine Aussage? Ja, natürlich muss es erst einmal funktionieren, wenn es aber funktionieren "sollte", dann gibt es genau einen Grund. Und ich nenne dir auch einen zweiten: PowerExpress. Das wäre dann diese Grafikswitch Option von der du sprichst.


Wie soll den Zacate die Grafikeinheit einbeziehen, wenn das gar nicht unterstützt wird. GPGPU ist beschränkt auf parallelisierte Prozesse, wie soll denn da eine OOO-CPU gezielt Hilfe von der GPU in Anspruch nehmen. Solange Programme dies nicht unterstützen, wie z.B mit Hilfe von Open Cl geht es einfach nicht.

edit: Llano wird HDMI 1.4a unterstützen. Bei Zacate ist es einfach die GPU, die nicht performant genug ist, das sollte ja wohl klar sein.

Das Intel den besseren Linux Treibersupport hat, halte ich auch für ein Gerücht.
AMD ist seit geraumer Zeit sehr aktiv in der Open Source Szene aktiv und unterstützt sie mit freigegebenen Code-Werk, besonders im HTPC-Bereich.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Linux? Da ist der Intel Support besser als der von AMD.
...
Das hat sich mit Sandy Bridge gravierend geändert.
 
genau deswegen legt Intel ja auch ein Rekord Jahr nacheinander hin ;)

Der Ansatz APU ist schön und gut. Wie hoch ist der Anteil die HEUTE im Desktopbetrieb von DX11, OpenCL, GPU-Computing, CUDA / AMD APP etc profitiert? <0,2%?

Intel macht dahingehend alles richtig, sie integrieren das was beim Endnutzer wichtig ist auf eine günstige und funktionale Art, ohne viel Ballast und Aufwand. Man könnte auch zig Millarden in Treiberentwicklung stecken, macht man aber nicht da 99% der Treiberarbeit bei der Unterstützung von Spielen anfällt was anscheinend eher als "Nebenfähigkeit" der IGP angesehen wird.

Es mag für den Kunden nicht die technologisch optimale Grafiklösung sein, das stimmt wohl, aber aus Unternehmens-Sicht ist man richtig vorgegangen (siehe Geschäftszahlen).

Man sollte die IGPs garnicht erst versuchen zu vergleichen. Natürlich hat AMD hier nun massig Know How dank ATI und man lebt ja auch vom Verkauf von diskreten GPUs die eben DX11 und alles brauchen.

Mag sein dass irgendwann 30% von den von dir genannten Schnittstellen profitieren, aber da gehen noch Jahre ins Land und spätestens dann wird Intel auch wieder funktional und einfach solche Dinge integrieren und unterstützen.

Sofern eine Zusatzsoftware nötig ist und der Programmierer gezielt auf GPU Auslagerung Coden muss wird es sich nie durchsetzen.
Das muss als Befehlssatz in die CPU und ins OS und egal wie der Code aussieht dynamisch von GPU / CPU berechnet werden...
Vielleicht kommen wir irgendwann dahin, aber bis dahin ist noch ein weiter Weg...
Ergänzung ()

Complication schrieb:
Das hat sich mit Sandy Bridge gravierend geändert.

in wie fern? Link?
Ergänzung ()

deadohiosky schrieb:
@Krautmaster, warum muss ich dir nachweisen, dass HDMI+DVI/D-SUB funktioniert. Ich könnte jetzt einen lmgtfy Link setzen aber ich helfe dir auf die Sprünge

das war eine simple Frage... rein aus Interesse. Du musst mir nichts nachweisen... :rolleyes:
Wenn du sie mit einem Satz beantworten kannst ist das schön, dann mach es doch einfach.

Bezüglich Hybrid Crossfire und funktionieren meine ich dass sich aufgrund der Lage der GPU (in der CPU) sich technologisch etwas geändert haben könnte was größere Änderungen auch an Hybrid Crossfire nötig machen könnte. Mir noch keine offizielle Aussage von AMD dahingehend bekannt.

Wenn, wie du sagst, Llano HDMi 1.4a samt 3D standard unterstützt eignet sie sich schon besser für meinen HTPC =)
Gibst auch einen Link / Quelle dazu?

Ich find dazu bei Google auf Anhieb nichts.

Bezüglich linux Support werden sich AMD / Intel nicht viel nehmen, in den XBMC / VDR Foren habe ich nur öfters aufgeschnappt dass gerade im Bereich HD Beschl + XBMC etc man mit Intel + NV noch am einfachsten fährt.

Ich habe nicht so tief verglichen, prinzipiell hat mir der AMD Treiber ganz gut gefallen auf Ubuntu.
Ich werde mir davon ohnehin ein Bild machen und mir ein Zacate Board zum spielen holen, schauen ob ich darauf XBMC + HD Beschl. zum Laufen bekomme.

Es ging mehr um die einfach in den Raum geworfene Aussage von Complication...
 
Zuletzt bearbeitet:
Zurück
Oben