News Hinweise auf 28-nm-Fertigung bei AMDs „Carrizo“-APU

Krethi & Plethi schrieb:
AMD wollte keinen eigenen prozess mehr entwickeln, zumindest fd-SOI ist bei GT ein standardprozess den sie von STM lizenziert haben, da zahlt AMD nichts für die entwicklung.

für 20nm FinFET wäre SOI sogar besser, weil das auf SOI einfacher zu realisieren ist, man spart sich arbeitsschritte beim isolieren.
http://semimd.com/blog/2013/12/05/finfet-on-soi-potential-becomes-reality/

Gate Last wäre wünschenswert. Nur dummerweise sind die von STM entwickelten FD-SOI Prozese Gate-First, somit verliert man einen großteil der Vorteile wieder.


Herdware schrieb:
Rein physikalisch ist sicher noch der eine oder andere Shrink drin, aber dabei werden bestimmte negative Effekte (Wärmedichte, Leckströme usw.) wahrscheinlich schon so stark, dass man mit den gröberen Strukturgrößen in ausgereiften Fertigungsprozessen oft einfach besser fährt.

Leckströme sind bei Gatelängen von unter 100nm ein Problem. Und da ist man schon ewig. Im 130nm Node war man schon bei 65nm Gatelänge. Damals ging auch ungefähr die Hälfte des Verbrauchs auf Kosten von Leckströme. Die Isolierschicht war ja schon im 90nm Node nur noch 1,2nm dick. Wirkliche besserung brachte Intel im 45nm Node mittels HKMG-Technologie. Da konnte man den Verbrauch massiv senken. Hat man ja schön im Vergleich Core 2 Extreme QX9650 (45nm) vs. Core 2 Extreme QX6850(65nm) gesehen, beide 4 Kerne und 3 GHz und der QX9650 hatte noch 50% mehr L3 Chache


Herdware schrieb:
Offensichtlich haben wir es hier auch nicht nur mit einem speziellen Problem von TSMCs 20nm-Prozess zu tun, den AMD und Nvidia bei ihren neusten GPUs links liegen lassen, sondern auch Intel (Verschiebung der Broadwells) und Global Foundries (Carrizo) haben wohl ganz ähnliche Schwierigkeiten.

Intels "Problem" wird sein, dass sich Desktop Broadwell kaum lohnen wird gegenüber 22nm. Beim Schritt 32nm auf 22nm konnte man noch einiges an Fläche sparen. Bei 22nm zu 14nm können wir froh sein, wenn wir mehr als 15% im Idealfall sehen.

Vergleicht man SRAM-Zellen (6 Transistoren) wird es deutlich:

45nm(0,346µm²)->32nm(0,171µm²)->22nm(0,092µm²)

Bei 45nm zu 32nm konnte man im Idealfall die Strukturänderung (Faktor 1,98) noch 1:1 umsetzen, bei 32nm zu 22nm (Faktor 2,11) schon nicht mehr. Bei 22nm zu 14nm (Faktor 2,47) wird es noch extremer, da rechnet man mit 0,08µm² für die SRAM Zelle, ebenso wie bei 10nm.

Bei Nodes unter 22nm geht es in erster Linie darum sie Spannung zu senken und somit die Effizienz zu erhöhen. Aus dem Grund bringt Intel auch erst die Modelle bei denen die Effizienz am wichtigsten ist.

Bei GPUs wird es noch interessanter bis jetzt hat man mit jedem Node die Transisitorendichte auch verdoppeln können ähnlich wie bei SRAM-Zellen. Nur hier laufen wir auch in das gleiche Problem wie oben schon angedeutet. Bei 20nm wird es nicht mehr möglich sein die Transistorendichte im Vergleich zu 28nm zu verdoppeln. Man wird aber einen Sprung in Sachen Effizienz machen. Ganz interessant wird es dann bei 14nm. Wenn man schätzungsweise wirklich nur die Transistorendichte um 15% erhöhen kann, dann muß man das Plus an Leistung irgendwie anders erzeugen. Es kauft sich ja keiner eine neue Karte nur weil sie weniger verbraucht.
 
@flappes: AMD hat keine Schnitte, weil das Marketing von Intel besser ist, das hat wenig mit tatsächlicher Leistung zu tun.
Ich finde es gar nicht verkehrt, dass AMD dieses Mal Intel die Probleme bei neuen Produkten ausmerzen lässt als anders herum... ich finde es ziemlich ätzend, dass der Branchenriese so von dem Kleinen profitiert und die Leute dann blind kaufen weil es doch so viel besser ist... und dann ist der Großteil davon Schönrechnerei...
 
Matzegr schrieb:
Bei Nodes unter 22nm geht es in erster Linie darum sie Spannung zu senken und somit die Effizienz zu erhöhen.

Die Schaltspannung für die Transistoren ist inzwischen aber auch nicht mehr der Verbrauchsfaktor Nummer 1. In einem Interview sagte der ehemalige AMD-Chefentwickler Gustafson, dass die Leckströme (die bei einem Shrink tendenziell eher größer werden als kleiner) einen viel größeren Anteil am Verbrauch haben, als die Schaltströme.
Die Effizienz erhöht mal also eher nicht mehr durch Shrinks, sondern durch Architekturoptimierungen (z.B. neue Stromsparmodi usw.).

Zwecks Leistungssteigerung mehr Transistoren auf eine Fläche zu packen scheitert auch schon daran, dass das Die schmelzen würde, wenn man sie alle gleichzeitig schaltet. Auch da hilft nur optimierte Architektur, bei der z.B. die Funktionsgruppen so angeordnetet sind, dass benachbarte Bereiche nicht gleichzeitig aktiv sind und die inaktiven komplett abgeschaltet usw.

Es ist wohl eine ganze Reihe von Gründen, aber unterm Strich ist es so, dass kleinere Strukturen einfach immer uninteressanter werden.
 
Zuletzt bearbeitet:
Dr.Pawel schrieb:
Um ehrlich zu sein ich kann es nicht mehr lesen. Fakt ist nunmal das Intel damit ERFOLG hatte, tut mir leid für AMD aber das einzige was in unserer nicht idealen Realität zählt ist Erfolg. Irgendwie denken viele wir können uns den Naturgesetzen mit unseren z.T. komischen Vorstellungen von Moral un Ethik entziehen. Ist genauso wie viele Sagen das sie gegen Tierversuche sind, aber fleißig die Antibiotika fressen sobald sie krank sind.....
Versteht mich nicht falsch ich will damit das Vorgehen von Intel nicht "gut" reden, natürlich war es "falsch", Fakt ist und bleibt aber das sie nunmal damit Erfolg hatten und das ist nunmal das einzige was in unserer Wirtschaftswelt zählt, hätte ja das "anständige" AMD auch machen können (wenn sie nicht genug Geld dafür haben ist das schließlich nicht Intels problem...).

Ich zeige dir mal deine Argumentation auf:

Wir treffen uns auf der Straße es macht Peng - du liegst tod im Staub. Ich hatte Erfolg - und weil ich Erfolg hatte war es gut...

Es ist von mir sehr bewusst gewählt deine Argumentation auf die Spitze zu treiben. Es geht im eigentlichen Fall ja nicht um Moral und Ethik sondern "Spielregeln" im Wirtschaftsleben. Und die sind nun mal da (aus guten Gründen). Und das dümmste eigentlich was man machen kann ist das Fehlverhalten gut zu heißen. Wohin das führt werden wir die nächsten Monate noch deutlich zu spüren bekommen. [auch gibt es da noch so etwas wie nicht der zweck heiligt die Mittel - da könnte es aber moralisch werden - hast du ja schon angedeutet ist problematisch bei dir - von daher lassen wir das]
Studierst du BWL? - nach deiner Argumentation nach ja.... Nichts für ungut.. Aber selbst wenn - unlauterer Wettbewerb ist aus guten Gründen verboten. Und ein Monopol wollen wir ja eigentlich auch nicht - Außer du bist Intel-Mitarbeiter / besser Aktionär...
 
Zuletzt bearbeitet:
Rome1981 schrieb:
@flappes: AMD hat keine Schnitte, weil das Marketing von Intel besser ist, das hat wenig mit tatsächlicher Leistung zu tun.
Ich finde es gar nicht verkehrt, dass AMD dieses Mal Intel die Probleme bei neuen Produkten ausmerzen lässt als anders herum... ich finde es ziemlich ätzend, dass der Branchenriese so von dem Kleinen profitiert und die Leute dann blind kaufen weil es doch so viel besser ist... und dann ist der Großteil davon Schönrechnerei...

AMD hätte mit Mantle Intel so derbe ein geben könne......ABER AMD hält sich an die Regeln,die meisten Intel Kunden sind auch AMD Kunden und anders als Intel,fehlen AMD die "Forschungsgelder" um dies durch zu bringen und natürlich auch die Kunden die Mantle oben halten,da Nvidia ja auch noch da ist......
 
Casi030 schrieb:
AMD hätte mit Mantle Intel so derbe ein geben könne......ABER AMD hält sich an die Regeln,die meisten Intel Kunden sind auch AMD Kunden und anders als Intel,fehlen AMD die "Forschungsgelder" um dies durch zu bringen und natürlich auch die Kunden die Mantle oben halten,da Nvidia ja auch noch da ist......

AMD fehlen nicht die Forschungsgelder sondern die Anwälte um Intel wegen jeder Kleinigkeit verklagen zu können... Intel bedient sich ja großzügig an AMDs Ergebnissen, nur machen kann man dagegen nix.
Stichworte sind hierbei MultiCore-Design, 64-Bit, integrierte Speichercontroller und einige weitere Technologien, die übernommen wurden.
 
@Dr.Pawel
Intels Handlungen waren aber nachweislich gegen geltendes Wirtschaftsgesetz. Und die Strafe war lachhaft, 1 Milliarde? Wirklich? Aber für n Dutzend Raubkopien von Filmen landet man im Knast, jaja...
Erfolg durch unfaires Handeln kann nun mal nicht drin zu sein, und dieses unfaire, illegale Handeln hat uns zum jetzt geführt.
Wenn AMD das gleiche gemacht hätte wie Intel würde ich genau so über AMD reden, aber sie habens nun mal nicht.
 
Locuza schrieb:
@ Krautmaster

Pastebin schreibt wieder Unfug und Hawaii war sicherlich nicht in 20nm angedacht.

gut möglich das nicht alles davon stimmt, du solltest dich aber fragen weshalb man einen "Fake" gerade auf Pastebin veröffentlicht und weshalb dieser Pastebin Eintrag von Oktober 2013 bei der nun vorgestellten 28nm Maxwell GM107 so gut ins Schwarze trifft.

So stimmt zB das deutlich geänderte TMU zu ALU Verhältnis von 1:16 ganz genau und auch der deutlich größere Cache + Effizienz bei Kepler -> Maxwell kommt hin.

Maxwell ist längst fertig, auch der große Chip - und genauso AMDs 20nm Ableger. Das Tegra Kerne mit auf die GPU wandern macht auch Sinn angesichts der Auslagerung die Nvidia nun bei der neuen Maxwell Karte betreibt. Heute noch CPU, morgen direkt auf GPU.

Edit:

ich bin gespannt was AMD aus den APU rausholt, mich würden eher APU mit GDDR5 onBoard ala PS4 interessieren.
 
Rome1981 schrieb:
AMD fehlen nicht die Forschungsgelder sondern die Anwälte um Intel wegen jeder Kleinigkeit verklagen zu können... Intel bedient sich ja großzügig an AMDs Ergebnissen, nur machen kann man dagegen nix.
Stichworte sind hierbei MultiCore-Design, 64-Bit, integrierte Speichercontroller und einige weitere Technologien, die übernommen wurden.

Ich hätte ja auch das andere Wort geschrieben,aber das ist hier ja ZENSUR.....
 
@Krautmaster:
Pastebin war schon sehr dicht an der Wahrheit, viel näher als PendantOne mit seinen Vorhersagen für Hawaii.
Ob Hawaii jemals in 20nm geplant war, werden wir wohl niemals erfahren, genau so wenig ob ein GK100 geplant war.

Schade das GF schon wieder mit 20nm so zurück liegt.
Wir werden sehen wie Carrizo in 28nm wird.
Viel versprechen ich mir selbst nicht davon.
 
Zum Thema Größeres Die/Am4/Neuer Fx hab ich mal was geschrieben, n Großteil davon hier:
Die Steamroller Kaveris stehen laut CB Test in Leistung (Spiele+Anwendungen) 65% hinter dem 4770k und liegen beim Stromverbrauch 34% vorne.
Beim i5 4670k siehts anders aus: 48% schneller, 44% mehr Stromverbrauch.
Und die Kaveris sind insofern wohl noch nicht für das CPUSegment als solches optimiert. Die Gpu braucht ja ca 50% des DiePlatzes. Da gingen noch entspannt (sofern das skalierbar ist, vermutlich nicht) 2,5-3 Module in den Platz rein. Da könnte man dann natürlich auch den Takt senken und somit die Effizienz aufholen.
Ob das ganze dann in der Produktion mehr kosten würde als die jetzigen Kaveris kann ich nicht sagen, wage ich aber zu bezweifeln.

Also würde ich jetzt mal pauschal sagen:
1. Möglichkeit für neue Fxens: Ginge bereits jetzt: auf Basis der Warsaw Opterons (32nm), welche ja wenigstens ein bischen effizienter sind/sein sollten (TDP ist von 115W auf 99W)
2. Möglichkeit: Ginge ca ab Mitte 2014 (Wegen der Yield Rate): Fxens auf Steamroller Basis wie oben beschrieben
3. Möglichkeit, welche ich am wahrscheinlichsten halte: Ca Mitte 2015: Fxens auf Excavator Basis in 20nm
4. Möglichkeit: Die machen die APUs zu den neuen Leistungsträgern, wenn HSA einschlägt, dann stehen die bereits jetzt ziemlich gut da.

Noch Final:
Der 7850K ist 245mm² groß, der Fx 8350 ist 315mm² groß und ist damit 28,5% größer. Und diese 28,5% würden ein weiteres Modul an Platz benötigen, sofern man die GPU nicht noch mehr verkleinern will.

Ist zwar nicht mehr ganz up to date, zeigt aber immerhin ein paar Fakten (sofern ich mich damals nicht vergoogelt habe ;) )

Das mit den 20nm Excavators zumindest ist wohl schon mal falsch, aber man darf hoffen, dass sich GF die nächste Zeit voll auf die Optimierung des 28nm Prozesses konzentriert und somit ein DIE in Fx 8320 Größe bei annehmbarer YieldRate realisierbar macht.
 
Zuletzt bearbeitet:
Dr.Pawel schrieb:
... Irgendwie denken viele wir können uns den Naturgesetzen mit unseren z.T. komischen Vorstellungen von Moral un Ethik entziehen. ...
Oh Gott, Sozialdarwinismus im 21. Jh. Wenn du meinst, mit Naturgesetzen wirtschaftliche, soziale und psychische Entwicklungen hinreichend beshreiben zu können, dann erklär mir mal innerhalb der nächsten Stunde, wie du zu dem Gedanken kommen wirst, der heute Abend um 20:56 und 43 Sekunden durch deine Neuronen schießen wird. Das für naturwissenschaftlische Untersuchung so wichtige Flasifizierbarkeitskriterium haben wir auch erfüllt - wir kucken einfach genau um 20:56 und 43 Sekunden ob tatsächlich dieser erwartete Gedanke durch deinen Kopf geschossen kommt. :evillol: Geisteswissenschaftliche Erkenntnisse sind zurecht kontingent. Es gibt nur eine notwendige Wahrheit, und die ist, dass ich bin, alles andere ist Firlefanz und Leute die sich fachwissenschaftlich mit geisteswissenschaftlichen Problemen beschäftigen wissen besser, wie man geisteswissenschaftiche Probleme untersuchen kann, als Naturwissenschaftler, die von Geisteswissenschaften keine Ahnung haben. Ein Zwangssemester Philosophie würde keinem Naturwissenschaftler schaden...

Die Ökonomie ist wie sie ist genau dann, wenn wir sie machen, wie sie ist.

Muss ich immer das Angebot mit viel Leistung zum günstigsten Preis kaufen, nur weil mir ein Ökonomiedarwinist proklamiert, das läge in meiner Natur und ich könne dem nicht ausweichen? Was meine Natur ist, bestimme ich, und wenn ich zu meiner Natur bestimme, AMD-Prozessoren zu kaufen, dann ist eben das meine Natur - mit all den tausenden, abwägenden Gedanken die diese Entscheidung beeinflussen.
 
Zuletzt bearbeitet: (Syntax und Lexik)
Krautmaster schrieb:
ich denk AMD wird die die ganze DIE etwas aufblasen - mit Glück sieht man auch mal ein 3 Moduler.

Würde ich zwar auch gerne sehen aber ich denk mal, dass es eher unwahrscheinlich ist.

Carrizo wird 2 Module bekommen, DDR3/4 Support und höchstwahrscheinlich 11CUs (=Eine Vulcanic Island Shader Engine), dazu noch einen integrierten Chipsatz und fertig ist Carrizo. Geschätzte Größe bei 28nm wird dann so bei 285mm² liegen. Bei 3 Modulen bräuchte man min. 320mm². Ist ja auch eine Frage des Stromverbrauchs. Ich glaube kaum, dass man wieder in 3 stellige TDP Bereiche vordringen möchte.
 
irgendwie befürchte ich das mit maximla 2 modulen auch langsam, AMD setzt da echt die falschen prioritäten falls es so kommt.
3 module und dafür etwas bei der GPU einsparen wäre für die meisten sicher sinnvoller.

ein gamer kauft sich einen i5/i7 weil ihm die weit überlegene GPU beim kaveri eh nix bringt.
für den heimanwender der einfach nur videos ansehen will ist die GPU wiederum total überdimensioniert, der hat davon eh nix.

6CUs und 3 module wären schon bei kaveri sinnvoller als die nutzlosen 8CUs:\
 
Warten wie erst mal auf den 14.1 Hauptrelease, ich warte schon seit Jahren auf HSA, wenn das auch nur halb so gut funktioniert wie angekündigt kann sich der blaue x86 Riese schon mal hinter seinen Schmierschecks verkriechen ;)

@Casi030
Ach Tschuldige, ganz vergessen, das nennt man ja heute so.
Danke :bussi:
 
Zuletzt bearbeitet:
Oromis schrieb:
Warten wie erst mal auf den 14.1 Hauptrelease, ich warte schon seit Jahren auf HSA, wenn das auch nur halb so gut funktioniert wie angekündigt kann sich der blaue x86 Riese schon mal hinter seinen ̶s̶̶c̶̶h̶̶m̶̶i̶̶e̶̶r̶̶s̶̶c̶̶h̶̶e̶̶c̶̶k̶̶s̶ Forschungsgelder verkriechen ;)

Hab dich mal verbessert.:D
 
MountWalker schrieb:
Oh Gott, Sozialdarwinismus im 21. Jh.

Kewl, ich hatte auch einen Text der genau den selben Inhalt hatte und interessant, im ersten Satz hatte ich ebenso (Sozial)Darwinismus geschrieben gehabt. Wollte dann aber doch nichts posten !
Persönlich möchte ich dann doch meinen Senf dazu geben. Denn was mich hier im Forum nervt, sind immer jene, die meckern dass sich nichts ändern aber selbst nicht bereit sind etwas zu ändern. Würden nämlich mehr Leute selektieren und bewusst zu Produkten greifen und nicht jedem Hype hinterherlaufen, hätten wir wohl einen wesentlich gesünderen Markt.
Ich kann auch nicht nachvollziehen wie manche es gut heißen, wenn der Markt dominiert wird. Persönlich greife ich zu AMD, weil jene für meine Bedürfnisse völlig ausreichen und nie schlechte Erfahrungen gehabt habe.
Wenn die Masse nach Mehrkernprozessoren ruft, verstehe ich nicht, wieso sie dann nicht selektiv zu 4 Moduler greifen oder zu mindestens es unterlassen in jeder Situation AMD schlecht zu machen. Denn ein größerer Absatz von octa Core Prozessoren und somit ein größerer Userbase würde genau die Programmierer animieren auf mehrere Threads zu optimieren, sodass Intel gezwungen wäre ihre Politik zu verändern und mehr Cores im Desktop salonfähig zu machen (Bsp Athlon II X4 der "Volksquadcore"). Stattdessen wird weiter gegen AMD geredet im Sinne von, sie sind Schuld nichts besseres auf den Markt zu bringen. Tja, viele wollen Neues und Veränderungen, aber etwas dafür zu tun oder für etwas selektiv zu entscheiden wollen dann die wenigsten. Dabei habe ich persönlich nichts gegen Intel (dort sind extrem viele klüge Köpfe), sondern wünsche mir eher wieder mehr Vielfalt her. Ich frage mich sogar, ob ein stärkeres AMD Intel aber besonders den Desktop nicht sogar gut getan hätte, denn Firmen die gefordert werden, hätten sich vllt SmartPhone und ähnliches auch schneller als Nische gesucht. Man bekommt das Gefühl dass die Jahre lange Domination eben keine Marktveränderung abverlangt hat, und schließlich ein Dritter den Bedarf genützt hat, ARM.


Fakt ist und bleibt aber das sie nunmal damit Erfolg hatten und das ist nunmal das einzige was in unserer Wirtschaftswelt zählt
Dazu lässt sich dank der Aufklärung leicht sagen, denn ab dann begann der Mensch systematisch allen Dingen einen Werten zuzuordnen und einige müssen sich mit Erfolg selbst schmücken und bewerten. Das ist aber eben nicht bei allen so, es gibt noch jene mit Bauchgefühl, auch wenn es modern ist, Objektivität als das höchste der Gefühle zu verkaufen. Schade nur dass es nicht den objektiven Menschen gibt . Es ist wie mit der Sozial oder Erziehungswissenschaft. Passiert zwar auf Praxis, hat eine lange Geschichte, aber es als Wissenschaft einzustufen ist für viele schwer, genau weil der Mensch der Meinung ist, alles mit einer Zahl bewerten zu müssen und die Wissenschaft hat eben genau das als Ziel.
Im Forum hat man dafür ja genug Beispiele, indem ein Produkt bis ins Detail durchleuchtet wird, bis ein Mangle/Fehler stellvertretend für das ganze Produkt/Technik ist. Dass aber auch hier ein Wort eine Technik ist und dessen Bedeutung fortlaufen seinen Wert/Bedeutung verändert ist sicherlich nicht allen bewusst. So wird "virtuelle" Cores eher als positiv und keine "echten" cores eher als negativ empfunden, dass aber Module zwei integer Cores hat und SMT nur Registererweiterung ist, ist dann belanglos, aber der beste Beweiß dass die Leute eben doch nicht so objektiv sind wie sie glauben.
Ein anderes Beispiel ist auch die APU, die anfangs "weder Fleisch noch Fisch" war. Wie oft hat man das gelesen und jetzt, merkt man mittlerweile immer mehr Leute, die dessen Vorteile sehen, sei es IGP, gpgpu oder HSA. Besonders aber als eventueller neuer Standard in Relation zu AMD64. Eine Technik und dessen Idee setzt sich durch und finden nun mal einen Wert oder eben auch nicht.
Erfolg ist klar wichtig, nur zum Erfolg führen mehrere Wege und die Frage wie man da hin kommt, ist sicherlich nicht bedeutungslos, besonders dann, wenn man selbst betroffen ist. Aber manchen Kunden ist das wohl nicht bewusst, wenn sie wahrscheinlich bei einem ausgeglichener Markt, mehr Innovation und mehr Auswahl hätten. Ich glaube, als Einzelner kann man noch sehr gut entscheiden welchen Weg man geht, komplex wird es dann in Gruppen und da der Mensch gern die Verantwortung von sich schiebt, ist am Ende dann keiner Schuld. Aber Hauptsache der "Erfolg" hat sich durchgesetzt. Die Frage um "welchen" Preis wird oft zu spät gefragt.

Die damalige Moral und Ethik ist ja ausschlaggebend, dass AMD maximal über die Architektur Intel etwas entgegensetzen kann, denn jetzt ist AMD davon abhängig, was der Markt an Fertigungsprozesse so hergibt und man sieht es doch bei TSMC, Samsung, GF dass verstärkt für kleinere Chips optimiert wird weil der boomende Markt ja bei Tablets und co ist. Anderseits, eventuell ist ARM das beste was uns in den letzten Jahren passiert ist, denn falls ARM sich nach oben durchsetzen kann, vllt sogar durch HSA, gibt es wieder "mehr" Anbieter für den Notebook/Desktop/Notebook Markt. Die Zukunft wird es zeigen, ob sich Intel nicht selbst geschadet hat, denn momentan sieht es nicht danach aus, dass man im mobilen Markt Fuß fasst, aber es wird sich zeigen ob man es schafft sich in den Markt doch noch einzukaufen.

Tja AMD wird wohl nichts anderes übrig bleiben, als sich Märkte zu suchen und zu versuchen sie Kosteneffizient zu bedienen bis man eventuell ähnlich wie AMD64 findet, eben sowas wie HSA. Deshalb aber auch keinen 3 Moduler sondern nur 2 Moduler, weil der Markt für 3 Moduler wohl nicht groß genug ist. Ich glaub es gab doch auch letztes Jahr eine Statistik, dass AMD immer noch am meisten Dual Core Prozessor verkauft. Eventuell ändert sich das mal mit den kleineren APUs. Vllt mit Kabini ? Naja würde mal mehr OEM trauen teurere AMD Produkte zu vermarkten, dass heißt nicht beim Akku oder Display zu sparen.
Man müsste sich nur mal vorstellen, was wir für AMD Produkte hätten, hätte AMD eine vergleichbare Fertigung (22 nm FinFet oder fd SoI ect) und das Geld einen Kaveri Plattform mit 4 Modulen 512 shader und GDDR5 zu vermarkten. Mir kann keiner einreden dass das schlecht für den Kunden wäre, wenn AMD den Erfolg von damals nicht verwehrt geblieben wäre.
Anderseits muss man auch ehrlich sein, es steht in den Sternen, was aus AMD geworden wäre, hätten sie Erfolg gehabt. Ich sag nur dazu :
In 2009, Qualcomm purchased AMD's handset division.[11] This acquisition formed the basis for the later Adreno chips
Tja, vllt hätten wir heute mehr AMD IGPs in den Smartphone, aber ja das ist pure Spekulation.

MountWalker btw, du hast meinen Respekt und meine Zustimmung als "Nicht-Geisteswissenschafter " ! Vllt ist meinen Bild nicht so scharf, aber ich teile deine Meinung.

Für mein Teil, ich hab letztens erst ein AMD Notebook mit Richland gekauft und ich bin echt positiv überrascht ^^ und der ist nur 32nm SoI. Interessant ist dass ich auch vorgestellte/entwickelte Software von AMD oben ist. Tja, mal sehen, was AMD Mantle so in Zukunft macht. Eventuell kann AMD mit starker IGP und stromsparender CPU (zwar nicht so Performance stark wie ein Intel i7) mit HSA und eben Mantle in Zukunft noch mehr Software beschleunigen.
 
Zuletzt bearbeitet:
Zurück
Oben