News „Überwältigende Mehrheit“: AMD-Aktionäre stimmen Xilinx-Übernahme zu

@incurable ,@rg88, @Lord_Helmi

Ich denke alle sind sich einig, dass die Halbleiter-Prozesse von AMD nie mit den Halbleiter-Prozessen Intel mithalten konnten. Diesen Nachteil musste AMD per Architektur kompensieren. Das hat manchmal geklappt meistens aber nicht.

Der Start vom K10 wurde durch den TLB-Bug verhagelt und er konnte Intel nicht überflügeln.
Bulldozer war für AMD eine Katastrophe. Ich denke eine fehlgeschlagene Wette (auf ein einen krassen Außenseiter) trifft es am besten.

Natürlich spielen die verfügbaren F&E-Budgets eine Rolle. Aber in diesem speziellen Fall können sie nicht als Erklärung herhalten.
https://www.statista.com/statistics/267873/amds-expenditure-on-research-and-development-since-2001/
Die Zahlen bis 2006 sind ohne ATI ab 2007 mit ATI.
Das große Sparen bei AMD hat 2010 so richtig begonnen. Aber es ist offensichtlich, dass AMD Zen mit deutlich niedrigerem Budget als Bulldozer entwickelt hat. Erst 2020 konnte AMD mehr Geld für F&E ausgeben als in den Jahren 2007 bis 2009. Und auch 2010 und 2011 waren die F&E-Ausgaben noch deutlich höher als in den Jahren 2013 bis 2017.

Die 4,2 Mrd $US die AMD in Barmitteln für ATI bezahlt hat, hätte AMD niemals in das F&E-Budget gesteckt. Man kann keine Kredite aufnehmen, um die Personalkosten auszuweiten (Was die F&E-Ausgaben hauptsächlich sind). Damit sind Verluste unausweichlich. Das führt zu Kürzungen, bevor sich die höheren F&E-Ausgaben auswirken können. Die Spekulation ohne den ATI-Kauf wäre mehr Geld für die CPU-Entwicklung dagewesen, ist also haltlos.

Die Bulldozer-Katastrophe kann man als Fehlerkette beschreiben. Es waren Fehlentscheidungen die in einer Drucksituation getroffen wurden. Die alte AMD-Führungsmannschaft um Rory Read hat davon geredet, dass man das Highend aufgeben will und nur noch im Mainstream antreten will. Die Firmenleitung hat geglaubt, dass AMD nicht mit Intel mithalten kann. Deshalb hat man gar nicht versucht in der SingleCoreleistung mit Intel mitzuhalten. Also hat man eine Architektur gewählt, die gut skaliert. Aber da die SingleCoreleistung schlecht war, nutzte das skalieren nichts. Bulldozer war auch bei den meisten MultiCoreAufgaben langsamer. Intel konnte 2012 sogar seine Sechskerner auslaufen lassen.

Umso höher muss man die Leistung von Lisa Su (AMD General Manger ab Januar 2012, ab 8. 10 2014 AMD CEO) und Mark Papermaster (AMD CTO seit Oktober 2011) bewerten. Beide kamen nachdem Bulldozer auf den Markt kam. Sehr schnell konnten Lisa Su und Mark Papermaster das Board überzeugen, dass die Beschränkung auf den Mainstream unweigerlich in den Untergang führt. Also gaben beide das Ziel aus, im Highend anzugreifen. Als eine wichtige Maßnahme haben sie im August 2012 Jim Keller zurückgeholt. Der war schon 1998/99 bei AMD und hat damals u. a. an Hypertransport mitentwickelt. D. h. die wichtigen Personen für den Umschwung kamen als AMD immer weniger für F&E ausgeben konnte.

Jim Keller war direkt weder an Zen, K12 oder Infinity Fabric beteiligt. Er war zu Beginn Chef des CPU-Teams bei AMD (ca. 500 Leute), mit der Zeit kamen weitere Teams hinzu. Als er im September 2015 ging hatte er die Verantwortung für ca. 2400 Leute, die an Zen, K12 bzw. Infinity Fabric gearbeitet haben.
Seine Aufgaben:
  • Er hat Ziele vorgegeben.
  • Er hat Ideen für die neue Architektur skizziert.
  • Er hat das Einführen neuer Entwicklungsmethologien initiert.
  • Er hat sein Team davon überzeugt, dass AMD Highperformance-Prozessoren entwickeln kann. Natürlich nicht alleine.
  • Er hat die wichtigen Aufgaben den richtigen Leute zugewiesen. Also Leuten die die erforderlichen Fähigkeiten hatten. Und die ebenso wie er vom Ziel Highperformance-Prozessoren überzeugt waren.
  • Er hat die neue, aggressive Roadmap mitgestaltet. Die Roadmap die AMD aktuell abarbeitet.

Kurzum: Er hat in dieser Zeit das Team geformt und für die Arbeit an Highperformance-Prozessoren aufgestellt. Aber das Team hat Zen und Infinity Fabric entworfen und umgesetzt.

(Aus dem Interview bei anandtech, https://www.anandtech.com/show/16762/an-anandtech-interview-with-jim-keller-laziest-person-at-tesla)

Jim Keller betrachtet sich nicht als Vater von Zen, sonder eher als den Onkel, wohl ein kleiner Scherz.

Jim Keller beantworte die Frage von Ian Cutress nach einem speziellen (Erfolgs)Erlebnis wie folgt:
... Alle dachten, dass das AMD-Team nicht geradeaus schießen konnte, und ich war sehr fasziniert von der Möglichkeit, einen wirklich großartigen Computer mit dem Team zu bauen, von dem alle dachten, dass es das nicht kann. So wie niemand dachte, dass AMD ein großartiges CPU-Designteam hätte. Aber wissen Sie, die Leute, die Zen gebaut haben, die hatten 25 bis 30 Jahre Berufserfahrung bei AMD. Das war der Wahnsinn.
Übersetzt mit www.DeepL.com/Translator (kostenlose Version)

Also im Klartext, die Leute die maßgeblich die Zen-Architektur entworfen haben und maßgeblich das Design umgesetzt haben, haben schon an K10 und an Bulldozer mitgearbeitet.
Jim Keller sagt außerdem, dass er kaum jemanden eingestellt hat. Aber das war in Zeiten von schrumpfenden Budgets nur schwer möglich.

incurable schrieb:
Bloomfield ist die erste Implementierung von Nehalem, und damit war Nehalem - anders als von Dir behauptet - vor Phenom II auf dem Markt.

Bloomfield gab es zum Launch ab $284.
Lord_Helmi schrieb:
Und Phenom II gab es ab 200€.

Nochmals: Nicht dieselbe Kategorie, man beachte die Boardkosten und den notwendigen Speicher. Es ist und bleibt HEDT vs DT. Erst Lynnfield/Clarkdale brachten Nehalem in den DT Markt. Das geschah eben erst nach Phenom II.
Welche CPU hat AMD gegen den $US 284 Bloomfield gestellt? Und wie waren die jeweiligen Verkaufszahlen?

AMD konnte ab 2006 im Highend nicht mehr mit Intel mithalten. Und über die Jahre wurde die Lücke immer größer, so dass die schnellsten AMD-Prozessoren gegen Mittelklasseprozessoren von Intel antreten mussten. AMD musste ihre Prozessoren billiger anbieten als vergleichbare Intelprozessoren. Je weiter AMD zurückfiel desto niedriger wurde der ASP von AMD-Prozessoren. Und trotz niedrigerer Preise konnte AMD immer weniger Prozessoren verkaufen. Und wegen des schrumpfenden Umsatzes wurde das F&E-Budget immer kleiner. Und Intel hat sich gleichzeitig die goldene Nase verdient, weil sie bei einem Großteil Ihrer Prozessoren keine Konkurrenz hatten.
Der Untergang von AMD war vorgezeichnet. Ohne die Customsparte, die zeitweise 40 % des Umsatzes brachte, hätte AMD das Jahr 2015 nicht überlebt.

Diese Entwicklung haben Lisa Su und Mark Papermaster 2012 erkannt und deshalb haben sie das Ruder herumgeworfen.
 
  • Gefällt mir
Reaktionen: Smartbomb, Viper816, JohnVescoya und 3 andere
incurable schrieb:
Ich denke mit weniger Ballast an den Füßen (und ohne die Ablenkung, die ATi und deren Produkte zweifelsohne waren) wäre die Chance höher gelegen, dass jemand mit ausreichend Talent engagiert werden konnte, dem irgendwann in den 5 1/2 Jahren zwischen Core 2 Duo und Bulldozer aufgefallen wäre, welchen Bockmist AMD da entwickelte.
Man sollte nicht vergessen, dass man sich vor Bulldozer erstmal total auf Llano versteift hat und die "Fusion" auf Biegen und Brechen hinbekommen wollte. Klappte dann irgendwann, aber viel zu spät und mit Fertigungsproblemen.
Das waren natürlich auch eine Folge der ATI Übernahme, aber auch wieder eher Managementfehler statt Geldprobleme
 
Player(1) schrieb:
Trotzdem sehe ich die ganzen Befehlserweiterungen zwar als Ballast, aber nicht als grosses Problem. Das ist halt die Krux der Kompatibilität der x86-Welt, welche dabei sogar einer der grossen Staerken ebendieser darstellt.
Befehlserweiterungen erhöhen die Komplexität des Designs.
Das Problem ist die Beziehung zwischen Komplexität und Aufwand ist nicht linear.
Sie ist bestenfalls quadratisch.

D. h. Befehlserweiterungen müssen einen großen Nutzen bieten und sie müssen verwendet werden.
So wie Intel in den letzten Jahren seine Erweiterungen durchgeführt hat, kann man es nicht machen. Es war reines Marketing und Abzocke. Aber es hat die X86-Architektur nicht nach vorne gebracht, im Gegenteil.

Player(1) schrieb:
Dabei frage ich mich dann doch gerade, ob man diesen Ballast irgendwie quantifizieren kann, denn in meinem IT-Alltag laeuft alles noch ziemlich rund.
Man bekommt es in den Anzahl der Transistoren mit. Aber wenn man kein CPU-Entwickler ist bleibt man von der Komplexität verschont. Softwarentwickler müssen sich halt darüber Gedanken machen, welche Compileroptionen sie wählen.
Player(1) schrieb:
Das mit den Befehlserweiterung ist doch wie diese Unterscheidung zwischen RISC- und CISC-Architekturen.
Das Thema RISC vs CISC schon lange durch. Die gibt es in dieser Reinform nicht mehr.
Player(1) schrieb:
Hochspezialsierte Recheneinheiten mit schmalen Befehlssatz; sehr effizient und performant und auf der anderen Seite die Alleskoenner.
Wenn ich das richtig verstanden habe, dann haben wir heute doch eh sowas wie eine Hybridform der beiden Welten. Nach aussen hin CISC, dann kommt ein fetter Dekoder und dahinter dann die flotten Recheneinheiten mit beschraenkten internen Befehlssatz.
Das hat Jim Keller in dem von mior sehr häufig zitierten Artikel sehr gut beschrieben.
Auch er ist übrigens kein Freund von ausufernden Befehlssätzen. Linus Thorvalds auch nicht.
Player(1) schrieb:
Diesen Ansatz koennte man doch, im Sinne von HSA und einer idealen Auslastung aller vorhandenen Recheneinheiten in einem System, doch wohl noch paar Stufen ausbauen. Und gerade bei diesem Gedanken sehe ich da ein gewisses Potenzial fuer FPGA-aehnliche Ansaetze
Aber damit das wirklich funktioniert, benötigst Du Compiler die automatisch den Code für die einzelnen Rechenwerke generieren. Also der Compiler erkennt, dass der Algorithmus parallelisiert werden kann und er generiert den Code automatisch für die GPU. Aber das lohnt sich nur wenn die Datenmengen die GPU wirklich auslasten, ...

Ich habe mich 1990 in ein Seminar geschmuggelt, wo ein hochparaller Computer als Uni-Projekt vorgestellt wurde. Das waren glaube ich 6502-Prozessoren, die schön billig waren. Das Ziel war es an Programmiersprachen zu Forschen um das Parallelisieren für die Programmierer möglichst zu vereinfachen.
Ich bin kein Softwarenetwickler, aber mein Wissensstand ist, dass es hier nicht wirklich Durchbrüche gegeben hat.
Player(1) schrieb:
Ich kenne die grobe Technik hinter FPGAs und wie man damit arbeitet (eine Welt fuer sich). Hab selber noch ein kleineres privates Projekt mit FPGAs auf meiner 2do-Liste. Aber fuer mich als Laie sieht das aktuell so aus, als ob FPGAs genau zwischen den beiden extremen Single Threading (CPUs) und Number-Crunching (GPUs) stehen.
Selbstverstaendlich sind FPGAs aktuell eine Form von spezialisiertem Silizium, wie zb auch TPUs. FPGAs bieten doch die Moeglichkeit Algorithmen direkt in Hardware umzusetzen. Was dann dabei wahrscheinlich auch noch ziemlich effizient und performant sein wird. Zumindest im Idealfall.
Wenn Du alles in einem Gehäuse haben willst:
https://www.xilinx.com/products/silicon-devices/soc/zynq-ultrascale-mpsoc.html
https://www.xilinx.com/products/silicon-devices/acap/versal.html

Aber die Hardwarezu haben ist eines, aber das zu Programmieren zu können ist etwas ganz anderes.
Hier kommt es darauf an welches Abstraktionsniveau das Software-Development-Kit bietet. Wenn man sich als Programmierer, um alles selbst auf Low-Level kümmern muss, kann man garantiert geniale Sachen machen. Aber es erfordert einen großen Aufwand.

Ob in Zukunft in solche Bausteine Zen-Cores oder RDNA-GPUs eingebunden werden kann ich nicht beurteilen.

Aber das ist nichts was im einen PC wandert.
Player(1) schrieb:
Und das ist doch etwas, was weder CPUs noch GPUs aktuell koennen.
Wir steuern da gerade auf eine ziemlich interessante Zeit. In so einer Welt mit Big-Little CPU-Designs, dutzenden speziellen fixed functions IC-Bloecken und riesigen hochparallelen Rechenmonstern (GPUs) mit ihren Armee von Rechenkernen.
Das Problem solchen heterogenen Chips ist das Programmieren.
Ich denke für spezielle Anwendungen bieten solche Chips vollkommen neue Lösungen. Bitte ncit missverstehen, PCs und Notebooks sind nur eine Nische. Die meisten Computer arbeiten in Systemen und erfüllen dort spezielle aufgaben. Deshalb ist der markt für solche Spezialhardware riesig.

Aber dies für Desktops und Notebooks nutzbar zumachen erfordert noch sehr viel Entwicklungsleistung. Auf diesen Geräten läuft in der Regel Standardsoftware. Und nicht in jedem PC steckt eine RTX 3090. Auf den PCs sind wir erst dabei CPU und GPU zusammenzuführen.

Beim Thema Big-Little-Designs verstehe ich nicht so recht was die Relevanz für Desktop und Notebook sein soll. Beim Telefon das praktisch Rund um die Uhr aktiv ist, ergibt dieses Design sehr viel Sinn da es zwei ganz klar getrennte Modi mit gegensätzlichen Anforderungen gibt:
  • Interaktion mit User: Hoher Bedarf an Rechenleistung um mit Anwender interagieren zu können.
  • Hintergrundaktivität: Wenig Bedarf an Rechenleistung

Das Smartphone befindet sich die größte Zeit des Tages in der Hintergrundaktivität. Hier muss ein sehr effizientes Design gewählt werden um eine möglichst lange Akkulaugzeit zu ermöglichen.
Die Interaktion mit dem Anwender findet nur an einem kleinem Zeitraum statt. Hier ist die Effizienz nicht so wichtig, hier ist die Performance wichtiger.

Wenn ich nicht am Desktop bzw. Notebook arbeite schalte ich ab oder gehe in den Ruhezustand. Wenn jemand Compilerläufe oder Konvertierungen laufen lässt, ohne vor dem Rechner zu sitzen, sollen diese Aufgaben mit Maximalleistung ablaufen.
BigLittle wird erst dann interessant wenn man diese Geräte immer anlassen will obwohl sie keine Aufgaben haben. Aber was sollen sie in diesem Zustand erledigen? Sollen sie das Smartphone ersetzen?
Player(1) schrieb:
Irgendwie und irgendwann wird man das wohl alles unter einem Hut bringen koennen bzw vll sogar muessen.
Ich denke unter einen Hut bringen ist das falsche Bild. Das Angebot an Hardware wird größer, Damit lassen sich Aufgaben besser lösen und manche Aufgaben werden erst lösbar. Aber ein Großteil des PCs basiert auf Standardsoftware die auf Standardhardware läuft. Da müssen für viele Neuerungen erst noch die Anwendungen kommen.
Aber wie gesagt die PCs sind nur eine Nische ...
 
  • Gefällt mir
Reaktionen: incurable
  • Gefällt mir
Reaktionen: Onkel Föhn
rg88 schrieb:
Man sollte nicht vergessen, dass man sich vor Bulldozer erstmal total auf Llano versteift hat und die "Fusion" auf Biegen und Brechen hinbekommen wollte. Klappte dann irgendwann, aber viel zu spät und mit Fertigungsproblemen.
Die Hoffnung die Probleme mit der Singlecoreleistung durch die Einbindung der GPU kompensieren zu können, kann zur Fehlentscheidung bei Bulldozer beigetragen haben.

Sicher hat das Projekt Fusion Entwicklungskapazitäten gebunden. Llano war kein großer Erfolg.

Aber das ist alles keine Begründung warum Bulldozer so gegen die Wand gefahren wurde.
rg88 schrieb:
Das waren natürlich auch eine Folge der ATI Übernahme, aber auch wieder eher Managementfehler statt Geldprobleme
Sehe ich genauso.

Die Übernahmen von ATI wurde doch von der Idee angetrieben, dass in Zukunft CPU und GPU in einem angeboten werden. Hier hatte AMD Angst von Intel abgehängt zu werden. Es war AMD klar, dass sie keine leistungsfähige GPU aus dem nichts erschaffen können. Und ATI hat in den Jahren zuvor sehr viele GPU-Entwickler geschluckt. So dass es 2006 kaum kleinere (risikolosere) Option für AMD gab.

Wenn man hinschaut wie viele ATI-Entwickler nach der Übernahme AMD verlassen haben, dann kann man nicht von einer geglückten Übernahme reden. Aber das Problem war auch, dass ATI noch die ganzemn Übernahmen verdauen musste, als sie selbst übernommen wurden.
 
ghecko schrieb:
Das sah aber mit der "0.18-micron copper interconnect technology" für die ersten Ghz-Prozessoren etwas anders aus...
Stimmt da war noch das Kupfer. Da hatte Intel, wenn ich mich richtig erinnere, größere Probleme.

Aber auch in dieser Zeit war Intel bei der Einführung neuer Knoten vor AMD. Zeitweise hatte ich das Gefühl AMD könnte den zeitlichen Rückstand aufholen. Aber das hat sich bald als Irrtum herausgestellt. Auch das viel gelobte SOI konnte nicht verhindern dass AMD in den 2000er immer weiter zurück viel.

Was damals noch nicht so offensichlich war: AMD war viel zu klein, um sich auf Dauer eine eigenständige State-Of-The-Art-Halbleiterfertigung leisten zu können. Bei der Prozessentwicklung war AMD seit der Jahrtausendwende auf die Zusammenarbeit mit IBM und Samsung angewiesen. Und mit jeder Generation steigen die Kosten des Equipments.
 
ETI1120 schrieb:
Die Übernahmen von ATI wurde doch von der Idee angetrieben, dass in Zukunft CPU und GPU in einem angeboten werden.
und weil man weder Chipsätze noch iGPU im Portfolio hatte. Die Chipsätze der anderen Hersteller waren sehr oft von mieserabler Qualität.
Das Ziel einen hohen Marktanteil zu erreichen, war ohne die Business-PCs nicht möglich und diese setzten üblicherweise auf Chipsatz und einer dort integrierten Grafikeinheit. Intel hatte hier den enormen Vorteil mit "alles aus einer Hand" werben zu können, was deutlich zum besseren Ruf beigetragen hat.
 
ETI1120 schrieb:
Die Bulldozer-Katastrophe kann man als Fehlerkette beschreiben. Es waren Fehlentscheidungen die in einer Drucksituation getroffen wurden. Die alte AMD-Führungsmannschaft um Rory Read hat davon geredet, dass man das Highend aufgeben will und nur noch im Mainstream antreten will.
Das Bulldozer Fiasko an Rory Read festzumachen ist faktischer Unsinn, schau am besten mal nach wann Read CEO wurde, wo er vorher war und wann BD rauskam. Und dann was in Reads Amtszeit passiert ist: Es ist einfach nur logisch die Führerschaft abzukündigen wenn man auf Jahre gesehen nicht mehr liefern kann - ansonsten ist das nur eine Niederlage und keine Strategie mehr - das ist mehr "realistisches Marketing" als alles andere. Was soll er als CEO machen? Mal einfach eine neue CPU designen? Logisch dass er nur den vorbereiteten Pfad so gut es ging nutzen musste während er im Hintergrund neue Weichen stellt.
Ohne Rory Read hätte es kein AMD mehr gegeben und Lisa Su hätte den Laden nicht so aufgeräumt übernehmen können. AMD verdankt es Rory Read dass es heute noch existiert. Mit BD hatte er aber nur erzwungenermaßen etwas am Hut.
Welche CPU hat AMD gegen den $US 284 Bloomfield gestellt? Und wie waren die jeweiligen Verkaufszahlen?
Na die 6 Kerner vom Phenom II sobald die verfügbar waren, passte auch preislich besser, auch wenn da noch einmal deutlich mehr Zeit dazwischenlag. Damit waren zumindest die Intel 4 Kerner vorerst halbwegs eingefangen bei Anwendungen.
Intel konnte 2012 sogar seine Sechskerner auslaufen lassen.
Das haben sie nur nie getan. Sechskerner gab es seit 2010 durchgehend bei Intel im HEDT Sektor:

2010: ab i7 980X aufwärts (Westmere/Gulftown)
2011: ab i7 3930K aufwärts (Sandy Bridge E)
2013: ab i7 4930K aufwärts (Ivy Bridge E)
2014: ab i7 5820K aufwärts (Haswell-E)
usw.
 
Lord_Helmi schrieb:
Und Phenom II gab es ab 200€.
"AMD hat vorab bekannt gegeben, dass der Phenom II 940 in der Black Edition 275 US-Dollar kosten soll."
https://www.computerbase.de/2009-01/test-amd-phenom-ii-x4-920-und-940-black-edition/35/

Dass der Phenom II dann im Verlauf erheblich günstiger wurde ist natürlich der Leistung im Vergleich zu Bloomfield geschuldet.

Lord_Helmi schrieb:
Nochmals: Nicht dieselbe Kategorie, man beachte die Boardkosten und den notwendigen Speicher. Es ist und bleibt HEDT vs DT. Erst Lynnfield/Clarkdale brachten Nehalem in den DT Markt. Das geschah eben erst nach Phenom II.
Wie gesagt, wenn Du Lynnfield geschrieben hättest wäre das richtig gewesen und ich hätte es nicht kommentiert.
Ergänzung ()

rg88 schrieb:
Du missverstehst mich. Die erste Aktion war Keller zu holen, die zweit, dass man die Katzenarchitektur entwickelt.
Zumindest Bobcat war doch schon 2011 auf dem Markt, lang bevor Jim Keller 2012 zu AMD zurück wechselte.
 
incurable schrieb:
Zumindest Bobcat war doch schon 2011 auf dem Markt, lang bevor Jim Keller 2012 zu AMD zurück wechselte.
Ich hab ja auch geschrieben parallel zu Bulldozer, welcher ebenfalls 2011 rauskam. Dass man die erhoffte Leistung mit Bulldozer nicht erreichen wird, war sicherlich schon lange vor dem Release klar.
 
Lord_Helmi schrieb:
Das Bulldozer Fiasko an Rory Read festzumachen ist faktischer Unsinn, schau am besten mal nach wann Read CEO wurde, wo er vorher war und wann BD rauskam.
Ja Du hast recht. Ich hätte genauer nachschauen sollen.
Ich hatte halt diese blöde Aussage von Rory Read noch im Ohr. In der fraglichen Zeit waren Hector Ruiz und Dirk Meyer AMD CEOs. Dirk Meyer ist ein Beispiel, dass CPU-Architekten nicht generell gute CEOs sind.

Lord_Helmi schrieb:
Und dann was in Reads Amtszeit passiert ist: Es ist einfach nur logisch die Führerschaft abzukündigen wenn man auf Jahre gesehen nicht mehr liefern kann - ansonsten ist das nur eine Niederlage und keine Strategie mehr - das ist mehr "realistisches Marketing" als alles andere.
Niederlagen einzugestehen ist der erste Schritt. Der zweite ist es die Fehler zu analysieren, ...
Lord_Helmi schrieb:
Was soll er als CEO machen? Mal einfach eine neue CPU designen? Logisch dass er nur den vorbereiteten Pfad so gut es ging nutzen musste während er im Hintergrund neue Weichen stellt.
Ohne Rory Read hätte es kein AMD mehr gegeben und Lisa Su hätte den Laden nicht so aufgeräumt übernehmen können. AMD verdankt es Rory Read dass es heute noch existiert. Mit BD hatte er aber nur erzwungenermaßen etwas am Hut.
OK ich gebe Dir Recht. Rory Read hat als CEO den Übergang eingeleitet. Und als alles vorbereitet war, hat er an Lisa Su übergeben. Ich hatte die falsche Erinnerung im Kopf, dass auch er wie Hector Ruiz und Dirk Meyer vom Board abgelöst wurde.
Aber es ist genauso klar, dass Mark Papermaster und Lisa Su viel von dem Tagesgeschäft (aufräumen) erledigt haben.

Aber dass ich die CEOs zeitlich falsch eingeordnet habe, ändert nichts an meiner Meinung: AMD hat es beim Bulldozer nicht entschieden genug versucht, eine CPU mit hoher Singlecoreleistung zu entwickeln.

Lord_Helmi schrieb:
Na die 6 Kerner vom Phenom II sobald die verfügbar waren, passte auch preislich besser, auch wenn da noch einmal deutlich mehr Zeit dazwischenlag. Damit waren zumindest die Intel 4 Kerner vorerst halbwegs eingefangen bei Anwendungen.

Das haben sie nur nie getan. Sechskerner gab es seit 2010 durchgehend bei Intel im HEDT Sektor:

2010: ab i7 980X aufwärts (Westmere/Gulftown)
2011: ab i7 3930K aufwärts (Sandy Bridge E)
2013: ab i7 4930K aufwärts (Ivy Bridge E)
2014: ab i7 5820K aufwärts (Haswell-E)
usw.
Aber nicht mehr im normalen DT. Intel hat den Term HEDT geprägt, um für sich ein eigenes Marktsegment zu schaffen. Damit kann man die Margen schön "optimieren".

Es ist doch so: Intel hat sich im HEDT die goldene Nase verdient. Die CPU von AMD war immer preiswerter als die vergleichbare CPU von Intel. Aber trotzdem hat sich die Intel-CPU besser verkauft. Weil ja jeder "wusste", dass die Intel-CPUs besser sind.
 
incurable schrieb:
"AMD hat vorab bekannt gegeben, dass der Phenom II 940 in der Black Edition 275 US-Dollar kosten soll."
https://www.computerbase.de/2009-01/test-amd-phenom-ii-x4-920-und-940-black-edition/35/
Nehmen wir jetzt den billigsten Bloomfield gegen den teuersten Deneb damit das Argument passt?
Es gab auch noch den Phenom II X4 920...
ETI1120 schrieb:
Aber nicht mehr im normalen DT. Intel hat den Term HEDT geprägt, um für sich ein eigenes Marktsegment zu schaffen. Damit kann man die Margen schön "optimieren".
Bloomfield und Gulftown waren bloß nie DT, sondern schon immer HEDT. Sieht man auch am Sockel. Die DT Linie ging von 775 auf 115X über. 1366 war der erste echte HEDT Sockel, was man auch daran sieht dass es eben auch nur jeweils einen Chipsatz (zB X58, X79, X99, X299...) gibt und immer mehr als 2 Speicherkanäle. DT hat bei Intel viele verschiedene Abstufungen (Präfix zum Beispiel: Z, P, B, Q, H) und maximal zwei Speicherkanäle.
 
  • Gefällt mir
Reaktionen: BrollyLSSJ, Kazuja, Onkel Föhn und 3 andere
MichaG schrieb:
Auch aus China gibt es nun grünes Licht.
Na endlich hat ja schliesslich genug lange gedauert. 1.7 AMD Aktien pro Xilinx Aktie GO!
 
  • Gefällt mir
Reaktionen: Vitec und Onkel Föhn
Schmiddlon schrieb:
Es ist erfreulich zu lesen, dass AMD wieder richtig "back in the game" ist.
Wie bewertet ihr die Übernahme von ATI?

Anfangs sah es ja durchaus so aus als ob sie mit NVidia ein Kopf an Kopf Rennen liefert. Mal hatte die eine die Leistungskrone mal die andere auch wenn ATI zuletzt etwas mehr Mühe hatte. Die Übernahme durch AMD hat NVidia nicht an die Wand gedrückt sondern es sieht eher danach aus als ob NVidia den Vorsprung ausgebaut hätte und der gebündelten Kraft von AMD und ATI durchaus Paroli bieten kann.

Würdet ihr AMD als Retterin von ATI sehen oder als ein Bremsklotz der es NVidia erlaubte weiter wegzuziehen?

Könnte sich dasselbe noch einmal mit der Neuerwerbung wiederholen?
 
  • Gefällt mir
Reaktionen: TechFA

Überwältigende Mehrheit“: AMD-Aktionäre stimmen Xilinx-Übernahme zu​

Echt jetzt. Ich wurde weder gefragt noch eingeladen...:(
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Wattwanderer schrieb:
Würdet ihr AMD als Retterin von ATI sehen
AMD hat ATI viel zu teuer gekauft. ATi hat die Entwicklung gegen die Wand gefahren. Die HD2000 Serie war ein totaler Reinfall. Das Spitzenmodell ein gewaltiger Fehlschlag. Das hat AMD mit eingekauft und es hat viele Jahre und viele Milliarden gekostet, die Grafiksparte wieder aus der Verlustzone zu holen. ATi alleine wär wahrscheinlich insolvent gegangen.

Viper816 schrieb:
Echt jetzt. Ich wurde weder gefragt noch eingeladen...:(
Öfter Mal ins Depot Postfach schauen?
Für AMD war es im Nachhinein aber ein Glücksfall. Endlich gab's eigene Chipsätze und da die CPUs dann gegen die Wand gefahren wurden, wegen dem fehlenden Geld durch die ATI Übernahme, schlechte Fertigung und fehlgeschlagener Architekturentscheidungen, hat AMD sich zusammen mit der Grafiksparte zumindest durch die Konsolenchips über was halten können um gerade so zu überleben.
2 Jahre länger wenn Zen gedauert hätte, wär aber wahrscheinlich AMD auch nicht mehr existent. Das war haarscharf
 
  • Gefällt mir
Reaktionen: Kazuja, incurable und TechFA
Bin mal gespannt ab wann es Weltweit nur noch eine handvoll Konzerne gibt und es mit der Vielfalt vorbei ist.
Bestes Beispiel VW und SUV. Erst als der Markt weitgehend mit VW, Audi, Porsche gesättigt waren haben auch SEAT und Skoda SUV günstige Modele gebaut. Ein Schelm wer dabei böses denkt
 
rg88 schrieb:
Öfter Mal ins Depot Postfach schauen?
Also für Aktionäre sieht es da bei einer deutschen Banken für AGs im Ausland eher schlecht aus.
Wäre mir auch neu das man da angeschrieben wird, ich wurde zum Beispiel auch nicht benachrichtigt.
 
  • Gefällt mir
Reaktionen: Nagilum99
Bis das Geld wieder drin ist dauert es ein bisschen, nehme an weil ich hier viel von verwunderung lese das sie nicht benachichtigt wurden wird sicher der Umstand sein, das man zu wenig anteile an AMD besitzt um für diese Übernahme als relevante stimme zu gelten.Bissel mehr rein Investieren dann klappts auch mit dem mitentscheiden.;)
 
Zuletzt bearbeitet:
Zurück
Oben