News „Überwältigende Mehrheit“: AMD-Aktionäre stimmen Xilinx-Übernahme zu

@ETI1120 Ist halt eine normale Entwicklung. Anfangs haben es halt nur ein Bruchteil der existierende CPUs. War ja nie anders seit MMX und Co. Und da AMD und Intel nun beide Zugriff auf FPGA-IP haben, sollte da durchaus ein Standard daraus enstehen koennen, damit sowas dann langfristig in die CPUs oder dergleichen wandert.

Selbstverstaendlich steigert das die Komplexitaet und das wird wohl erstmal noch eine ganze Weile so weitergehen. War doch in der Entwicklung der ganzen Rechenmachinchen nie anders. Irgendwo muss man halt anfangen und das geht dann erst einmal ueber Befehlserweiterungen.

Ist halt auch die Frage, ob FPGAs ueberhaupt eine Daseinsberechtigung fuer Desktop-Maschinen besitzen. Gibt halt verschiedene Entwicklungen, die irgendwann mal zusammen finden werden muessen. Steigender core count, dazu irgendwann mal Big-Little Designs in der x86-Welt, immer mehr fixed functions und dazu dann noch so hochparallele Rechenmonster ala GPUs.

Die Idee von HSA gibts ja jetzt auch schon paar Jahre. Vll werden FPGAs irgendwann mal zu einer Art von Bindeglied zwischen die ganzen unterschiedlichen Ansaetzen. Hab aber davon leider zuwenig Ahnung. Trotzdem finde ich es spannend

Btw ist auch selbstverstaendlich, dass paar CPU-Kernchen mit ihren SIMD Einheiten grosse Probleme gegen moderne superbreite GPUs haben. Trotzdem fehlt da anscheinend noch der performante gemeinsame Adressraum und dazu kommen wohl auch einige Softwarehuerden.

Ergo gehe ich davon aus, dass eine Befehlserweiterung der kleinste und wahrscheinlichste Schritt waere, sofern man FPGAs ueberhaupt der Masse zugaenglich machen will. Alternative waere vll, dass sowas mal in die Dekoder der CPUs/GPUs/whatever wandert. Wobei hier jetzt dann mein Unwissen beginnt. ^_^

Langweilig wirds zumindest nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable
ETI1120 schrieb:
AMD hat 3 CPU-Generationen in Folge geliefert und dabei alle Ankündigungen eingehalten. Sie haben mit 2 RDNA-Generationen was die Rasterleistung betrifft, einen angeblich uneinholbaren Vorsprung von Nvidia aufgeholt.

Da AMD keine eigene Fertigung mehr hat, haben sie die Möglichkeit beim Besten fertigen zu lassen. Das wird wohl noch ein Weilchen TSMC bleiben. Gerade heute hat sich der angebliche technologische Vorsprung von Samsung bei GAA-Transistoren gegenüber TSMC in Luft aufgelöst.
AMD lag nach einem bereits starkem K8 mit den K9 in einem extrem guten 90nm Fertigungsprozess sehr weit vor Intel, die dann den Conroe brachten und der K10 von AMD konnte nicht mithalten, wahrscheinlich auch dann nicht, wenn der 65nm Prozess von AMD nicht so ein Schlag ins Wasser geworden wäre.
Die Überzeugung die du hier zeigst, dürfte jener ähneln, die Intel irgendwo in den Jahren nach Sandy Beach an den Tag legte, als sie ein paar Gänge zurück schalteten und die Betriebsblindheit grassieren konnte. Nicht vergessen, selbst wenn man selber (bei TSMC oder Samsung) einen guten Fertigungsprozess zur Verfügung haben sollte, bleibt das allgemeine Gebalge um Produktionskapazitäten, und es schließt nicht aus, dass Intel womöglich (irgendwann in der Zukunft) einen sehr viel besseren Fertigungsprozess haben kann.

ETI1120 schrieb:
Kannst Du mir bitte erklären was man bei einem Unternehmen wie AMD aufsplitten kann? AMD hat bis 2015 alles versilbert, was nicht im Kern zu CPU und GPU gehört.
Warum sollte AMD für 35Mrd$ eine andere Firma kaufen und sich dann selber aufsplitten und aushöhlen, diese Idee von dir verstehe ich nicht und bedarf einer weiterführenden Erläuterung.

ETI1120 schrieb:
Oder meist Du dass AMD Xilinx kauft um es aufsplitten?
Zur Erinnerung, du äußerst die Befürchtung, dass AMD sich bei Xilinx wie eine klassische Heuschrecke einkauft, den Laden wie ein x-beliebiger Finanzinvestor aufspaltet und verhökert, mit dieser Aussage
ETI1120 schrieb:
Und das geht nur wenn der Zusammenschluss auch für Xilinx Vorteile bringt. D. h. AMD investiert weiterhin in die Xilinxlösungen und bietet auch neue Perspektiven.
Denn diese Investieren nicht, sondern legen den Rotstift an, zerstückeln, entlassen, ziehen Geld raus, hübschen kurzfristig die Zahlen auf und bringen den Laden so nach spätestens nach 3 bis 5 Jahren an die Börse oder verkaufen an den nächsten Finanzinvestor.
Worauf hin ich dir Gründe nenne, aus denen ich das für äußerst unwahrscheinlich halte.


ETI1120 schrieb:
Du liegst natürlich vollkommen daneben. Mit allem was Du schreibst.
Kein Wunder, wenn du nicht kapierst, was andere schreiben
 
sirwuffi schrieb:
kann ja gar nicht sein, die haben mich gar nicht gefragt.... ;)

TBH: mich auch nicht. :D

Aber mal ohne Spaß - wie läuft das üblicherweise? Betrifft das nur Aktionäre mit einer gewissen (Mindest-)"Gewicht"?
 
Bin jetzt zwar ned gefragt worden aber ich wär generell auch dafür also weiter amchen :daumen:
 
Player(1) schrieb:
@ETI1120 Ist halt eine normale Entwicklung. Anfangs haben es halt nur ein Bruchteil der existierende CPUs. War ja nie anders seit MMX und Co.
Ein Großteil dieser ganzen Befehle wird nicht verwendet.
Und wenn sie verwendet werden, führt es dazu, dass die Bibliotheken aufgebläht werden. Weil es über eine lange Zeit CPUs verwendet werden, die diese Befehle nicht unterstützen. Deshalb erstellt man mehrere Binaries. Dies sorgt für einen großen Aufwand bei den Softwareentwicklern. Diesen Aufwand scheuen viele Softwareentwickler und wählen den kleinsten gemeinsamen Nenner.

Player(1) schrieb:
Und da AMD und Intel nun beide Zugriff auf FPGA-IP haben, sollte da durchaus ein Standard daraus enstehen koennen, damit sowas dann langfristig in die CPUs oder dergleichen wandert.
FPGA und CPU+GPU besetzen vollkommen unterschiedliche Felder, sie stehen jeweils am anderen Ende des Spektrums.

FPGA ermöglichen es Algorithmen in Hardware abzubilden ohne einen Chip entwerfen zu müssen. Sie sind eine Beispiel von anpassbarer Hardware. Sie erreichen meines Wissen nicht die Geschwindigkeit von kundenspezifischen Chips (ASIC) können aber in vielen Fällen deutlich schneller als CPUs oder GPUs sein. Man verwendet FPGAs um spezielle Funktionen hardwarenah abzubilden. Man kann sie schneller und flexibler einsetzen als Kundenspezifische Chips. Wenn man aber viele Chips mit dieser Funktion benötigt und die Funktion stabil ist, sind kundenspezifische Chips das Mittel der Wahl.
Player(1) schrieb:
Btw ist auch selbstverstaendlich, dass paar CPU-Kernchen mit ihren SIMD Einheiten grosse Probleme gegen moderne superbreite GPUs haben. Trotzdem fehlt da anscheinend noch der performante gemeinsame Adressraum und dazu kommen wohl auch einige Softwarehuerden.
Den gemeinsamen Adressraum sollte HSA lösen. Aber AMD erkannte 2015 dass sie nicht die Resourcen hatten, um die erforderliche Entwicklungsumgebung bereitzustellen und um dafür die Entwickler zu gewinnen. Statt dessen hat AMD Cuda geklont und den Clon zur Basis von ROCm gemacht.
Mit Infinity Fabric 3 will AMD einen gemeinsamen Adressraum für CPU und GPU bereitstellen. Dies bedeutet, dass man die Daten nicht mehr zwischen CPU und GPU kopieren muss. Aber natürlich muss man nach wie vor CPU und GPU programmieren.
Xilinx hat übrigens im letzten November eine Einbindung der FPGA-Programmierung in ROCm vorgestellt. So wie ich es wahrgenommen habe war es aber eher eine Demostration als eine fertige Lösung
Player(1) schrieb:
Ergo gehe ich davon aus, dass eine Befehlserweiterung der kleinste und wahrscheinlichste Schritt waere, sofern man FPGAs ueberhaupt der Masse zugaenglich machen will.
FPGAs sind Bausteine um Spezialfunktionen in Hardware abzubilden. Es ist nichts für was man Befehlserweiterungen von CPUs entwerfen kann. Das Einbinden von FPGAs wird nach meinem Verständnis auf der Ebene von Bibliotheken oder APIs stattfinden.

FPGAs werden teilweise verwendet um CPUs und GPUs zu simulieren. Das heißt man baut mit FPGAs Teile von CPUs nach und prüft wie sie funktionieren. Natürlich nicht mit den Taktraten der CPUs.
Player(1) schrieb:
Alternative waere vll, dass sowas mal in die Dekoder der CPUs/GPUs/whatever wandert. Wobei hier jetzt dann mein Unwissen beginnt. ^_^
Das Problem ist dass es für viele Dinge noch kein Programmiermodell in Hochsprachen gibt. Einiges kann man über Bibliotheken abwickeln, aber nicht alles. Parallele Abläufe zu programmieren hört sich gut an, ist aber ein sehr schwieriges Problem. Die Programmierer müssen sich selbst um das Parallelisieren kümmern.
Player(1) schrieb:
Langweilig wirds zumindest nicht.
Langweilig war es beim Thema Computer noch nie.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable und Player(1)
rg88 schrieb:
Nein, es werden für sowas normal neu Aktien ausgegeben. Der Kurs sollte relativ gleich bleiben, weil AMD ja um den Gegenwert von xilinx mehr wert wird.

Quatsch. Die xilinx Übernahme wurde mit den q3 Quartalszahlen bekannt gegeben. Diese Zahlen waren so gut, dass es eigentlich einen ca 30 - 35% Sprung nach oben hätte geben müssen. Gleichzeitig gab es aber einen -35% Kursverlust durch die Verwässerung der Aktien. Die Aktie hat sich also am Ende bei null bewegt (cleveres timing). Heißt, kurzfristig haben die AMD Aktionäre 35% verloren. Mittelfristig mal schauen. Ich befürworte die Übernahme und glaube, AMD wird dadurch in Zukunft noch wertvoller. Kurzfristig war das aber ein Wertverlust für die Aktionäre. Die ganzen Bewegungen wurden direkt bei Bekanntgabe eingepreist.
 
catch 22 schrieb:
AMD lag nach einem bereits starkem K8 mit den K9 in einem extrem guten 90nm Fertigungsprozess sehr weit vor Intel, die dann den Conroe brachten und der K10 von AMD konnte nicht mithalten, wahrscheinlich auch dann nicht, wenn der 65nm Prozess von AMD nicht so ein Schlag ins Wasser geworden wäre.
Meines Wissens wurde der eigentliche K9 eingestampft und die Dualcore-CPU nachträglich als K9 bezeichnet. Quasi um die Lücke zu füllen.

Dass K10 und vor allem Bulldozer die Erwartungen nicht erfüllten ist unbestritten. Es lag nicht nur an den schlechteren Prozessen mit denen die CPUs gefertigt wurden.

Vor allem Bulldozer kann ich bis heute nicht nachvollziehen. AMD hat darauf gewettet dass die X86-Software auf viele Threads aufgeteilt werden kann und hat dafür viele Integereinheiten bereitgestellt. Allerdings hat AMD darauf diese Intergereinheiten nicht auf hohe Singlecoreleistung ausgelegt. Teil des Problems war die fehlende Bandbreite. Das Ergebnis war, dass Bulldozer bei der Singlecore-Leistung weit zurückfiel. Die mangelnde Spitzenleistung der einzelnen Integereinheiten hat auch die MultiCore-Leistung begrenzt.
Die vorhersehbare Katastrophe für Bulldozer war, dass 2010 die X86-Software kaum multithreadingtauglich war.
catch 22 schrieb:
Die Überzeugung die du hier zeigst, dürfte jener ähneln, die Intel irgendwo in den Jahren nach Sandy Beach an den Tag legte, als sie ein paar Gänge zurück schalteten und die Betriebsblindheit grassieren konnte.
Und es ist die Aufgabe des Managements dafür zu sorgen, dass das Unternehmen nicht in Selbstgefälligkeit verfällt. Ich bin zuversichtlich, dass die aktuelle Führungscrew keine Selbstgefälligkeit bei AMD zulässt.
Der zweite Punkt ist, dass AMD heute im Gegensatz zu den 2000er methologisch komplett anders arbeitet. Anstatt nur an der nächsten CPU zuarbeiten, arbeitet AMD an einer Roadmap, also an mehreren CPU-Generationen. Das Entscheidente dabei ist, dass die Vorentwicklung testet, ob die Konzepte funktionieren oder nicht.

Wird es bei AMD für alle Zeit gut gehen? Sicher nicht. Aber für die absehbare Zeit ist AMD gut aufgestellt.
Deshalb muss AMD keine Firma kaufen, um einen möglichen Einbruch im Kerngeschäft aufzufangen. Und mit der aktuellen Umsatzverteilung wäre Xilinx dazu nicht in der Lage.

catch 22 schrieb:
Warum sollte AMD für 35Mrd$ eine andere Firma kaufen und sich dann selber aufsplitten und aushöhlen, diese Idee von dir verstehe ich nicht und bedarf einer weiterführenden Erläuterung.
Hier war mir ich nicht sicher wie ich Deine Sätze verstehen soll. Deshalb habe ich in meiner Antwort beide Interpretationen aufgenommen. (1. AMD kauft Xilix, um so teuer zu werden, dass niemand AMD kauft und zerlegt, 2. AMD kauft Xilinx, um es zu zerlegen)
catch 22 schrieb:
Zur Erinnerung, du äußerst die Befürchtung, dass AMD sich bei Xilinx wie eine klassische Heuschrecke einkauft, den Laden wie ein x-beliebiger Finanzinvestor aufspaltet und verhökert, mit dieser Aussage
Das habe ich mit keinem Wort in meinem Post erwähnt. Nicht einmal angedeutet. Was ich nach einer langen Liste von Gründen/Vorteilen für AMD geschrieben habe ist, dass AMD die jetzigen Xilinx-Mitarbeiter binden muss.

Es ist nun Mal eine Tatsache, dass die meisten Firmenkäufe im Hightechsektor schlecht enden und einige sogar in einem Debakel enden. Und der Grund liegt daran, dass das eigentliche Kapital, nämlich die Ingenieure und die Softwareentwickler das Unternehmen verlassen. Damit gerät die Weiterentwicklung ins Stocken und die Produkte werden vom Markt nicht mehr so ankommen wie zuvor. D. h. die Marktanteile sinken. Wenn es ganz schlimm läuft, gerät das für viel Geld gekaufte Schmuckstück in die roten Zahlen. Ein Debakel ist dann vollendet, wenn
  • die letzten Abteilungen, die aus dem gekauften Unternehmen stammen, dicht gemacht werden.
  • die kläglichen Reste des gekauften Unternehmens für einen winzigen Bruchteil der ursprünglichen Kaufpreises abgestoßen werden.

Eine Übernahme beginnt sobald der Kauf abgeschlossen ist. Und sie gelingt nur wenn man die übernommen Mitarbeiter an das neue Unternehmen bindet. Und das gelingt nur, wenn man ihnen Freiräume gibt und weiter in ihre Arbeitsgebiete investiert. Denn nur dann haben die übernommenen Mitarbeiter eine Perspektive und bleiben.

catch 22 schrieb:
Denn diese Investieren nicht, sondern legen den Rotstift an, zerstückeln, entlassen, ziehen Geld raus, hübschen kurzfristig die Zahlen auf und bringen den Laden so nach spätestens nach 3 bis 5 Jahren an die Börse oder verkaufen an den nächsten Finanzinvestor.
AMD ist kein Finanzinvestor, sondern ein Unternehmen das wachsen will. Xilinx soll das Wachstum antreiben. Ich habe ausdrücklich geschrieben, dass AMD auch in die Geschäftsfelder von Xilinx investieren muss, damit das Ziel mit Xilinx zu wachsen auch erreicht wird.

Zum Thema Finanzinvestor/Heuschrecke
Das Problem "ist das Geld raus ziehen". Viele Finanzinvestoren entziehen als erste Maßnahme dem gekauften Unternehmen Geld. Und mit diesem Geld bezahlen sie die alten Besitzer. Im Grunde lassen sich die alten Besitzer mit ihrem eigenen Geld bezahlen.
Häufig muss das gekaufte Unternehmen diese Auszahlung an den neuen Eigener über hohe Kredite finanzieren. Die Zinsen für diese Kredite belasten den Jahresabschluss und führen zu dem von Dir erwähnten Rotstift.

Aber die so wie Du und viele andere das schreiben, kann es nicht funktionieren. Wenn der Finanzinvestor das Unternehmen ausbluten lässt, kann er das Unternehmen 3 bis 5 Jahre später nicht mit Gewinn weiterverkaufen. Jedes Erstsemester BWL erkennt aufgehübschte Bilanzen und Jahresabschlüsse. Und der nächste Finanzinvestor erst recht. Auch das Zerstückeln darf man nicht nur negativ sehen. Manchmal passen Unternehmensteile nicht zum Rest des Unternehmens. Dann entwickeln sich beide nach der Trennung besser.

Es sind Unternehmen vor die Hunde gegangen, nachdem sie von Finanzinvestoren gekauft wurden. Aber es sind noch viel mehr Unternehmen durch Finanzinvestoren neu aufgestellt und neu ausgerichtet worden. So standen bis besser da, als unter dem alten Eigentümer. Aber diese Beispiele eignen sich nicht für Schlagzeilen über Heuschrecken.

Es gibt etwas viel schlimmeres als den Kauf durch Finanzinvestoren. Nämlich den Kauf durch Konkurrenten.
Dabei gibt es garantiert Überschneidungen. Also sind Streichungen vorgezeichnet. Selbst wenn beide Unternehmen gesund sind, gehen Stellen verloren. Und in solchen Situationen gehen oft die guten Mitarbeiter. Ihnen stehen immer Türen offen.

JohnVescoya schrieb:
Quatsch. Die xilinx Übernahme wurde mit den q3 Quartalszahlen bekannt gegeben. Diese Zahlen waren so gut, dass es eigentlich einen ca 30 - 35% Sprung nach oben hätte geben müssen.
Die Quartalsergebnisse in Q4 2020 und Q1 2021 waren noch besser als Q3 2020. Also sind die Kuse jeweils um 35 % gestiegen? Nein
Vom 26. auf den 27. Januar verlor der Kurs 6 $US
Vom 26. auf den 27. April verlor der Kurs 1,5 $US
An diesen Tagen wurden nur die Quartalszahlen veröffentlich. Keine Meldungen die den Kurs hätten drücken können.
JohnVescoya schrieb:
Gleichzeitig gab es aber einen -35% Kursverlust durch die Verwässerung der Aktien. Die Aktie hat sich also am Ende bei null bewegt (cleveres timing). Heißt, kurzfristig haben die AMD Aktionäre 35% verloren.
Zahlen und Übernahme wurden vor Börsenöffnung angekündigt. Der Kursrückgang am 8. Oktober war mit 0,18 $US deutlich kleiner als bei den Bekanntgaben der Zahlen für Q4 2020 und für Q1 2021.

Sorry, was Du schreibst stimmt nicht.
Es gab keinen 35 % Kursanstieg der wegen der Ankündigung der Übernahme durch einen entsprechenden Kursrückgang kompensiert wurde.
JohnVescoya schrieb:
Mittelfristig mal schauen. Ich befürworte die Übernahme und glaube, AMD wird dadurch in Zukunft noch wertvoller. Kurzfristig war das aber ein Wertverlust für die Aktionäre. Die ganzen Bewegungen wurden direkt bei Bekanntgabe eingepreist.

Wenn etwas in die AMD-Aktien eingepreist ist, dann sind es hohe Erwartungen an steigende Umsätze und Gewinne. In einem solchen Umfeld führen gute Zahlen oft zu Gewinnmitnahmen. D. h. Verkäufen und damit zu fallenden Kursen. Und wehe es kommen schlechte Zahlen ...

In den letzten Jahren hat bereits eine massive Verwässerung der AMD-Aktien stattgefunden:
Jahresende 2015: 731 Millionen outstanding shares
Jahresende 2020: 1207 Millionen outstanding shares

Die Zahl 1207 Millionen outstanding shares enthält noch nicht die Aktien, mit denen die Xilinx-Aktionäre bezahlt werden.

Die starke Verwässerung war stets ein Hauptargument gegen die AMD-Aktie.
 
  • Gefällt mir
Reaktionen: incurable und rg88
@ETI1120

Hi,

Wie schon geschrieben, ist mein Wissen zu dieser HW-Ebene ziemlich beschraenkt.

Trotzdem sehe ich die ganzen Befehlserweiterungen zwar als Ballast, aber nicht als grosses Problem. Das ist halt die Krux der Kompatibilität der x86-Welt, welche dabei sogar einer der grossen Staerken ebendieser darstellt. Dabei frage ich mich dann doch gerade, ob man diesen Ballast irgendwie quantifizieren kann, denn in meinem IT-Alltag laeuft alles noch ziemlich rund.

Das mit den Befehlserweiterung ist doch wie diese Unterscheidung zwischen RISC- und CISC-Architekturen.
Hochspezialsierte Recheneinheiten mit schmalen Befehlssatz; sehr effizient und performant und auf der anderen Seite die Alleskoenner.
Wenn ich das richtig verstanden habe, dann haben wir heute doch eh sowas wie eine Hybridform der beiden Welten. Nach aussen hin CISC, dann kommt ein fetter Dekoder und dahinter dann die flotten Recheneinheiten mit beschraenkten internen Befehlssatz.

Diesen Ansatz koennte man doch, im Sinne von HSA und einer idealen Auslastung aller vorhandenen Recheneinheiten in einem System, doch wohl noch paar Stufen ausbauen. Und gerade bei diesem Gedanken sehe ich da ein gewisses Potenzial fuer FPGA-aehnliche Ansaetze

Ich kenne die grobe Technik hinter FPGAs und wie man damit arbeitet (eine Welt fuer sich). Hab selber noch ein kleineres privates Projekt mit FPGAs auf meiner 2do-Liste. Aber fuer mich als Laie sieht das aktuell so aus, als ob FPGAs genau zwischen den beiden extremen Single Threading (CPUs) und Number-Crunching (GPUs) stehen.
Selbstverstaendlich sind FPGAs aktuell eine Form von spezialisiertem Silizium, wie zb auch TPUs. FPGAs bieten doch die Moeglichkeit Algorithmen direkt in Hardware umzusetzen. Was dann dabei wahrscheinlich auch noch ziemlich effizient und performant sein wird. Zumindest im Idealfall.

Und das ist doch etwas, was weder CPUs noch GPUs aktuell koennen.
Wir steuern da gerade auf eine ziemlich interessante Zeit. In so einer Welt mit Big-Little CPU-Designs, dutzenden speziellen fixed functions IC-Bloecken und riesigen hochparallelen Rechenmonstern (GPUs) mit ihren Armee von Rechenkernen.

Irgendwie und irgendwann wird man das wohl alles unter einem Hut bringen koennen bzw vll sogar muessen.

Gruss
 
catch 22 schrieb:
AMD lag nach einem bereits starkem K8 mit den K9 in einem extrem guten 90nm Fertigungsprozess sehr weit vor Intel, die dann den Conroe brachten und der K10 von AMD konnte nicht mithalten, wahrscheinlich auch dann nicht, wenn der 65nm Prozess von AMD nicht so ein Schlag ins Wasser geworden wäre.
Das ist aber sehr vereinfacht dargestellt. AMD hatte damals massive Probleme mit den Fertigungsmengen und die Entscheidung war entweder alles auf 65nm setzen oder die 90nm Produktion massiv ausbauen. Man hat sich schlussendlich für beides gleichzeitig entschieden und das schlechteste aus beiden Welten bekommen: Nicht genug Marktmacht durch fehlendes Volumen bei OEMs und einen 65nm Prozess der nur marginal besser war als 90nm (zumindest was die Leistung/Verbrauch/Taktbarkeit angeht). K10 war übrigens kein Fehlschlag, nur die Fertigung hinkte hinterher. Der gefixte Phenom, alias Phenom II, war bis Nehalem sehr attraktiv und konkurrenzfähig, trotz etwas schlechterer Fertigung. Beim Bulldozer hat sich dann das Missmanagement und die verlorene Wette akkumuliert: Schlechte Fertigung + falsche Architektur.
 
  • Gefällt mir
Reaktionen: Player(1) und rg88
rg88 schrieb:
Nein, das Konzept würde gemacht unabhängig der finanziellen Situation. So eine Entwicklung dauert immerhin Jahre und wenns dann am Ende läuft wie ein Sack Nüsse, dann muss man das ausbaden. Ist ja nicht so, als ob AMD vor ATI große Gewinne eingefahren hätte.
AMD hat die ATi-Übernahme im Juni 2006 angekündigt.
Intel stellte im Juli den Core 2 Duo / Extreme vor.
Bulldozer ist Ende 2011 auf den Markt gekommen.

Ich halte es für sehr mutig zu behaupten, dass AMD mit 5,4 Milliarden mehr (bzw. weniger Schulden) nicht jemanden hätte verpflichten können, dem in den 5 Jahren, in denen AMD hoffnungslos hinter Intel zurückfiel, etwas besseres eingefallen wäre als Bulldozer.
Ergänzung ()

Lord_Helmi schrieb:
Der gefixte Phenom, alias Phenom II, war bis Nehalem sehr attraktiv und konkurrenzfähig, trotz etwas schlechterer Fertigung.
Nehalem kam Ende 2008 auf den Markt.
Phenom II wurde Anfang 2009 vorgestellt.
 
Zuletzt bearbeitet:
incurable schrieb:
nicht jemanden hätte verpflichten können, dem in den 5 Jahren, in denen AMD hoffnungslos hinter Intel zurückfiel, etwas besseres eingefallen wäre als Bulldozer.
Denkst du, eine bessere Architektur wär teurer gewesen? Das Design wär halt von Anfang an eine Fehlplanung. Genau die Fehler wiederholt von Intel beim P4. Lange Pipelines für hohen Takt, am Ende dann aber den Takt nicht erreicht ohne absurde Verbräuche (siehe 5GHz Bulldozer). Dann noch die Entscheidung nur die Integer Einheiten zu Doppeln.
Die Architekten haben hier versagt, nicht die Buchhaltung.
Dass sie es nicht gebacken bekamen eine brauchbare Architektur mit hoher IPC hinzustellen, haben sie ja dann auch selbst geschnallt. Deshalb wurde Jim Keller wieder ins Boot geholt und parallel zu Bulldozer noch die Katzenarchitektur entwickelt (Playstation, Xbox, APUs, Embedded) die zwar keinen hohen Takt aber zumindest angemessenen Verbrauch brachte.
Aber das kostet eben vorallem Zeit und kann mit Geld auch nicht unbegrenzt beschleunigt werden.
 
@rg88

Ja, selbstverstaendlich war Bulldozer und Co eine Fehlentwicklung. Aber wie jemand schon geschrieben hat, so eine Design stampft man nicht mal eben aus dem Boden. Auch werden da einige Spekulation ueber zukuenftige Softwarearchitekturen mit in die Planung eingeflossen sein.
Darum auch nur eine Verdoppelung von Int. Gab in der Zeit doch auch Plaene bzgl HSA, Fusion usw. Das soll bzw muss man dann schon alles im Kontext sehen.

Seit Zen gehts halt wohl knallhart in die Richtung von solider 1T-Performance gepaart mit Effizienz und dazu dieses neue Spielfield der Chiplets. Letzteres werden die schlauen Koepfe von AMD wohl schon von Anfang an mit geplant haben. Alleine diese Geschichte mit dem gestapeltem L3-Cache. Das hat schon etwas von 4D-Schach. ^_^

in dem Punkt mit Jim Kellner muss ich Dir aber widersprechen. Anscheinend war er weniger fuer das eigentlich Core Design zustaending, sondern beim ihm gings mehr Richtung Infinity Fabric und Co. Ist wohl die gleiche Baustelle, welche er gerade bei Intel behandelt.
Ich kann mich da zwar auch irren, zumindest ist es das, was ich am Rand so ueber die letzten 2-3 Jahre mitbekommen habe.
 
Player(1) schrieb:
Aber wie jemand schon geschrieben hat, so eine Design stampft man nicht mal eben aus dem Boden. Auch werden da einige Spekulation ueber zukuenftige Softwarearchitekturen mit in die Planung eingeflossen sein.
Darum auch nur eine Verdoppelung von Int. Gab in der Zeit doch auch Plaene bzgl HSA, Fusion usw. Das soll bzw muss man dann schon alles im Kontext sehen.
Mir ist der Kontext bekannt, aber selbst in multithreading konnte der Bulldozer sich nicht behaupten. Das führte zur Einstellung der Opterons.
Es ging ja jetzt darum, ob es am Geld lag oder nicht. Und das bezweifle ich. Selbst die beste Fertigung hätte das verkorkste Design nicht gerettet.


Player(1) schrieb:
in dem Punkt mit Jim Kellner muss ich Dir aber widersprechen
Klar hat Keller das nicht alleine auf die Beine gestellt. Die Zen-Designideen lagen ja angeblich schon bereit. Wohl schon zu Bulldozer Zeiten wie man munkelt, aber das Management hätte sich für den anderen Ansatz entschieden, weil Bulldozer natürlich weniger Die-Fläche braucht, wenn nur ein Teil gedoppelt wird. Aber am Ende ist er auch genau daran gescheitert. Eigentlich konnte erst die letzte Iteration überhaupt eine akzeptable Leistung bringen, aber halt viele Jahre zu spät und kam dann auch nicht mehr als Desktop CPU sondern als erste AM4 APU und im Notebook. Aber das war eher ein Testballon für DDR4 als ein ernstgemeintes Produkt
 
rg88 schrieb:
Denkst du, eine bessere Architektur wär teurer gewesen? Das Design wär halt von Anfang an eine Fehlplanung.
Ich denke mit weniger Ballast an den Füßen (und ohne die Ablenkung, die ATi und deren Produkte zweifelsohne waren) wäre die Chance höher gelegen, dass jemand mit ausreichend Talent engagiert werden konnte, dem irgendwann in den 5 1/2 Jahren zwischen Core 2 Duo und Bulldozer aufgefallen wäre, welchen Bockmist AMD da entwickelte.
rg88 schrieb:
Deshalb wurde Jim Keller wieder ins Boot geholt und parallel zu Bulldozer noch die Katzenarchitektur entwickelt (Playstation, Xbox, APUs, Embedded) die zwar keinen hohen Takt aber zumindest angemessenen Verbrauch brachte.
Das ist Jim Keller gegenüber unfair, die Ahnenreihe von billigen Miezkernen mit Minimalleistung (Netbookmarkt ich hör dir trapsen) haben die Hanseln bei AMD schon selbst verbrochen. (während Keller gleichzeitig bei Apple die ersten eigenen SOCs verantwortete)
 
incurable schrieb:
Nehalem kam Ende 2008 auf den Markt.
Phenom II wurde Anfang 2009 vorgestellt.
Im HEDT. Wir reden beim Phenom II aber sicher nicht davon dass der mit HEDT konkurrieren sollte? Nehalem im Consumersektor trat erst mit Clarkdale und Lynnfield an. Das war erst Ende 2009 bzw. Anfang 2010. Phenom II war ziemlich genau zum Jahreswechsel 2008/09 - da liegt locker ein dreiviertel Jahr dazwischen.
 
Lord_Helmi schrieb:
Im HEDT. Wir reden beim Phenom II aber sicher nicht davon dass der mit HEDT konkurrieren sollte? Nehalem im Consumersektor trat erst mit Clarkdale und Lynnfield an. Das war erst Ende 2009 bzw. Anfang 2010. Phenom II war ziemlich genau zum Jahreswechsel 2008/09 - da liegt locker ein dreiviertel Jahr dazwischen.
Sag halt Lynnfield, wenn Du Lynnfield meinst. Nehalem kam vor Phenom II auf den Markt.
 
incurable schrieb:
Sag halt Lynnfield, wenn Du Lynnfield meinst. Nehalem kam vor Phenom II auf den Markt.
Nehalem ist eine Mikroarchitektur. Sag halt Bloomfield.

Und zudem ging ich davon aus, dass der gesunde Menschenverstand gebietet nur Produkte zu vergleichen die in einem Merktsegment zur Auswahl standen. Da ist Bloomfield vs Deneb mal ordentlich daneben, da preislich massiv unterschiedlich, 250€ vs 500€.
 
Lord_Helmi schrieb:
Nehalem ist eine Mikroarchitektur. Sag halt Bloomfield.
Bloomfield ist die erste Implementierung von Nehalem, und damit war Nehalem - anders als von Dir behauptet - vor Phenom II auf dem Markt.
Lord_Helmi schrieb:
Da ist Bloomfield vs Deneb mal ordentlich daneben, da preislich massiv unterschiedlich, 250€ vs 500€.
Bloomfield gab es zum Launch ab $284.
 
incurable schrieb:
Bloomfield ist die erste Implementierung von Nehalem, und damit war Nehalem - anders als von Dir behauptet - vor Phenom II auf dem Markt.

Bloomfield gab es zum Launch ab $284.
Und Phenom II gab es ab 200€.

Nochmals: Nicht dieselbe Kategorie, man beachte die Boardkosten und den notwendigen Speicher. Es ist und bleibt HEDT vs DT. Erst Lynnfield/Clarkdale brachten Nehalem in den DT Markt. Das geschah eben erst nach Phenom II.
 
incurable schrieb:
Das ist Jim Keller gegenüber unfair, die Ahnenreihe von billigen Miezkernen mit Minimalleistung (Netbookmarkt ich hör dir trapsen) haben die Hanseln bei AMD schon selbst verbrochen.
Du missverstehst mich. Die erste Aktion war Keller zu holen, die zweit, dass man die Katzenarchitektur entwickelt. Damit war nicht gemeint, dass Keller die Katzen entwickelte ;)
Diese "Minimalleistung" war aber immerhin der Strohhalm, mit dem man sich über Wasser halten konnte, Stichwort Konsolenmarkt
 
Zurück
Oben