News AMD: Chef-Architekt und K8-Schöpfer Jim Keller geht

Schon erstaunlich irgendwie. Da wird 8 Seiten lang wild spekuliert und es werden die wildesten Gerüchte gestreut, warum J. Keller geht. Und dann kommt ein Statement in dem alles aufgeklärt und den wilden Spekulationen die Grundlage entzogen wird und kaum einen interessiert es. Wo sind denn jetzt die ganzen Untergangsprohpeten? :evillol:
 
@Tharamur
Wundert mich genauso. Allerdings steht im Statement vom AMD Support nicht mehr, als in den ursprünglichen Meldungen. Vielleicht ist so eine Arbeitsweise von Top-Entwicklern in dieser Branche üblich? Ich Dummi würde ja erwarten, dass mit der Fertigstellung des einen Chips die Entwicklung der kommenden Generation beginnt. So sieht es jedenfalls bei IBM, Motorola etc aus.
 
cirrussc schrieb:
Beispielsweise Carrizo IST konkurrenzfähig in dem Segment. Auch Beema/Mullins waren/sind es. Es geht darum, wenn AMD Teile verbaut werden, dass diese durch unerhört dämliche Konfigurationen im Endprodukt einfach unattraktiv sind. Das hat nichts mit AMDs Chips zu tun. Bei Intel Geräten ist es auch so, nur dass es eben auch sehr gute Konfigurationen gibt (geben darf).
Natürlich wird Intel bei diesen Designentscheidungen der OEM in gewisser Weise "behilflich" sein. Andernfalls würde es bedeuten, dass die OEM komplett inkompetent wären, was eigentlich auszuschließen ist.

Das schätzt Du falsch ein. AMDs Problem ist, sie sind ZU innovativ. Bulldozer (seine Schwächen kennen wir alle) war auch auf mehr Multithreading ausgelegt, was selbst jetzt nur gemächlich im kommen ist.
Ebenso die APUs und HSA, dafür ist der Markt noch nicht bereit. Aber jede Wette, wenn es los geht, sind die Konkurrenten plötzlich voll dabei.

Naja, Intel wird den OEMlern wohl kaum die AMD Konfiguration vorgeben, also ist es entweder Verschulden/Inkompetenz der OEM Betriebe oder mangelndes Bemühen seitens AMD und wenn Intel sich um die eigenen Konfigurationen bemüht bzw. Vorgaben/Empfehlungen weiterleitet ist das sicherlich vorbildlich bzw. besteht da noch Nachholbedarf in Sachen Betreuung durch AMD bei OEM Betrieben.

Wie nachfolgend schon von Sinthuria erwähnt, helfen neue Entwicklungen nicht unbedingt, wenn diese am Markt vorbei entwickelt wurden (anfänglich nur Kosten verursachen ohne breite Unterstützung am Markt zu finden) und das ist bei AMD leider relativ häufig der Fall gewesen, wobei nicht auszuschließen ist, dass man nach einiger Zeit dorthin zurückkehrt wenn sich heraus stellt, dass die Entwicklungen zu einem späteren Zeitpunkt eine Nutzen haben und einen Ansatz verfolgen der der Zeit voraus war ... einige Entwicklungen waren mehr und andere weniger innovativ, aber ich denke AMD hat mittlerweile wohl gelernt besser mit weniger Ressourcen gut umzugehen, natürlich auch der finanziellen Situation geschuldet in die man sich hinein manövriert hat.
 
Zuletzt bearbeitet:
Zumal man auch erwähnen muss dass man nicht nur unausgewogene bzw. schlecht abgestimmte AMD sondern auch Intel Systeme auf den Oem Markt findet und zwar gleichermaßen.
 
wolli_d schrieb:
@Tharamur
Wundert mich genauso. Allerdings steht im Statement vom AMD Support nicht mehr, als in den ursprünglichen Meldungen. Vielleicht ist so eine Arbeitsweise von Top-Entwicklern in dieser Branche üblich? Ich Dummi würde ja erwarten, dass mit der Fertigstellung des einen Chips die Entwicklung der kommenden Generation beginnt. So sieht es jedenfalls bei IBM, Motorola etc aus.

Das AMD-Statement beantwortet jedenfalls nicht wirklich viel. Dass Zen inzwischen weitgehend fertig entwickelt wurde, dürfte jedem klar sein.

Interessanter ist, ob und wie Kellers Weggang die Weiterentwicklung des Zen beeinflusst. Schließlich ist es mit der Veröffentlichung der ersten Zen-CPU nicht getan. Das ist nur der erste Schritt.

In den meisten Fällen hat die erste CPU einer neuen oder auch nur stärker überarbeiteten Architektur noch diverse Kinderkrankheiten und Flaschenhälse, die sich erst im Nachinein wirklich herausstellen. Aus diesem Grund macht Intel ja auch die Tick-Tock-Strategie. Also immer abwechselnd eine größere Architekturänderung und dann der Feinschliff und ein neues Fertigungsverfahren.
Zen bringt eine weitgehend neue Architektur und überspringt gleich einige Fertigungsverfahren. Es wäre ein mittleres Wunder, wenn damit direkt ein optimales Ergebnis erzielt würde.

Ich denke aber, dass die Chancen ganz gut dafür stehen, dass AMD auch ohne Keller ein Team hat, das Zen weiterentwickeln kann. (Ausreichende Finanzierung vorausgesetzt.) Trotzdem wäre es ein besseres "Gefühl" gewesen, wenn der Chef-Architekt das Unternehmen nicht schon verlassen hätte, bevor das Küken zum ersten Flugversuch ansetzt, und geblieben wäre, um es noch einige Zeit zu begleiten.

Was die übliche Verweildauer von "Chief Technology Officern" angeht: Justin Rattner arbeitete bei Intel von 1973 (ab 1979 in dieser Position) bis 2013 (vorgeschriebener Renteneintritt für "Corporate Officers" bei Intel).
 
Zuletzt bearbeitet:
Meine Frage war auch eher als eine Art Stichelei in Richtung der Leute mit Aussagen ala "Zen wird ein Misserfolg, er verlässt das sinkende Schiff ..." usw gedacht. ;) . Wobei ich denke, daß auch ein solches Statement die Zweifler nicht verstummen lässt.
 
Oromis schrieb:
Irgendjemand muss nun mal das erste Produkt mit etwas neuem raus bringen.

Fragt sich nur warum das immer AMD sein muss und warum sie nicht langsam einsehen dass es weder vom Umsatz, noch vom Gewinn, noch vom Marktanteil, noch vom Ruf her irgendetwas einbringt das Rad stetig neu zu erfinden und damit größtenteils auf die Nase zu fallen. Mir scheint AMD wäre besser beraten sich zu einem Thinktank umzufirmieren und Produktion und Marketing von neuen Produkte und Technologien denen zu überlassen die es auch können.
 
Sinthuria schrieb:
Leistungstechnisch mit Sicherheit. Allerdings würde ich auf Grundlage der Nano eine zweite Fury X auf den Markt bringen, die dann allerdings auf eine Luftkühlung setzt.

Weil das NV ja mit dem GM200 auch so gemacht hat, oder gibt es für die TitanX auch fertige Karten ohne den typischen Titan Referenzkühler ?

Was das ganze innovativ angeht.
AMD hat den Markt anders eingschätzt. Man braucht nur schauen, wann AMD mit HBM Speicher als Lösungsansatz für GDDR5 angefangen hat. Vor 8 Jahren, direkt als GDDR5 eingesetzt wurde (gut auch GDDR4).
Begutachtet man CMT von Bulldozer und GCN, welche unter DX12 profitieren, weil hier Threads parallel optimaler abgearbeitet werden können (ja ich weiß, sehr schwammig beschrieben), dann kannst du annehmen, dass AMD vor 10 Jahre geglaubt hat, dass wir wesentlich weiter sind mit den Grafik API. Somit war es auch verständlich, wieso AMD nur mehr den Ausweg sah, Mantle als Beispiel gegenüber zu anderen API im Desktop zu etablieren.

DocWindows

Bin gespannt, was du sagst, wenn dann die nächsten GPUs, (CPUs) und APUs (2017) alle auf Interposer setzten und mit HBM bestückt sind. Aber hey, dass würde mit GDDR5 auch gehen, siehe PS4 und Kaveri, welcher ein GDDR5 Interface hat.
Oder in 10 Jahren, dann AMD oder Intel wieder auf CMT zurückgreifen, das aber in Kombination mit VISC.

Wesentlich interessanter ist ja HSA. Wird ja ständig runtergemacht, aber Tatsache ist, dass Intel speziell was HSA angeht, ziemlich stark investiert und am aufholen ist. NV bleibt da völlig auf der Strecke aktuell.
 
Zuletzt bearbeitet:
Mir geht es nicht darum, ob Nvidia das nun ähnlich getan hat oder nicht. Warum muss man denn Vorschläge auf diese typischen AMD-Nvidia-Grabenkämpfe hier im Forum reduzieren?
 
@pipip: Dann würde ich vermutlich sagen: Warum hat AMD das bloß damals schon verbaut als es weder nötig noch günstig war. Hätten sie das Geld mal lieber in andere Projekte gesteckt und HBM dann verbaut wenns alle verbauen.
Der Erfahrungen die man angeblich mit dem Produkt Fury macht, hätte man auch im Labor mit dem Prototypen Fury machen können.
Ähnliches würde ich vermutlich in Sachen CMT sagen. Nur eben da in Bezug auf Software.
Dieses Vorpreschen versteh ich halt nicht. Das geht schon über 10 Jahre so und es ist nie was dabei rumgekommen. Ok, fast nie. AMD64 war eine Ausnahme von der Regel. Vorpreschen kannste, wenn du Geld hast und Produktlinien die solche Forschungen erlauben. Und man muss finanziell auch Fehlschläge hinnehmen können. Alles andere ist so wie lachend in ne Kreissäge laufen.
 
Das ist schon verzwickt: der eine meint, AMD würde viel zu wenig innovativ sein und müsse das steigern, der andere meint das Gegenteil.
Ich denke einfach, mit der Marktsituation und AMD bisheriger Lage kann es AMD NUR falsch machen.
 
Die Frage, wie Fury mit GDDR5 funktionieren würde, wie der Stromverbrauch dann aussieht und was eine Fury kosten würde ist schon interessant aber sehr schwer zu beantworten.
Ich denke eine Fury mit GDDR5 wäre früher auf den Markt gekommen, hätte 8Gb gehabt und wäre preiswerter gewesen. Wie schon angesprochen hätte AMD intern mit HBM testen können um auf 2016 vorbereitet zu sein.

Gerade eine Firma wie AMD muß vorsichtiger und weitsichtiger am Markt sein weil Fehlschläge darf man sich nicht erlauben.

Wenn es in irgend welche anderen Gründe gibt warum Jim Keller gegangen ist, werden wir das eh nicht erfahren. Von daher heißt es einfach einmal abwarten wie sich alles entwickelt.
 
Das Interessante an der ganzen Geschichte ist ja, dass egal wie gut AMD sein wird. Trotzdem zum Großteil nur Intel gekauft wird. Das ist nunmal fakt. Was die neue AMD CPU ist 50% schneller wie Intels Topmodel? Dann warten wir einfach mal Intel ab :D, oder was die neue R9 490X ist 70% schneller als die Titan X? Ach GTX 1080 wirds schon richten ;).

AMD ist und bleibt der ewige Verlierer. Egal wie gut oder schlecht deren Produkte sind. Bei den meisten Kunden gilt das Motto "Einmal Intel, immer Intel" :D

Intel ist halt ein Saftladen, genauso wie VW.
 
Ich habe mich genau einmal vom Datenblatt täuschen lassen und 2004 einen Büroserver mit AMD Prozessor gebaut. Heutzutage heisst AMD in einem Tablet nette Grafik, aber halbe Laufzeit und zu warm. Heizeisen, wie gehabt. Warum also sollte man im gewerblichen Bereich was anderes als Intel nehmen, außer man steht auf Ärger mit Kunden?
 
wolli_d schrieb:
Warum also sollte man im gewerblichen Bereich was anderes als Intel nehmen, außer man steht auf Ärger mit Kunden?

Was spricht dagegen? Vor allem 2004 war AMD durchaus mit tollen Produkten auf dem Markt, du Troll
 
Sinthuria schrieb:
2004 ist aber schon über 10 Jahre her.
Und es ist erstaunlich, wie viele Kisten mit Server 2003 ich heute noch sehe. Da sind aber keine AMD mehr dabei. Ich würde es zwar begrüßen, wenn von AMD noch mal was außer lahm, stromfressend, aber billig kommt (Athlon 64 x2 läuft hier mit W10 Preview), aber die Zeiten des Zauberns sind vorbei.
 
Wolli hat von 2004 gelabert. Aber keine Argumente angegeben sondern nur irgendwas zusammenhangloses von Datenblatt, dann von Tablets und dann von gewerblichen Kunden hingeklatscht
Ergänzung ()

wolli_d schrieb:
Und es ist erstaunlich, wie viele Kisten mit Server 2003 ich heute noch sehe. Da sind aber keine AMD mehr dabei.

bei uns werden Server üblichweise nach 5 Jahren ausgetauscht. Länger gibts meistens keine Supportverträge durch den Hersteller oder nur zu exorbitant hohen Preisen. Und nein, wir können nicht einfach mal 2 Wochen auf z.B. ein neues Mainboard warten, das um die halbe Welt geschifft wird. Das Teil muss innerhalb von 24 Stunden wieder laufen bei einem Hardwaredefekt.

Außerdem: Für Win2k3 ist der Support schon beendet. So ein System setzt man nicht mehr ein in einer professionellen Umgebung
 
Zuletzt bearbeitet:
wolli_d schrieb:
Heutzutage heisst AMD in einem Tablet nette Grafik, aber halbe Laufzeit und zu warm. Heizeisen, wie gehabt. Warum also sollte man im gewerblichen Bereich was anderes als Intel nehmen, außer man steht auf Ärger mit Kunden?
Lustig, wo doch Perf./Watt den Intel Pendants ebenbürtig war (bezogen auf Tablet).

Bezüglich Datenblatt Einträgen und realen Werten gibt's andere Hersteller, die da sogar gerne mal schönen. Vllt. wurde das Datenblatt aber auch nur falsch interpretiert und die TDP der CPU mit dem Gesamtverbrauch des Systems verwechselt. Ob nun angeblich "professionell" oder nicht, das geschieht selektiv nicht selten.
 
Zuletzt bearbeitet:
Zurück
Oben