Notiz Beförderung: Raja Koduri steigt bei Intel weiter auf

Colindo schrieb:
dass Navi ein Design "nur für die Konsole" ist
Naja der Eindruck ist enstanden, weil erstens nur die "Semi-Custom" Team daran arbeite, aber Koduri war trotzdem der Chef von beiden Abteilungen, aber er wurde hauptsächlich für Vega abgestellt. Und den großen Einfluss von Sony, weshalb zu den Verzögerungen kam bei Navi. Bis Mai 2019 glaubten alle Navi sei die letzte GCN-Architektur (Es hat noch Prinzipen von GCN, welche mit RDNA2 nochmal reduziert sind), weil alle Roadmaps die existierten nur die NextGen-Speicher erwähnten und schon bekannt war das die Playstation nicht Navi 1 haben wird.
Was neu ist bei Navi ist WGP(2xCU) und das hat sich bei RDNA2 nicht geändert mit Ausnahme jede CU hat ein Ray Accelator zusätzlich bekommen hat und die Hierarchie des Speicher wurde neu gestaltet("MemoryNext").

Es erweckt den Anschein das noch 2016 bei Navi noch mit der Idee einer Next-Gen GCN(6) hatte mit Anpassung der CU und Speicher. Vega GCN 5 war schon ein richtiges Update als alles zwischen GCN1 bis 4! Aber vieles wurde dann trotzdem im Treiber deaktiviert und gewisse Limits blieben.

DevPandi schrieb:
Für die groben Unterschiede dann S. 9 Fig. 2 und S. 8 Fig. 2. Man sieht an den Diagrammen gewisse Ähnlichkeiten zwischen einer WGP und einer CU in der Organisation. Auch wenn man weiter den Reference Guide liest, fällt die Ähnlichkeit zwischen WGP und CU auf auf und dass sich da gewisse Ideen in beiden Designs auch wieder finden.

Ich habs mir angeschaut und du zeigt gerade das was RDNA und GCN unterscheidet. Die Schaubilder im CDNA1/2 sind genau identisch was GCN schon hatte! So war die CU und auch die Speicherhierarchie aufgebaut.

RDNA und RDNA2 hat sich die WGP bis auf für jede CU eine Ray Accelator nichts geändert!

Danke für die Links. Du hast eigentlich bestätigt das CDNA1/2 immer noch 1:1 auf GCN5 bassiert!
Ergänzung ()

Colindo schrieb:
Ich mache es mal an dieser Aussage von dir fest. Du lieferst die beiden Grafiken als Beleg für die Aussage: "Vieles was AMD mit RDNA eingeführt hat, hat AMD nun auch bei CDNA2 eingeführt, nur eben auf "CU"-Basis." Jetzt erkläre mir mal, wo du in den Grafiken siehst, dass sich bei CDNA2 etwas Richtung RDNA entwickelt hat. Erst, wenn du da die Indizien klar benennen kannst, wird aus deinem Raten tatsächlich eine Spekulation, oder sogar eine Argumentation.
Ah du warst schneller. Danke! Ich habe mir es auch durchgeschaut und dachte CDNA sieht doch genau so identisch aus wie GCN5, sogar immer noch die gleichen Größen beim Speicher.

Hier für alle noch eine Hilfe: RDNAvsGCN.pdf
 
  • Gefällt mir
Reaktionen: Colindo
Fegr8 schrieb:
RDNA und RDNA2 hat sich die WGP bis auf für jede CU eine Ray Accelator nichts geändert!
Nicht zu vergessen, dass die TMUs auch beim Raytracing mitarbeiten. Das musste auch ermöglicht werden. https://www.computerbase.de/2020-04...3/#abschnitt_wie_koennte_amds_ansatz_aussehen

Was die Spekulationen zu Navi und Sony angeht: Ich wüsste ja echt gerne, was da der genaue Zeitverlauf war und welche Ideen Sony eingebracht hat. Weil es ja sein kann, dass Navi1 der Testballon für viele Änderungen war, bevor Navi 2 in die PS5 kommen sollte und das so klar war. Oder aber es wurde in der Semi-Custom-Sparte ein Gesamtkonzept für Navi 2 erstellt und Navi 1 wurde von der RTG selbst als Zwischen-Meilenstein definiert. Erst wenn man das weiß, kann man Koduris Beiträge einschätzen.
 
HtOW schrieb:
Kann auch eine Absicherung sein so nach dem Motto „vergiss nicht wer dir die Möglichkeit gegeben hat so schnell aufzusteigen“
mmm die Warscheinlichkeit das der "Tiefflieger" schnell von dem anderen ersätz wird ist zu hoch.
Ich vermute "Tiefflieger" -in solchen Positionen- haben ein Gespür dafür entwickelt wer ihnen gefährlich werden kann & wird. Sonst wären die nicht mehr auf ihren Posten.
Aber das ist nun genug OT :D
 
  • Gefällt mir
Reaktionen: HtOW
Colindo schrieb:
Erst wenn man das weiß, kann man Koduris Beiträge einschätzen.
im Detail wird das immer schwierig bleiben. Ich fand damals Vega eine massive Enttäuschung und hab "ihm" die Schuld gegeben. Aber halt deshalb, weil das menschliche Gehirn zuerst mal so funktioniert. Nach etwas Nachdenken war aber schnell klar, dass bei solch großen Unternehmen komplexe Strukturen und Entscheidungen dahinterstecken. Ganze Teams und nicht nur Einzelpersonen, Ressourcen usw.
Letztlich kann der beste Designer unter den falsxhen Voraussetzungenen Mist bauen und auch ein mittelmäßiger Designer/Architekt/Entwickler... kann mit dem richtigen Team viel erreichen.
In den ca 5 Jahren die man vom Design bis zum Kaufbaren Produkr rechnen kann, kann vieles richtig oder auch falsch laufen.

Er wird mir nie sympathisch werden, aber ich finde das Pauschale "Koduri=was er anfasst wird schlecht" nervig, er war bei einigen Achtungserfolgen dabei, so mies kann er nicht sein
 
  • Gefällt mir
Reaktionen: SnapButton
BAR86 schrieb:
im Detail wird das immer schwierig bleiben. Ich fand damals Vega eine massive Enttäuschung und hab "ihm" die Schuld gegeben. Aber halt deshalb, weil das menschliche Gehirn zuerst mal so funktioniert. Nach etwas Nachdenken war aber schnell klar, dass bei solch großen Unternehmen komplexe Strukturen und Entscheidungen dahinterstecken. Ganze Teams und nicht nur Einzelpersonen, Ressourcen usw.
Letztlich kann der beste Designer unter den falsxhen Voraussetzungenen Mist bauen und auch ein mittelmäßiger Designer/Architekt/Entwickler... kann mit dem richtigen Team viel erreichen.
In den ca 5 Jahren die man vom Design bis zum Kaufbaren Produkr rechnen kann, kann vieles richtig oder auch falsch laufen.

Er wird mir nie sympathisch werden, aber ich finde das Pauschale "Koduri=was er anfasst wird schlecht" nervig, er war bei einigen Achtungserfolgen dabei, so mies kann er nicht sein
Ich hatte die Vega 56 und war sehr zufrieden mit der Karte.
ABER einerseits habe ich sie später (Treiber liefen sehr rund) für weniger € erworben und
anderseits bin ich recht wenig ~anfällig für Werbung bzw. Versprechen (Poor Volta).
Vielleicht liegt sein"schlechtes" Image an den Überzogenen Erwartungen die das Marketing(?) geschürt hat.
 
SnapButton schrieb:
Ich hatte die Vega 56 und war sehr zufrieden mit der Karte.
ABER einerseits habe ich sie später (Treiber liefen sehr rund) für weniger € erworben und
anderseits bin ich recht wenig ~anfällig für Werbung bzw. Versprechen (Poor Volta).
Vielleicht liegt sein"schlechtes" Image an den Überzogenen Erwartungen die das Marketing(?) geschürt hat.
naja die Karten waren ja nicht "schlecht".
Aber die Architektur war halt doch deutlich hinter der Konkurrenz wenn man sie auf anhand gewisser technischer Parameter vergleicht (Chipgröße, Treiber, Verbrauch, Spezialram, Performance...)
Es stimmt schon: weil man dann den Preis deutloch gesenkt hat, konnte man ein für den Preis recht gutes Produkt erwerben. Gedacht/Konzipiert war es aber nie als 1070/1080 Gegenstück, sondern gegen 1080 Ti und Titan.
 
BAR86 schrieb:
Letztlich kann der beste Designer unter den falsxhen Voraussetzungenen Mist bauen und auch ein mittelmäßiger Designer/Architekt/Entwickler... kann mit dem richtigen Team viel erreichen.
Es kann ja auch gut sein, dass es bei Vega, wie hier mehrfach erwähnt, an den Mitteln mangelte. Und dass Forest Norrod ihn für einen Träumer hielt, der eventuell nicht für die Umsetzung geeignet ist sondern mehr Abstand zum Produkt braucht, ist ja auch bekannt.

Das Gute ist, dass das AMD-Team zurzeit sehr produktiv scheint und ich mich deswegen sehr auf RDNA 3 freue.
 
BAR86 schrieb:
naja die Karten waren ja nicht "schlecht".
Aber die Architektur war halt doch deutlich hinter der Konkurrenz wenn man sie auf anhand gewisser technischer Parameter vergleicht (Chipgröße, Treiber, Verbrauch, Spezialram, Performance...)
Es stimmt schon: weil man dann den Preis deutloch gesenkt hat, konnte man ein für den Preis recht gutes Produkt erwerben. Gedacht/Konzipiert war es aber nie als 1070/1080 Gegenstück, sondern gegen 1080 Ti und Titan.

Sicher?
Hatte die Vega 56 als GTX 1070 Pendant im Kopf.
Konnte sie nur mit der GTX 1080 vergleichen.
Erst "spürbar" langsammer aber mit der Zeit hatten die sich angenährt; wenn auch in meiner akt. Nutzerzeit die 56 -ausser mit Rosinenpickerei- die GTX 1080 nicht erreicht hatte.
Aber das Hauptproblem der Vega 56 (und größer) war bzw. ist der Stromverbrauch.
 
Colindo schrieb:
Erst, wenn du da die Indizien klar benennen kannst, wird aus deinem Raten tatsächlich eine Spekulation, oder sogar eine Argumentation.
Ich muss an der Stelle sagen, dass ich gerade aus der falschen Richtung das Ding aufgezäumt habe. Ich hab ja ein paar Blockdiagramme, Schaltpläne, Beschreibungen und grobe Skizzen zu CDNA2 und RDNA/RDNA2 und ebenso auch zu Turing und Ampere und irgendwann kommt man bei der Menge an Information auch durcheinander.

Im Endeffekt ist für mich an der Stelle eher wichtig, dass man zwischen CDNA und RDNA immer noch eine starke Verwandschaft sieht und dass Ideen und Konzepte sich bei der Entwicklung auch austauschen und man Konzepte der einen auch bei den anderen findet, aber entsprechend an das Aufgabengebiet angepasst.

Man spricht ja bei RDNA und RDNA2 immer noch oft von den CU, das stimmt aber ja eigentlich nicht - das hat AMD selbst ja auch bestätigt. In RDNA2 wurde die CU durch die WGP ersetzt. Vergleicht man nun die WGP aus RDNA2 mit der CU aus CDNA2, dann sieht man, das auch noch relativ gut.

Aber ich setzt mich da echt noch mal dran, ich werde da durch mich selbst wieder neugierihg, aber erst wenn ich wirklich Zeit dafür habe! Hausaufgabe für mich das alles noch mal durchzuarbeiten.

Colindo schrieb:
Ich sehe deine Indizien nicht.
Nun, du siehst die Indizien nicht, andere sehen sie. Indizien sind immer auch eine gehörige Portion Spekulation, Intepretation und manchmal auch der Wille etwas in eine gewisse Richtung zu deuten. Da bin ich ganz fair und ehrlich.

Colindo schrieb:
Aber bis eben hast du daraus Aussagen mit sehr harten Formulierungen gemacht, die du erst jetzt abschwächst.
Das ist jetzt eine komplizierte Lage, weil man da durchaus abschätzen muss, was meine eigentliche Intention war und warum ich jetzt zum Beispiel auch anders reagieren kann.

Ich habe die Thematik um Raja bereits in einem anderen Thema angesprochen und da auch entsprechende Quellen - die gleichen wie hier geliefert - und man ging über die Quellen einfach hinweg und hat einfach weiterhin einfach nur eine Behauptung, die sich selbst erst mal nur auf Indizien stützt, wiederholt und so getan, als wäre ja alles andere damit Falsch.

In so einem Moment verhärten sich die Fronten durchaus, weil hier erst mal keiner auf den anderen zugeht und quasi bei seinem Standpunkt bleibt und wie ein Kind stampft man trotzig auf. Ich bin ja auch erst mal von einer eher "laschen" Haltung der Marke, dass es da Gerüchte und Indizien gibt, die das zumindest etwas in Zweifle ziehen, hin zu, dass das alles so ist, auch wenn man es nicht beweisen kann, gewandert, eben weil auf gewisse Artikel und Co überhaupt nicht aktiv eingegangen wurde.

Jetzt kam aber Bewegung ins Spiel und die Quellen wurden ja auch von andere Seite angeführt und man sieht dann, dass sich die andere Seite doch bewegt. Man kann dann sich selbst auch wieder bewegen und aufeinander zu gehen und sagen, dass wir vermutlich nie wissen, wie es wirklich war und am Ende vielleicht sogar beides irgendwie stimmt.
Fegr8 schrieb:
Es erweckt den Anschein das noch 2016 bei Navi noch mit der Idee einer Next-Gen GCN(6) hatte mit Anpassung der CU und Speicher. Vega GCN 5 war schon ein richtiges Update als alles zwischen GCN1 bis 4! Aber vieles wurde dann trotzdem im Treiber deaktiviert und gewisse Limits blieben.
Na ja, kommt darauf an, wie man dran geht. Sieht man sich die Primitive-Shaders und den HBCC und ebenso die Integration des Infinity Fabric, stimmt das auf jeden Fall.

Geht man jetzt nur an die CU, dann hat man halt auch nicht soviel gemacht in der Struktur und die beibehalten. Vega war als Produkt gesehen wirklich auch nicht mal schlecht, aber man merkt an allen Ecken und Enden, dass man entweder noch Zeit benötigt hätte oder einiges sich zwar toll las, aber nicht so durchdacht war, wie es hätte sein müssen.
Fegr8 schrieb:
Danke für die Links. Du hast eigentlich bestätigt das CDNA1/2 immer noch 1:1 auf GCN5 bassiert!
Das CDNA1 noch GCN war, das auf jeden Fall. CDNA2 im Endeffekt auch noch. Im Endeffekt sieht man auch bei RDNA und RDNA2 noch die Verwandschaft zu GCN, nur dass eben statt jetzt eine CU mit 4*Vec16 eben eine WGP mit 4 * Vec32 die Arbeit macht.

Ich bin nur gestern genau aus der falschen Richtung vermutlich dran gegangen. Ich muss mal mir noch die Papers für VEGA ansehen und wann welche Ideen kamen und wie die sich geändert haben um zu wissen wie die Ideen da eventuell geflossen sind. Mea Culpa, zu viele Dateien zur gleichen Zeit und unaufgeräumt.
Fegr8 schrieb:
Hier für alle noch eine Hilfe: RDNAvsGCN.pdf
Japp, das kenne ich das Papier, ist auch offen und ist auh der Ursprung der Aussage - mit den ISA-Dokumenten - das eben Ideen aus RDNA zu GCN in CDNA2 gewandert sind und andersrum genau so. Daher ja auch von mir etwas die Gleichsetzung CU = WGP. Man hat ja einiges, was bei GCN/CDNA in der CU sitzt "heraus" genommen und in die WGP verlagert um dann zwei CUs anzubinden usw.

Mal sehen, wann ich die Zeit habe mal wirklich wieder alles zulesen. :) Alleine damit kann man einen Urlau füllen!
 
  • Gefällt mir
Reaktionen: Colindo
SnapButton schrieb:
Sicher?
Hatte die Vega 56 als GTX 1070 Pendant im Kopf.
Ich hab mich - mal wieder - total blöd ausgedrückt wie es scheint. Sorry.
Geplant war die Vega als Angriff auf die aktuelle Leistungsspitze.
Sie ist dann halt langsamer geworden als gewünscht, somit hat man sie preislich gegen die 1070 und 1080 positioniert. So etwas merkt man dann einige Monate vor Release, vielleicht ist es deshalb anders nach außen kommuniziert worden. Aber von der Planung her, hatte man ganz was anderes vor:

Die technischen Daten (auf die man sich ja schon beim HL Design inetwa einigt) waren aber ganz klar auf Highend ausgerichtet.
Die Chipfläche ist ja teuer. Da hat man einen 500mm² Chip hingeknallt (während die 1080 300mm² hat und selbst die 1080 Ti ist unter 500 wenn ich mich korrekt erinnere). Der Verbrauch bzw. die taktung war extra hoch angesetzt. Ebenso, dass man sehr teuren RAM verwendet (im Gegensatz zum billigen GDDR bei der 1070 hat man ja HBM 2 Verwendet) usw usf.
Dass man mit allem Aufwand (+ diverse Features VRS usw) nur grad so bei einem 1 Jahr früher releasten, sparsameren und wesentlich günstiger zu produzierenden 1070/80 rauskam war sicherlich nicht der Plan.
Das hätte man nämlich wahrscheinlich auch einfach mit einer (hypothetischen) doppelt so "dick" ausgeführten Radeon 480 erreicht.
Soweit ich mich erinnere waren diverse Benchmarks die ordentlich von den Features profitierten, und Low Level von Vega profitierten tatsächlich auf oder vor 1080 Ti Niveau. Dort wollte man also hin. Aber die Realität war leider (!) eine andere.
Viele haben damals noch gehofft mit Fine-Wine kommt man da noch hin, hat sich aber nicht ergeben.
Ergänzung ()

Colindo schrieb:
Es kann ja auch gut sein, dass es bei Vega, wie hier mehrfach erwähnt, an den Mitteln mangelte. Und dass Forest Norrod ihn für einen Träumer hielt, der eventuell nicht für die Umsetzung geeignet ist sondern mehr Abstand zum Produkt braucht, ist ja auch bekannt.

Das Gute ist, dass das AMD-Team zurzeit sehr produktiv scheint und ich mich deswegen sehr auf RDNA 3 freue.
Absolut.
Und wie gesagt, sein Einfluss war ja dennoch für RDNA da und RDNA2 baut viel auf RDNA auf (genauso wie RDNA3). Somit kann man ja auch mal was gutes dran sehen. Und RDNA ist nach wie vor mit GCN Verwandt, weil niemand ja "von absolut null auf" oder wie man sagen soll einen neuen Grafikchip konstruieren kann.
(auch nicht die Chinesen innerhalb von 2 Jahren, wie manche das hier glauben wollen).
Das ist ja auch der Grund, warum es bei Intel etwas länger dauert. Man hat iGPU Erfahrungen, aber High-End-Desktop und HTPC ist wieder was anderes.
Auf RDNA3 und 4 bin ich auch gespannt, weil AMD hier eindeutig wieder mehr Resourcen hineinpulvert seit einigen Jahren.
RDNA3 wird massiv mehr Shader und den MCM Ansatz bringen, eventuell auch an der Grundarchitektur was ändern, das weiß man ja noch nicht. RDNA4 wird auch wieder einige Fortschritte bringen... muss man wohl auch: Nvidia und AMD sind derzeit etwa gleich auf (AMD etwas effizienter, Nvidia bei RTRT besser). AMD wird mit dem MCM Ansatz angreifen, Nvidia wird diesmal denselben Prozess verwenden wie AMD (bei der aktuellen RTX 3xxx Serie verwendet man ja einen unterlegenen Prozess, was AMD enorm hilft im Direktvergleich).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
BAR86 schrieb:
im Detail wird das immer schwierig bleiben. Ich fand damals Vega eine massive Enttäuschung und hab "ihm" die Schuld gegeben.
Was auch richtig ist. Er ist Kopf der Abteilung, er trägt die Verantwortung, in gutem, wie in schlechtem.
Dafür steht er mit seinem Gehaltszettel - egal wie viel selbst verschuldet :)
 
bad_sign schrieb:
Was auch richtig ist. Er ist Kopf der Abteilung, er trägt die Verantwortung, in gutem, wie in schlechtem.
Dafür steht er mit seinem Gehaltszettel - egal wie viel selbst verschuldet :)
Ja, aber ich weise halt dann auch bei Navi drauf hin, dass er auch bei den Erfolgen beteiligt war. Oder bei anderen Projekten. Einseitige Betrachtung stört mich halt.

Gleichzeitig wird ein Keller - der eben nicht der Kopf der Abteilung war - hier ständig der Zen Erfolg zugeschrieben, obwohl CHEFarchitekt Clark war und Keller selbst sagt er war eher sowas wie der Großonkel, nicht der Vater von Zen.

Mich stört hier diese versimplifizierung von Freund/Feindbildern, wenn es sich bei Milliardenprojekten eben um komplexe Unterfangen handelt.
Und wenn Koduri der Kopf war, war es eben Su erst recht und die wird hier nur in den Himmel gelobt.
 
Chismon schrieb:
Ich stehe der Entwicklung neutral gegenueber, hoffe auf Mehrwert aus Sicht der Kundschaft
Genau das.

Über den ganzen anderen Rest kann man nur spekulieren. Trotzdem würde ich Mal endlich gerne ein fertiges Produkt in Tests sehen (müsste ja nicht Mal lieferbar sein...).
 
iSight2TheBlind schrieb:
Dagegen habe ich keinen Schimmer wer bei Nvidia die GPUs entwickelt (Google sagt Jonah Alben) und man hört stattdessen vom CEO über die kommenden Produkte.
Ging mir bis gerade auch so. Auch Rick Bergman bei AMD höre ich nicht soviel, wie es zuvor bei Koduri der Fall war, und hatte gar nicht mehr auf dem Schirm, dass er dort den Chefposten für Grafik innehat.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
Nun ja, mir dem Herrn an der Spitze der Entwicklung für GPUs, ist kein Wunder das Intels ARC sich verzögert und Performancetechnisch nicht so wie ursprünglich erhofft ausfällt. Stichwort : AMD RX Vega.
 
Sven Hansen schrieb:
Typisch Deutsche Neid Debatte
Ich bin auf diesen Herrn Koduri alles andere als neidisch. Bei AMD hat er auch viel versprochen und dann ist dabei nur halbgares raus gekommen. Ich schließe mich da der Meinung #13 von @BxBender schon an. Was hinter den Kulissen intern abgeht weis keiner von uns so genau. Sicherlich machen sich seine Dienste irgendwie bezahlt.Ob es sich am Ende für den Endverbraucher lohnt muss jeder für sich selbst entscheiden.
Sven Hansen schrieb:
Denke das Intel auf dem Weg ist, und das Herr Koduri das sicherlich verdient hat, und Ja, Leistung muss entlohnt werden, oder man geht in die Politik oder wird Beamter ;-)

Oder man geht ins Management und lässt sich dort eben für sein zungenfertiges Gerede ordentlich bezahlen

😋

Macht für mich keinen so großen Unterschied. Eine Krähe hackt der anderen kein Auge aus.
 
Zuletzt bearbeitet:
Painkiller72 schrieb:
Ich bin auf diesen Herrn Koduri alles andere als neidisch.
Man kann es auch Missgunst Debatte nennen.
Im topmanagment ist das Eis dünn, wenn Herr Koduri nicht liefern würde, wäre er bestimmt nicht befördert worden.
 
@Sven Hansen Wie gesagt, bestes Beispiel hatte ich in meinem Beitrag paar Seiten vorher erwähnt; Murthy.
Der wurde auch von allen Seiten in den Himmel gelobt und hat aktiv persönlich mitgeholfen, war für das ganze 10nm-Debakel verantwortlich und hat Intel's Technologie-Vorsprung binnen kürzester Zeit vor die Wand gefahren.
TechFA schrieb:
Venkata „Murthy“ Renduchintala ist bei Intel auch für nahezu alle wichtigen Sparten verantwortlich gewesen und hat als wichtigstes Bindeglied zwischen der Chef-Etage und den praxisbezogenen Ingenieuren und Mitarbeitern jahrelang praktisch im Alleingang die Chef-Etage dumm gehalten, hinters Licht geführt, Rückschritte als Fortschritte verkauft, Katastrophen als Marginalien abgetan und währenddessen dickste Millionen-Boni kassiert, sicher aber prominent das komplette Desaster Namens 10nm™ von bis zu (2015-2020) verantworten gehabt. Dafür wurde er dann ja auch gefeuert.

Fakt ist jedenfalls, dass solche Leute sich und ihr Blendwerk teils über Jahre immer wieder derart perfekt verkaufen können (ohne auf größere Hindernisse zu stoßen), daß selbst ein Wechsel eines CEO rigoros ausgenutzt wird um die Verwirrung/Unwissenheit eines neuen Chefs noch ein, zwei Jahre kapital auszunutzen, bis es schlußendlich knallt und der Blender gehen muss (weil dann selbst der neue Chef weiß, wie der Hase läuft).

Wenn man erst einmal sich als angebliche Industrie-Koryphäe profilieren konnte, dann wird man von seiner Umgebung in solchen Milieus fast schon automatisch immer weiter die Treppe hochgetreten. Erst recht, wenn man sich selbst gut verkaufen kann und andere Untergebene vergangener Zeiten um sich schart, die einem nach dem Mund reden (und das konnte Koduri immer schon sehr gut).

Seine Beförderung ist eher ein eindeutiges Zeichen dafür, dass sich an der miefig-versifften ewig-wettbewerbsfeindlichen Corporate-Culture von Intel nicht viel geändert hat, weil er wurde befördert, obwohl er selbst nach Jahren des trommelns und Hypes praktisch nix außer einer Menge heißer Luft abgeliefert hat).

Und das hat mit Neid oder Missgunst rein gar nix zu tun, das sind harte Fakten der Realität. Ernüchterung pur bei AMD und Intel seit Jahren, bei sehr vielen Dingen, für die er verantwortlich zeichnete.

TechFA
 
Zurück
Oben