News Intel degradiert Raja Koduri: Grafikkartensparte wird unter neuer Leitung umstrukturiert

Chismon schrieb:
Was hier bisher nicht erwaehnt wurde, aber definitiv auch ein Grund fuer die Umbesetzung von Koduri gewesen sein duerfte, ist sein gesundheitlich angeschlagener Zustand:



So gesehen treffen hier die vorschnellen Urteile zu Koduri einiger Besserwisser vermutlich nur bedingt zu ;).
Verstehe sowieso nicht, warum hier manche völlig ohne Grund anfangen zu haten und nicht Fakten von Gefühlen trennen können
Ergänzung ()

Zotac2012 schrieb:
Naja, Raja Koduri hat schon bei AMD nichts wirklich hinbekommen, seit dieser dort weg ist sind die AMD Grafikkarten deutlich näher an Nvidia, was die Leistung betrifft.
Genau sowas meine ich: wie kann man so einen Unsinn nur schreiben.
Unter Koduri war ATI überhaupt mal konkurrenzfähig zu Nvidia.
Als Koduri zu AMD kam, war Vega längst in Planung und Entwicklung. Glaubst du er hätte das groß herumreißen können? Nein.
Eines der Projekte wo er von Anfang an dabei war, war Navi. Und genau Navi findest du also nun toll.
Da merkt man mal, dass du entweder dich nicht gut auskennst bei solchen Entwicklungen oder einfach nur schlecht über eine Person reden möchtest, die du nicht kennst. Seltsam

Zotac2012 schrieb:
Das man bei AMD in Sachen RT noch etwas hinterhinkt wundert einen nicht, da Nvidia eine Generation schneller am Markt war und so einen kleinen Vorteil hat, der aber wohl nicht mehr lange anhalten wird.
Und was ist dann die Begründung, dass Intel, die NOCH später kamen, schneller sind als AMD? Da, wo der von dir geschasste Koduri arbeitet btw.
AMD zeigt eben gerade jetzt, dass kaum noch was weitergeht.

Zotac2012 schrieb:
Als ich hörte, das Raja Koduri bei Intel für den neuen Bereich der dezidierten Grafikkarten Sparte zuständig ist, dachte ich mir schon, das kann nichts werden.
und doch ist es überraschend mehr geworden, als man annehmen konnte (außer man ist ein Träumer und glaubt Intel kann im ersten Versuch das, was AMD und Nvidia seit 20 Jahren machen). Also hattest du unrecht?
Zotac2012 schrieb:
Und so kam es wie es kommen musste, die neuen Intel Grafikkarten kamen zu spät und sind einfach nicht Leistungsstark genug.
Es war schon vor 5 Jahren klar, dass man ganz oben nicht mitmischen kann.
Und sie sind wohl leistungsfähig genug für die meisten, der Preis könnte halt noch runter.

Zotac2012 schrieb:
Ich will es mal so ausdrücken, Raja Koduri ist jetzt nicht die hellste Kerze auf der Grafikkarten Torte bei Intel, das wird man dort auch langsam erkannt haben.
Angesichts der oben genannten Tatsachen, solltes du so eine beleidigende Pauschalaussage vielleicht nochmal überdenken. Sie sagt jedenfalls mehr über dich und wie du denkst, als über Koduri
Ergänzung ()

Onkel Föhn schrieb:
Ist aber halt auch eine selektive Wahrnehmung von Dir.
Die Vega´s waren ihren Gegenspielern (56 vs. 1070, 64 vs. 1080, VII vs. 1080Ti) mehr als ebenbürtig und dabei noch günstiger (FPS/€). Zu spät und durstig, ja das waren sie ...

p.s. Dein Link (aus der Signatur) ist voll KNORKE :daumen:

MfG Föhn.
Ob Vega ein gutes Konsumerprodukt ist, entschied letztlich der Preis.
Gestaltet war Vega 64 als Gegenspieler zur Titan/Ti. Die hat man nicht erreicht, also hat man den Preis auf das Niveau gesenkt, wo auch die Performance war - und dann war sie plötzlich eben eine Karte mit gutem Preis/Leistung.

Dass Intel im ersten Versuch nicht alles hinbekommt ist den meisten klar. Manche sind ein bisschen langsamer.

Dass selbst RDNA3 diverse Problemchen hat wird wieder nicht kritisiert oder bemerkt...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, Tanzmusikus, Apocalypse und 2 andere
Intel hatte vor 5 Jahren keine dGPU und miserable iGPUs.

Jetzt hat man gute bis sehr gute iGPUs und eine dGPU die im Mainstream solide Ergebnisse liefert.

Es ist nicht alles schlecht was passiert ist..
 
  • Gefällt mir
Reaktionen: shy-Denise, Onkel Föhn, Tanzmusikus und eine weitere Person
andi_sco schrieb:
Weil intel schon ewig und drei Tage GPU Treiber entwickelt
DIe übrigens bis auf den Gamingbereich sehr gut sind. Ohne SChmarrn wir haben in der Arbeit mit den Intel Treibern weniger Probleme als mit Nvidia und AMD.
Dass sie im Spielebereich wenig bis gar nichts taten in den letzten 12 Jahren kann man im Internet immer wieder mal nachlesen.
John Carmack sprach davon, dass es bei Intel lediglich 2 Menschen gibt, die Open GL Gamingtreiber entwickeln.
Ergänzung ()

BrollyLSSJ schrieb:
Mit Wendung meinte ich auch die Konzentration auf die Problemgebiete. Ja, war doof ausgedrückt mit Wendung. Mir schwebte da in der Tat der Treiber im Kopf, dass die den angehen.
Ah versteh dich, alles gut! Danke für die Klarstellung :)
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Apocalypse und BrollyLSSJ
Apocalypse schrieb:
Merkwürdig, ausgerechnet die, die die Grafiktreiber zu verantworten hat … naja, muss ich nicht verstehen, wird Intel sich schon irgendwas bei denken.

Andreas10000 schrieb:
Kenne mich zu wenig aus.
Liest sich aber so als wäre hier die Situation eingetreten, dass Personen die extrem gute arbeit in ihrer Position so lange befördert wurden bis sie an einer Position waren die nicht mehr ihren Stärken7Schwächen entspricht.

Intern können die Fehler etc. aber auch ganz woanders gelegen haben.

Viper816 schrieb:
Als Entwickler findet der Gute sich sicher besser zurecht. Als Stratege war das bisherige Resultat jedenfalls massive Verspätungen und kaum kaufbare Produkte, da falsch vor geplant.

Was mir beim Lesen der News noch auffällt: Alle genannten anderen Chefs sind Frauen (ausser Gelsinger). Die Könnens vielleicht doch besser, auch wenn das Auge für technische Details evtl. nicht so da sein mag. Lisa bei AMD hat den Karren ja auch rumgerissen. Und Lederjacke bei nvidia fällt momentan nur noch durch überzogene Gier auf, aber die Entwicklung steuert der auch recht gut.
"Auch wenn das Auge für "das Technische" nicht so da sein mag"?

Sandra Rivera, die Leiterin der ganzen Sparte jetzt wo die Beschleuniger hinwandern (Datacenter/AI), hat nur einen Bachelor, war Marketing-Managerin bei Intel und hat zuletzt HR geleitet.

Lisa Pearce genauso (Die Leiterin jetzt, wo die restlichen GPU Kapazitäten (consumer, ...) hinwandern). Nur einen Bachelor, danach direkt Graphics Software Engineering Director und nie etwas anderes gemacht außer verwalten.

Natürlich kennt man deren Performance innerhalb von Intel nicht, aber insbesondere im Vergleich zu einer Größe wie Koduri, der tatsächlich die Technologie versteht und entwickelt, kann definitiv niemand behaupten, die wären wegen ihrer Fachkompetenz in der Führungsposition.
Ergänzung ()

Zotac2012 schrieb:
Ich will es mal so ausdrücken, Raja Koduri ist jetzt nicht die hellste Kerze auf der Grafikkarten Torte bei Intel, das wird man dort auch langsam erkannt haben.
Und das soll jetzt wie mit der neuen Besetzung besser werden? Koduri war wenigstens vom Fach - die neue Besetzung nicht im Geringsten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Viper816
pipip schrieb:
Wer munkelt das, dass Infinity Fabric seine Idee war. Es gibt ein CPU Architekten bei AMD der scheinbar das Management auf Chiplet Design überzeugen konnte und fabric bus selbst scheint eine Weiterentwicklung von Hypertransport. Desweiteren wurde IF nach Erfolg von Zen2 dann zu RTG übertragen. Somit ist die Frage ernst gemeint, wo kann man das nachlesen, dass das von ihm kam? So hätten wir ja IF zuerst bei GPUs sehen müssen. Kam aber erst mit CDNA2 glaub ich.
IF kam schon mit Vega..
https://overclock3d.net/news/gpu_di...ega_utilises_their_new_infinity_fabric_tech/1
https://www.techpowerup.com/236697/on-amds-raja-koduri-rx-vega-tweetstorm
man könnte fast Sagen, Vega ist der Urvater der Chiplet GPU, auch wenn das etwas zu kurz gegriffen ist.
Und Zeitlich passt es ja, denn VEGA war ja auch am Ende sein Kind und er hat die Entwicklung des HBM CPU "Chiplet" vorrangetrieben.


ETI1120 schrieb:
Es ist doch allgemein hin bekannt, dass CDNA auf Vega basiert. Vega war keine reinrassige Gaming-GPU. Vega wurde auch im Hinblick auf GPGPU entworfen, quasi als Türöffner.
Ja ich war mir nicht mehr sicher, deswegen die Vermutung.. Danke für die Aufklärung
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn, Tanzmusikus, yummycandy und eine weitere Person
Also ich habe mich im November wegen anstehenden Neukaufs stark mit Grafikkarten beschäftigt, ebenso mit Preisen, Lieferbarkeit etc.

Mir ist damals aufgefallen, die ARC Karten von Intel kann man praktisch bei kaum einen Händler kaufen, bei den meisten sind die nicht einmal gelistet. Wobei die Intel-Karten bei einigen Spielen wie z.B. WoW erstaunlich gut abschneiden, insbesondere was das P/L-Verhältnis anging.
 
@juwa
P/L Technisch sind halt 3060/12er und die 6900XT derzeit ganz vorne..
Sonst sieht das echt mau aus..
man kann sagen: RDNA2 und Ampere sind die besseren Massen GPUs derzeit.. Deswegen auch der massive Marketshare von Nvidia.
Und ja die ARC Karten sind irgendwie wie Bigfoot...
 
  • Gefällt mir
Reaktionen: C4rp3di3m
andi_sco schrieb:
Ich kenne es durch Siemens, wie alte Strukturen an einem Nachmittag, durch eine Person 15k € in den Sand gesetzt haben. Einfach durch Desinteresse und alten Krempel weiter durchziehen.
Da hat intel noch einen langen Weg vor sich, der nVidia als kleines Start Up wesentlich einfacher fiel.
Denn irgendwie hatte man schon mit dem Projekt Auburn eine Dauerschleife erzeugt (@kryzs)
Ich bin da auch irgendwie zwiegespalten, denn wenn man sich die Geschichte so anschaut um Grafikchips aus dem Hause intel, sollte man meinen intel hätte genug Zeit gehabt um zum einen die Treiber richtig zu entwickeln und auf der anderen Seite einen Chip zu konstruieren der mehr ein „WOW-Effekt“ erzeugt. Wenn man sich die Ergebnisse bei the Witcher ansieht, ist es doch eigentlich gar nicht so schlecht und so könnte man meinen intel ist auf einem guten Weg. Im Endeffekt wird es genau das sein was du schon angesprochen hast, alte Strukturen, die sich nur schwer ändern lassen. Auch beim i740 darf man nicht vergessen das er abgeschwächt gebaut wurde, weil man den Markt unterschätzt hat, man kann nur hoffen intel macht nicht die gleichen Fehler wieder, aber man ist ja schon mal bestrebt weiter zu machen „Battlemage“ wird die nächste Version und die Ausgliederung scheint ja ein richtiger Schritt zu sein, ich bin gespannt wie sich das alles entwickelt.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und andi_sco
kiffmet schrieb:
@TZUI1111 Desktop Vega war wirklich nicht so fein, aber die Implementierung in den APUs (insbes. in 7nm) war top.
Vega (56) war die beste GPU die ich je besaß. Durch UV/OC war soviel rauszukitzeln wie bei keiner anderen. Zu Release war sie laut und im besten Fall so schnell wie eine 1070. Ein Jahr später stellte sie in ziemlich jedem Game eine 1080 in Schatten. Eine Banane wie ich sie heute gerne nochmal hätte.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
BAR86 schrieb:
ok. Gut, dass du so gut Bescheid weißt und nur die Produkte siehst die nicht erfolgreich waren.
Und verdrängst sicher auch völlig WARUM Vega kein Erfolg war oder ? (etwa weil Su ihm alle Ressourcen weggestrichen hat während der Entwicklung, zu der er übrigens erst spät dazugestoßen ist).
Raja Koduri war in einer sehr schweren Zeit bei AMD. Die Bedingungen waren hart, AMD nahe dem Konkurs, stark begrenzte Entwicklungsbudgets und das Führungsteam hat den Fokus auf die CPU-Entwicklung gelegt. Was ihm nachhinein gesehen die richtige Entscheidung war.
BAR86 schrieb:
Navi und Navi 2 fand ich ganz gut. "Nichts gebacken" ist mal einfach falsch.
Seine Beteiligung an anderen Produkten war wohl auch nicht zu unterschätzen.
In dieser Phase sind auch die Entscheidungen getroffen worden die letztendlich den Zuschlag für Frontier und El Capitan ermöglichten.
BAR86 schrieb:
was genau ist eigentlich eingetreten? Er ist auf demselben Sitz wie vor April. Er wurde halt zwischendrin befördert. Viele haben hier hämisch behauptet, er wurde "wegbefördert" damit er nichts mehr mit seiner alten Rolle zu tun hat. Jetzt setzt man ihn wieder genau dort hin, offenbar hat er ja gute Arbeit geleistet?
Das ist der Punkt. Er ist nach wie vor für die Entwicklung der GPUs verantwortlich.
BAR86 schrieb:
Naja RDNA und RDNA 2 - 2 seiner Projekte sind ganz gut geworden, jetzt mehrere Jahre nach seinem Abgang ist RDNA3 wieder schwächer
Provokant, so kann man es auch sehen. RDNA 3 zeigt dass AMD auch ohne Raja Koduri ein Release verkacken kann.
BAR86 schrieb:
der Chip selbst ist ganz ok geworden für ein Erstlingswerk. Wer kann das schon besser gegen 2 Teams die seit 20 Jahren nichts anderes machen.
Das eigentlich Problem ist, dass sich Nvidia nicht auf den Lorbeeren ausruht sondern unermüdlich an der Performanceschraube dreht.
BAR86 schrieb:
Eigentlich müsste Intel ja nur weitermachen, eine Wendung braucht es gar nicht.
Intels 2 Kernprobleme: der Chip ist gut, aber zu dick, der Treiber ist es noch nicht.
Es gibt doch keine Anzeichen dafür dass Intel nicht weitermacht.
Wie gesagt ich halte es einen Fehler, dass Intel überhaupt die AXG geformt hat. Das kann man machen wenn sich die Produkte etabliert haben und anständig Umsätze generieren.
BAR86 schrieb:
Verstehe sowieso nicht, warum hier manche völlig ohne Grund anfangen zu haten und nicht Fakten von Gefühlen trennen können
Er bekommt die Enttäuschung der AMD-Fanboys über Vega und die Häme der Nvidia-Fanboys über Vega ab. Da zählen keine Fakten.
BAR86 schrieb:
Genau sowas meine ich: wie kann man so einen Unsinn nur schreiben.
Unter Koduri war ATI überhaupt mal konkurrenzfähig zu Nvidia.
Als Koduri zu AMD kam, war Vega längst in Planung und Entwicklung. Glaubst du er hätte das groß herumreißen können? Nein.
Er kam 2013 zu AMD zurück, er hatte genug Zeit um auf die Entwicklung von Vega Einfluss zu nehmen.
Aber er hatte auch nur begrenzte Resourcen und musste zwei Ziele angehen Gaming und GPGPU.

Dass Vega keine schlechte Architektur ist zeigt sich bei den APUs. Nvidia war auch beim Chipdesign weit vor AMD.
BAR86 schrieb:
Eines der Projekte wo er von Anfang an dabei war, war Navi. Und genau Navi findest du also nun toll.
Da gibt es auch das Märchen, dass Navi hinter dem Rücken von Raja Koduri entwickelt worden sei. Als wäre so etwas möglich. Als Vega herauskam hatte das GPU-Architekturteam ihre Arbeit bei Navi schon abgeschlossen. Das Tapeout war gegen Jahresende 2017. D. h. Navi war schon längst beim Chipdesign.

Wenn das GPU-Architekturteam kein Sabbatical genommen hat, haben sie schon an Navi 2 gearbeitet.
BAR86 schrieb:
Es war schon vor 5 Jahren klar, dass man ganz oben nicht mitmischen kann.
Und sie sind wohl leistungsfähig genug für die meisten, der Preis könnte halt noch runter.
Aber hier sind wir beim Punkt an dem man Raja Koduri wirklich Vorwürfe machen muss.

Er hat den Hypetrain bei Vega selbst mit angeschoben.
Er hat nichts getan, um die Erwartungen an die erste Generation auf einem realistischen Niveau zu halten.
BAR86 schrieb:
Ob Vega ein gutes Konsumerprodukt ist, entschied letztlich der Preis
Die Grafikkarten mit Vega waren für AMD keine gute Sache. Der Aufwand und die Kosten waren angesichts der Preise zu denen AMD Vega 64 und 56 verkaufen mussten zu hoch.

BAR86 schrieb:
Gestaltet war Vega 64 als Gegenspieler zur Titan/Ti. Die hat man nicht erreicht, also hat man den Preis auf das Niveau gesenkt, wo auch die Performance war - und dann war sie plötzlich eben eine Karte mit gutem Preis/Leistung.
Und einer schlechten Marge.
ascer schrieb:
"Auch wenn das Auge für "das Technische" nicht so da sein mag"?
Es war wahrscheinlich einer der Fehler bei Intel, dass die Vorgänger von Pat Gelsinger nicht aus der Technik gekommen sind. Ein Techniker hätte wahrscheinlich keine so lange Geduld mit den Prozessleuten bei Intel gehabt und früher eingegriffen.

Meiner Meinung nach ist das ideale Führungsgespann für Technologieunternehmen
  • ein CEO mit tiefem Verständnis für die Kerntechnologien des Unternehmens und Führungsqualitäten
  • ein starker CFO der das Bewußtsein aufrechterhält, dass die Mittel begrenzt sind und effizent eingesetzt werden müssen.
ascer schrieb:
Sandra Rivera, die Leiterin der ganzen Sparte jetzt wo die Beschleuniger hinwandern (Datacenter/AI), hat nur einen Bachelor, war Marketing-Managerin bei Intel und hat zuletzt HR geleitet.

Lisa Pearce genauso (Die Leiterin jetzt, wo die restlichen GPU Kapazitäten (consumer, ...) hinwandern). Nur einen Bachelor, danach direkt Graphics Software Engineering Director und nie etwas anderes gemacht außer verwalten.
Abschlüsse interessieren bei Leuten mit Berufserfahrung niemanden. Es zählt was sie bisher geleistet haben. Leider zu wenig was sie tatsächlich können.
Edit:
Abschlüsse sagen nichts darüber aus, ob eine Person eine Führungsrolle wirklich meistern kann.
Das Peter Prinzip, dass eine Person so lange befördert wird, bis sie scheitert, beruht letztendlich darauf, dass Personen nach Leistung befördert werden und weniger, ob sie für den neuen Posten qualifiziert sind.

ascer schrieb:
Natürlich kennt man deren Performance innerhalb von Intel nicht, aber insbesondere im Vergleich zu einer Größe wie Koduri, der tatsächlich die Technologie versteht und entwickelt, kann definitiv niemand behaupten, die wären wegen ihrer Fachkompetenz in der Führungsposition.
Bei sind lange bei Intel also haben sie intern etwas vorzuweisen. Sie müssen ihre Sparten leiten und keine GPU-Entwicklung beaufsichtigen.

Deshalb ist Raja Koduri der Chief Architect. Er ist für die Entwicklung der GPU-Architekturen verantwortlich. Ich denke er wird in dieser Rolle an Pat Gelsinger berichten.
ascer schrieb:
Und das soll jetzt wie mit der neuen Besetzung besser werden? Koduri war wenigstens vom Fach - die neue Besetzung nicht im Geringsten.
Raja Koduri kann sich jetzt wieder Vollzeit seiner Rolle als Chief Architect widmen. Das ist ein Vollzeitjob.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BrollyLSSJ, konkretor und BAR86
BTW gibt es die Intel Arc A770 Limited Edition 16GB jetzt langsam für ein schmalen Taler, gerade bei NBB für 379€.

Intel Arc A770 Limited Edition

mfg
 
  • Gefällt mir
Reaktionen: Onkel Föhn, konkretor und BAR86
Musste gut lachen, als ich den Thread überflogen habe. Die AMD-Leute hier fühlen sich sogar durch den Arbeitgeberwechsel eines Engineers so sehr angegriffen, dass sie seine Fähigkeiten in Frage stellen, ohne je auch nur ein Wort mit ihm gewechselt zu haben. Geht mal an die frische Luft...
 
ETI1120 schrieb:
Dass Vega keine schlechte Architektur ist zeigt sich bei den APUs. Nvidia war auch beim Chipdesign weit vor AMD.
NVIDIA war nicht wirklich weit vor AMD beim Chipdesign, das Problem an Vega war/und ist bis Heute, dass es die GCN-Probeme geerbt hat die aber damals bei kleineren Chips und auch bei den kleineren Vegas keine Rolle spielten, weil sie nicht aufgetreten sind.

GCN, als es raus kam, war bereits viel Zukunftsmusik und Vega litt unter den gleichen Problemen wie davor Fiji: Viel zu viele Task, die nötig waren, damit die GPU ihre Rechenleistung auf die Straße bringen kann.

Fiji hatte schon 64 CU und Vega genauso. Pro CU - für die optimale Auslastung - sind 4 Wave64-Fronten (also 4 Tasks oder Threads) notwendig gewesen und das hat schon bei Fiji dazu geführt, dass diese Architektur bei 4096 Shader kaum schneller war als die GTX 980 mit 2048 Shadern.

Und das zwischen Fiji und Vega sich fast nichts an der CU getan hat, sieht man z.B. sehr gut an dem Test von Computerbase zwischen den Generationen. Die Leistungssteigerung zwischen Vega64 und Fiji lässt sich fast vollständig auf den Takt schieben, der um 33 % 50 % anstieg, was im Mittel in ca. 40 - 50 % mehr Performance resultiert.

Der primäre Vorteil von Vega war, dass neue Formate - FP16 - in die CU gewandert sind, die dann mit Rapid Packed Math durchaus noch etwas bringen konnte, aber die Kernänderungen, die mit Vega hätten kommen sollen, sind nie gekommen und ware auch nie wirklich Einsatz bereit.

Andere Änderungen an Vega, sind eher au den Treiber zurück zu führen und dass man von einem klassischen Render au ein Tiled-Based umgestellt hat, was aber im ganzen auch damals mehr Zukunftsmusik war und quasi erst mit Navi/RDNA dann wirklich relevant.
ETI1120 schrieb:
Er kam 2013 zu AMD zurück, er hatte genug Zeit um auf die Entwicklung von Vega Einfluss zu nehmen.
Da wir nicht die genauen Entwicklungszeiträume von den einzelnen GCN-Iterationen kennen und auch nicht von RDNA, kann man an der Stelle immer nur Mutmaßunge äußern.

Bei den kleineren Iterationen kann man von 2 - 3 Jahren ausgehen, die eine Entwicklung dauert, bei Mittleren Umbaurabeiten auch mal von 4 Jahren und bei einem wirklich Rework auch mal von 5 Jahren und mehr.

Fiji ist vermutlich die Architektur, auf die er am wenigste Einluss hat nehmen können, da die zu dem Zeitpunkt schon auf dem Weg gebracht war und quasi in der Halbzeit steckte, danach folgt Polaris, dann Navi2x und Navi1x, wärend er auf Vega zeitlich gesehen den meisten Einfluss hatte.

Nimmt man mal pauschal 4 Jahre an:
Fiji: 2012, 2013, 2014, 2015
Polaris: 2013, 2014, 2015, 2016
Vega: 2014, 2015, 2016, 2017
Navi: 2016, 2017, 2018, 2019
Navi2: 2017, 2018, 2019, 2020

Es ist bei sowas echt schwer, weil man nie genau weiß, wie lange die Projekte wirklich in Entwicklung waren, wann die ersten Konzepte dafür erstellt wurden oder ob es erst mal nur Codenamen waren, die noch gefüllt werden müssen. Es ist nichts ungewöhnliches, dass man Codenamen auch auf Jahre im Voraus bereits vergibt, aber die eigentlich Konzeption und dann Entwicklung später anfangen.

Die Umbauarbeiten zwischen GCN 1.0 - GCN1.5 sind aber teilweise sehr marginal, dann auch mal etwas größere. Es ist daher echt schwer zuschätzen, wie lange da wirklich die Entwicklungszeiten sind.

Ich denke, man sollte mit Mutmaßungen was, die Architekturen angeht, eher sich bedeckt halten, statt ständig zusagen, wir wissen zu wenig dazu und können nur schätzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus
47cmArmumfang schrieb:
Musste gut lachen, als ich den Thread überflogen habe. Die AMD-Leute hier fühlen sich sogar durch den Arbeitgeberwechsel eines Engineers so sehr angegriffen, dass sie seine Fähigkeiten in Frage stellen, ohne je auch nur ein Wort mit ihm gewechselt zu haben. Geht mal an die frische Luft...
So einfach ist es nicht. Ich denke nicht nur AMD Fanboys lästern hier über Raja Koduri ab.

2017 im Vorfeld des Releases wurden die üblichen übertriebenen Erwartungen geschürt. Auch von Raja Koduri. Er wurde hier im Forum von vielen quasi als das Genie angepriesen das Nvidia im Alleingang schlägt.

Vega war letztendlich eine herbe Enttäuschung, da die GPU die Erwartungen nicht erfüllen konnte und zudem für weniger Performance mehr Verbrauch hatte. Der erhoffte Wundertreiber kam nicht und Raja Koduri nahm eine Auszeit.

Da begann die Geschichte zu kippen. Als er dann zu Intel ging war die Mehrzahl der Kommentare über ihn schon negativ.

Navi war ein unerwarteter Erfolg. Es gab keine großen GPUs, aber die 5700XT war mit den RTX2700 auf Augenhöhe.

Und nun machte sich folgende Sichtweise breit: Raja Koduri ist alleine an Vega schuld, hat aber keinen Anteil an Navi.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, BrollyLSSJ, yummycandy und 3 andere
Andreas10000 schrieb:
Kenne mich zu wenig aus.
Liest sich aber so als wäre hier die Situation eingetreten, dass Personen die extrem gute arbeit in ihrer Position so lange befördert wurden bis sie an einer Position waren die nicht mehr ihren Stärken7Schwächen entspricht.
Für mich klingt das eher danach:

Für ein Projekt wozu sonst keiner fähig scheint wird jemand eingestellt, und sobald er die grössten Hürden umschifft hat wird er durch "Lieblinge des Chefs" ersetzt .
Die können dann damit glänzen wenn die Sache richtig in Fahrt kommt.
 
  • Gefällt mir
Reaktionen: franzerich
BAR86 schrieb:
DIe übrigens bis auf den Gamingbereich sehr gut sind. Ohne SChmarrn wir haben in der Arbeit mit den Intel Treibern weniger Probleme als mit Nvidia und AMD.
Ja, Intel Treiber sind schon ewig bekannt dafür einfach sehr gut zu funktionieren, nur "Performance hacks" hat man halt so fast gar keine im Treiber.
 
  • Gefällt mir
Reaktionen: franzerich
Wie beim Fußball. Der "Trainer" muss gehen...
 
ETI1120 schrieb:
Er kam 2013 zu AMD zurück, er hatte genug Zeit um auf die Entwicklung von Vega Einfluss zu nehmen.
Aber er hatte auch nur begrenzte Resourcen und musste zwei Ziele angehen Gaming und GPGPU.
Ich finde deinen gesamten Beitrag super übrigens. Hier möchte ich aber 2 Dinge ergänzen:
GPU Design. Vom High-Level bis zur Markteinführung dauert mindestens ca 5 Jahre.
Die letzten 2 Jahre passiert übrigens nur noch sehr wenig an der Architektur selbst.

Koduri kam Anfang/Mitte 2013. Hat sicher einige Einarbeitungszeit benötigt.
Problem 1: Da war Vega schon 2 Jahre unterwegs bevor er mal "richtig" was tun konnte
Problem 2: Das heißt auch, in seinen Grundbausteinen war Vega schon festgelegt, nach 1.5 - 2 Jahren ändert man das High Level Design meist nicht mehr groß.
Problem 3: GCN. Daran war man gekettet.
Problem 4: AMD hatte kein Geld und Su hat immer wieder Leute von Vega abgezogen und in Zen investiert. Das ist gut dokumentiert.
Problem 5: HBM. Vega war 2016 bereits fertig und für die Massenproduktion bereit. Verschiedene HBM Bauhöhen der beiden Hersteller haben verhindert, dass der Marktstart früher kam.
...
Und wenn man sich das alles ansieht und dann mit dem Finger auf Koduri zeigt verstehe ich das nicht. Das waren einfach viele Faktoren.

Gleichzeitig begann ca 2013/14 die grundlegende Arbeit an "Navi" mit der Zielsetzung Navi für die Konsolen 2020 schon fertig zu haben. Und wir wissen in Konsolen werden meist Architekturen eingesetzt die vorher schon 1 Jahr erprobt sind (weshalb von spätestens 2014 auszugehen ist, da bei leicht überarbeiteten Architekturen 5 Jahre eingeplant werden, bei größeren umbauten wohl mehr). Koduri war an Navi also von Anfang an beteiligt und diese Architektur wird nicht so verschmäht. Hat er also vielleicht doch was drauf? Wir werden es bei Intel hoffentlich in den nächsten 3 Jahren noch sehen.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, BrollyLSSJ und pipip
DevPandi schrieb:
NVIDIA war nicht wirklich weit vor AMD beim Chipdesign, das Problem an Vega war/und ist bis Heute, dass es die GCN-Probeme geerbt hat die aber damals bei kleineren Chips und auch bei den kleineren Vegas keine Rolle spielten, weil sie nicht aufgetreten sind.
Das Vega die theoretische Performance nicht auf die Straße gebracht hat ist definitiv ein Problem von GCN.

Aber Nvidia hat auch deutlich höhere Taktraten erreicht. Bei einem deutlich niedrigeren Verbrauch.

Es gibt einige Interviews in denen Sam Naffziger erklärt, dass AMD massiv am Chipdesign gearbeitet hat. Dafür sind Designer die zuvor das CPU-Design umgesetzt haben zum GPU-Design gewechselt.
DevPandi schrieb:
GCN, als es raus kam, war bereits viel Zukunftsmusik und Vega litt unter den gleichen Problemen wie davor Fiji: Viel zu viele Task, die nötig waren, damit die GPU ihre Rechenleistung auf die Straße bringen kann.
Das mit der Zukunftsmusik war schon immer Wunschdenken und Schönfärberei.
RDNA hat gezeigt dass GCN für Gaming GPUs eine Sackgasse war. Navi 10 erreicht mit 17 % weniger Transistoren eine um 20 % höhere Performance.

Vega war für AMD ein sehr teurer Spaß: großer Chip, teurer Speicher und kam gerade so bei Release in die Nähe der GTX1080
DevPandi schrieb:
Der primäre Vorteil von Vega war, dass neue Formate - FP16 - in die CU gewandert sind, die dann mit Rapid Packed Math durchaus noch etwas bringen konnte, aber die Kernänderungen, die mit Vega hätten kommen sollen, sind nie gekommen und ware auch nie wirklich Einsatz bereit.
Ich habe noch im Ohr wie über FP16 und Games geredet wurde.

Letztendlich ist FP16 einer der Datentypen, die für AI wichtig sind. Aber gerade bei der Leistung von FP16 deklassiert Pascal GCN. Und diesen Rückstand bei den für AI wichtigen Datentypen konnte AMD auch mit CDNA und CDNA 2 nicht egalisieren.

Ich habe übrigens Mal 10 ... 20 Minuten in den Vortrag von Raja Koduri auf dem FAD 2017 reingehört. Da hat Raja Koduri über AI geredet und was AMD unternehmen wird hier Fuss zu fassen

DevPandi schrieb:
Nimmt man mal pauschal 4 Jahre an:
Fiji: 2012, 2013, 2014, 2015
Polaris: 2013, 2014, 2015, 2016
Vega: 2014, 2015, 2016, 2017
Navi: 2016, 2017, 2018, 2019
Navi2: 2017, 2018, 2019, 2020

Es ist bei sowas echt schwer, weil man nie genau weiß, wie lange die Projekte wirklich in Entwicklung waren, wann die ersten Konzepte dafür erstellt wurden oder ob es erst mal nur Codenamen waren, die noch gefüllt werden müssen. Es ist nichts ungewöhnliches, dass man Codenamen auch auf Jahre im Voraus bereits vergibt, aber die eigentlich Konzeption und dann Entwicklung später anfangen.
Auf dem FAD 2017 hat AMD gesagt, dass das Tapeout von Navi gegen Jahresende geplant ist. D. h. zu diesem Zeitpunkt war die Architektur von Navi bereits abgeschlossen und das Architekturteam hat schon am Nachfolgeprojekt gearbeitet. Ich gehe davon aus, dass es spätestens gegen Ende 2016 der Fall war.

Der Umstand, dass Raja Koduri von seinem ehemaligen Team eine RDNA-2-GPU als Dankeschön bekommen hat, bedeutet IMO, dass er dieses Projekt noch auf den Weg gebracht hat.

Als Leiter der GPU-Entwicklung hat er auch die Organisation geprägt. Also Entswcheidungen getroffen die in die Zukunft gewirkt haben.
Ergänzung ()

BAR86 schrieb:
Und wenn man sich das alles ansieht und dann mit dem Finger auf Koduri zeigt verstehe ich das nicht. Das waren einfach viele Faktoren.
Raja Koduri war für Vega verantwortlich. Und deshalb ist es letztendlich in Ordnung ihm Vega vorzuwerfen.
Aber wenn man das tut, dann muss man auch Raja Koduri auch einen Anteil am Erfolg von Navi und Navi 2 zugestehen. So wie es sein ehemaliges Team auch getan hat.

Grundsätzlich muss man sich von der Illusion lösen, dass Leute wie Raja Koduri alleine eine GPU entwerfen oder die Architektur festlegen. Wie viele GPUs befinden sich bei Intel zur Zeit in der Pipeline? Alle fallen in seine Verantwortung, aber er kann nicht selbst an den einzelnen GPUs arbeiten.

Dies kann man sehr schön den Interviews von Ian Cutress mit Jim Keller und Mike Clark entnehmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, Onkel Föhn, Tanzmusikus und 2 andere
ETI1120 schrieb:
und das Architekturteam hat schon am Nachfolgeprojekt gearbeitet
Wäre das nicht eher RDNA3 oder 4
 
Zurück
Oben