News AMD RTG: AMD-Grafik-Chef Raja Koduri baut für Intel High-End-GPUs

Ein Kommen und Gehen in der Chefetage bei AMD.
Ich wusste aber auch nie so recht, was ich vom ihm halten sollte. Man weis ja eh nicht, was diese Leute hinter den Kulissen tatsächlich leisten, aber was den Auftritt vor der Presse anbelangt, machte Koduri zumindest keinen so professionellen Eindruck wie es bspw. Lisa Su tut.
 
Fiji war als "HBM Machbarkeitsstudie" eigentlich ganz ok und wenn bei meiner die Kühlpumpe nicht Probleme machen würde hätte ich sie auch noch weiter im Rechner. Nur Vega enttäuscht halt im vergleich dazu. Das ist ja quasi nur ein hochgetakteter Fiji+ und dafür kommt er reichlich spät. Von den 2 Shrinks die er eigentlich hinter sich hat merkt man irgendwie kaum was.
 
Chismon schrieb:
Laut WccfTech Exklusivartikel ist Koduri's Weggang zu Intel so gut wie in trockenen Tüchern, nicht unbedingt eine gute Nachricht für AMD/RTG (falls Intel Ambitionen hat, mittelfristig im GPU Bereich mehr und mehr gegen nVidia anzutreten; AMD/RTG könnte dann mehr und mehr von der Bildfläche im GPU-Bereich verschwinden), aber wir werden sehen müssen, wie sich das ganze entwickelt.

Intel bastelt schon seit längerem an einem AI/Compute chip mit HBM2. Raja Koduri hat das nötige Wissen, um ein solches Projekt umzusetzen. Dass Intel später auch im High-Performance Grafikbereich mitspielen wird, bezweifle ich, da die relevanten Patente alle bei Nvidia und AMD liegen, und so für viele Implementierungsmöglichkeiten ein langsamerer und größerer (Chipfläche) Umweg gefunden werden muss.
 
Galatian schrieb:
... endlich alle aufhören diesen Schund wwccftech auch noch so eine Bühne zu bereiten? Das ist absolutes Bild Niveau und den ihre Quellen sind auch nur „habe um Fünf Ecken gehört.“ Sich dann auch noch zu beschweren, dass CB nvidiabase sei, weil sie wccftech nicht zitieren, zeigt doch wie krass ihr AMD Fanboys seid.

Naja, "den ihre Quellen" schreiben und dann über Bild-Niveau bei WccfTech klagen ;)?

Es zwingt Dich doch keiner WccfTech Artikel zu lesen und Deine Zensurträume sowie das grundlose übliche "Fanboy dieser und jener" Getrolle hättest Du Dir ebenso sparen können, denn das disqualifiziert Deinen Kommentar nur noch mehr.

Jeder der WccfTech kennt, nimmt deren Nachrichten/Gerüchte sowieso nicht 100% ernst, aber immerhin bieten diese einen Anhaltspunkt (eine bessere/glaubwürdigere Quelle habe ich von Dir jedenfalls bisher nicht gelesen) und ja, es haben sich auch schon einige als wahr heraus gestellt ... abwarten und Tee trinken, auch wenn's schwer fallen sollte ;).
 
Zuletzt bearbeitet:
Chismon schrieb:
[...] falls Intel Ambitionen hat, mittelfristig im GPU Bereich mehr und mehr gegen nVidia anzutreten [...]

Hängt wohl davon ab, was genau, oder besser: welchen Anwendungsfall genau, man unter "GPU Bereich" versteht. Wenn's um Deep Learning etc. geht, also die rechenintensiven Anwendungen, dann bin ich mir ziemlich sicher, dass Intel da lieber heute als morgen NV Marktanteile abnehmen möchte.

Wenn's allerdings um Desktop-Grafikkarten geht, oder auch hier besser: Gaming-Grafikkarten, für den reinen Desktop/Büro-Rechner reichen die IGPs ja, dann sehe ich das nicht unbedingt. Es gab ja schonmal einen Anlauf von Intel, dedizierte Grakas zu bringen. Und soweit ich mich erinnere, waren die leistungsmäßig auch nur im Mittelfeld und treiberseitig auch alles andere als überzeugend. Der Ausflug hatte dann auch entsprechend schnell wieder ein Ende.

Allerdings wäre Intel wohl dennoch der einzige "neue" Player da draußen, der die Ressourcen und genügend Basis Know-How hat, um hier ggf. eine Neuentwicklung zu stemmen und ernsthaft anzugreifen (oder zumindest einer der ganz wenigen, mir würde spontan kein anderer einfallen).
 
Kasmopaya schrieb:
Hört sich so an als ob einige hier bei einem Auto den V12 rauß reißen würden und einfach einen 4 Zylinder rein klatschen würden ohne irgend was am Rest des Autos zu verändern. Jetzt sagt ihr mir was für einen Denkfehler ihr gemacht habt. :rolleyes:

Amerikanischer 12 Zylinder mit lachhafter Literleistung gegen hochgezüchteten Vier Zylinder mit Turbo eintauschen. Immer her damit. :evillol:
 
kiffmet schrieb:
Intel bastelt schon seit längerem an einem AI/Compute chip mit HBM2 ... Koduri hat das nötige Wissen, um ein solches Projekt umzusetzen ... Intel später auch im High-Performance Grafikbereich mitspielen wird, bezweifle ich, da die relevanten Patente alle bei Nvidia und AMD liegen, und so für viele Implementierungsmöglichkeiten ein langsamerer und größerer (Chipfläche) Umweg gefunden werden muss.

Stimmt, nur könnte sich Intel bspw. auch locker Matrox einverleiben und die haben auch jede Menge der nötigen Patente ;).

Momentan gehe ich davon aus, dass Koduri deren Stellung durch sein GPU Wissen im AI- und Server-Markt vielleicht stärken soll und AMD und nVidia den Consumer-Markt abseits der iGPUs überlassen wird.

Von heute auf morgen würde sowas selbst bei Intel nicht gehen, aber die Möglichkeit hält man sich evt. offen und kann flexibel mit mehreren Angriffspunkten auf die Marktentwicklung reagieren, aktuell sieht es nach einem gelungenen/lohnenden Streich seitens Intel aus.
 
das herumgereite auf der effizienz, wenn hier vega im absoluten worst case gebencht wird, ist kaum mehr auszuhalten - das wird jetzt seit release in jedem thread rauf und runtergebetet.

das referenz design, obwohl der kühler für eine referenzkarte sehr gut ist, reicht einfach vorne und hinten nicht - an allen ecken und kanten wird vega eingebremst. core clock wird nicht gehalten, hbm2 takt ist zu niedrig, thermisches throtteln des HBM speichers, wenn die temperaturen passen, hängt die karte dank overvolt im powerlimit. vega braucht dringend aufmerksamkeit vom user, aber das wird der karte im normalen benchmark nicht zugestanden, hier gibts nur out of the box - und das geht für vega kaum suboptimaler.

der standardmodus ist so dermaßen schlecht gewählt, dass die karte "wenig" leistung bei viel verbrauch und hitze bringt, weil man den takt gegen die konkurrenz braucht, das ref design das aber nicht mitmacht.
der stromsparmodus ist so gesehen bei etwas weniger leistung deutlich besser, und hier passt auch die effizienz, bestätigt sogar CB. raja hat selbst gesagt, dass bei den reviews die vielfalt an energieprofilen von vega garnicht angesprochen wird - und das stimmt auch: coretakt am sweetspot, gut eingestellte vcore und das ding ist zahm wie ein kätzchen - alle regler auf anschlag und vega säuft 600W netzteile leer - nur dann muss auch die restliche peripherie stimmen (vorallem kühler), damit vega nicht an einem anderen bottleneck erstickt.

und dann kommt noch erschwerend hinzu, dass gpu leistung einfach auch softwaresache ist. nvidia beherrscht den markt und so ziehen auf nvidia optimierte spiele in der summe vega nach unten. amd hat kaum mehr präsenz im gaming segment und für die entwickler lohnt es sich kaum auf amd zu optimieren und auf der anderen seite hat amd kaum mittel um das so konsequent zu verfolgen wie nvidia. wir wissen, dass es auch neutrale spiele gibt, in denen vega gut performt, und es gibt spiele, in denen vega selbst als referenz exzellent performt. und dann gibts anno 0815 mit vega auf 1050ti niveau.

das vega gebashe von wegen desaster und weltuntergang, schlechteste karte usw. ist imho absolut lächerlich. im im CB schnitt reden wir von 30% vorsprung von einer 1080 ti FE zur stock vega 64 - preis 750€ vs 500€ - PL technisch ist vega 64 hier sogar wesentlich besser (PL gleichstand wäre 650€ für 1080ti).

und die preisdiskussionen sind auch sehr müßig, weil die preise für alles extrem gestiegen sind, außer für cps bezahlt man praktisch nirgends mehr "normale" preise. ob vega56 für 400 oder 480€ lieferbar ist, interessiert bei RX580 für deutlich über 300€ auch nur begrenzt.

vega ist nunmal das beste, was amd zustande gebracht hat (was bei genauem hinsehen hinter die balken und diagramme auch nicht so schlecht ist, im falle von vega 56 sogar gut!), und mit dem müssen wir uns jetzt arrangieren oder wir begrüßen direkt das nvidia monopol, das nvidia ohnehin so gut wie in der tasche hat - laut steam hält nvidia hier 80%, intel 10% und amd 10%. außer amd gibts hier keine konkurrenz - und da ist ein verriss in der presse, wie er immer wieder passiert, auch bei fury - speziell auf CB - nicht wirklich hilfreich, nur um die nvidia gamer crowd bei laune zu halten. eine pro intel/nvidia presse ist wirklich das letzte, was der markt gebrauchen kann.
 
Zuletzt bearbeitet:
Ich wollte eigentlich selbst was schreiben, aber da alles bereits gesagt wurde lasse ich es mal.

@duskstalker
Deinen Ausführungen stimme ich voll und ganz zu!
 
@duststalker
Stimme dir zu!

Ich finde Benchmark sollten mit einer Vega LC gemacht werden die Referenz Air verzehrt das ganze Bild.
Und natürlich muss AMD mal einen Finalen Treiber hinlegen so das alle Features Aktiv sind, dann wäre Wolfestein 2 auch ein richtiges vorzeige Spiel geworden.
 
Veddem schrieb:
... wäre Intel wohl dennoch der einzige "neue" Player da draußen, der die Ressourcen und genügend Basis Know-How hat, um hier ggf. eine Neuentwicklung zu stemmen und ernsthaft anzugreifen (oder zumindest einer der ganz wenigen, mir würde spontan kein anderer einfallen).

So sehe ich das aktuell auch, denn so gut sich AMD auch im CPU Bereich entwickelt hat dieses Jahr, so schwach sieht's aktuell im GPU Bereich aus (wofür es natürlich mehrere Gründe gibt).
 
@Chismon: Naja sorry, aber ich spreche hier eigentlich nur ein paar Leute an die ziemlich direkt sich eine Argumentationskette gebaut haben, dass das was auch WCCFTECH steht wahr ist und weil CB das nicht hier erwähnt, ersten CB NVidiabase ist und zweitens es natürlich sonnenklar ist, dass der gute Mann aus sehr strategischen Gründen zu Intel wechselt. WCCFTECH berichtet halt ziemlich reißerich Sachen die entweder klar sind oder die halt super schön Hype machen. Und es sollte zu jeder guten Diskussion gehören kritisch seine Quellen zu hinterfragen. WCCFTECH gehört halt nicht dazu und ich wünschte es würden da einige hier den Ball etwas flach halten, wenn sie die CB Autoren und andere User angehen, weil sie nicht dem Glauben schenken was auf WCCFTECH geschrieben wird.
 
Kasmopaya schrieb:
Hoffentlich können sie gleich bei Navi schon wieder auf GDDR6 gehen und weg von HBM, denn der ist Hauptschuldig warum seit 2 Generationen fast gar nix geht bei AMD. Das hätte der Chef vorher wissen müssen, darum wurde er gefeuert. Bei NV wusste man das von Anfang an.
Diese Aussagen (WTF Tech oder auch CB) sind ja mehr oder weniger Spekulationen, was man überall liest. Was hälst du von der Theorie, das Navi de facto Fertig ist und Raja deswegen geht?
Wir erlebten das gleiche ja bei Keller und sind wir mal ehrlich, Raja hat bei Apple gute Arbeit geleistet, entweder hat AMD (Su) ihm nicht die nötigen Mittel für die Entwicklung bereitgestellt oder aber er hat schlichtweg die Navi GCN fertig. Das Vega Thema (meines Wissens nach hat AMD 90% der Mittel in Ryzen gebündelt), könnte sogar schon gegessen gewesen sein, bevor die RTG das Ding der Öffentlichkeit gezeigt hat.
Ich wünsche mir aber persönlich wünschen, dass Su endlich das Marketing austauscht.
 
Leli196 schrieb:
Ich wollte eigentlich selbst was schreiben, aber da alles bereits gesagt wurde lasse ich es mal.

Jetzt hast du doch was geschrieben. ¯\_(ツ)_/¯

@dusktalker
Im Groben ganzen gebe ich dir recht, aber die Probleme sind nunmal da, Entschuldigungen bzw. Verständnis zaubern die auch nicht weg.

Und ganz so stimmt es auch nicht:
- Dass die Karte im Standardmodus vom Stapel läuft und nicht im ausbalancierteren Stromsparmodus, ist AMDs schuld. Hätten sie auch anders machen können, wollten sie halt nicht. Da braucht man auch nicht mit den Fingern auf die Tester zeigen. Manche - cb bspw. - haben
ja auch die anderen Modi getestet und ansonsten ist die Karte so zu testen, wie sie auch verkauft wird.

- Dass Nvidia Vorteile dadurch hat, dass sie den Markt beherrschen und die Spiele so eher auf ihre Karten optimiert werden, ist sicherlich richtig. Es gibt aber auch noch die AMD-Vorzeigetitel wie bspw. unser neues Wolfenstein, das nur mit Vulkan läuft. Allen Nvidia Karten davonlaufen tun die Vegas auch hier nicht. Dort schaffen sie in der ersten Testsequenz ungefähr das, was die User vor Marktstart und Vorstellung erwartet haben und im Wort-Case sind sie sogar noch schlechter als im Durchschnitt - im absolutem Vorzeigetitel

- Bei deiner Meinung zur Preisdiskussion gehe ich überhaupt nicht konform: Es ist etwas völlig anderes, wenn die Preise über die Zeit durch schlechte Verfügbarkeit gestiegen sind als wenn die Preise direkt zum Marktsart bis heute die UVP um 100€ überschreiten, was AMD wohl wusste. Die einzigen schlechten Ausreden sind "Radeon Packs" und ein paar Angebote, die binnen weniger Studen bereits wieder vergriffen sind. Das kann man so nicht bringen. Mir erschließt sich überhaupt nicht, inwiefern das zu entschuldigen wäre.
Und anstatt dass es dann wenigstens ordentliche Custom Karten gibt, für die man die 100€ mehr ja vllt. noch zahlen würde, kommt lange Zeit gar nichts mehr und die Situation ändert sich kein Stück.
Alles in allem finde ich ist es gerechtfertigt, von einem Desaster zu sprechen.
Du hast recht: Betrachtet man das aus der Perspektive von AMD, sieht es sicherlich noch etwas anders aus. Aber ich bin nunmal kein AMD-Mitarbeiter sondern potenzieller Vega-Kunde gewesen, wie so viele andere derer, die von einem "Desaster" sprechen auch. Und für uns sieht es mit Vega eben schon sehr schlecht aus.


btw: mMn muss man Koduri jetzt auch nicht gleich für das Scheitern von Vega veramtwortlich machen, falls das hier jemand getan hat. Wie es hinter den Kulissen aussah, weis keiner von uns. Ich kenne auch nur das Gerücht, dass AMD Mitarbeiter von aus der RTG für Ryzen abgezogen hat und auch das kann ich als Außernstehender nicht wissen. Es zählt die Firma als ganzes.
 
Zuletzt bearbeitet:
Nunja @ Beitrag:
AMDs Ansatz für Spiele ist ja auch eher Opensource, und bei NV isses anders rum.. Man sehe sich bei Gameworks die Tess Anforderungen an, das ist eigentlich lachhaft.
Ich denke auch nicht das Vega auf Kodouris Kappe gewachsen ist, Vega ist nunmal eine Fiji Inkarnation..
 
@duskstalker

naja mit Vega hätten Sie die bessere Shaderauslastung von Polaris mitnehmen sollen dann würden Sie auch mit der Vega im Sweepspot Arbeiten. Daher sehe ich es schon fatal an das man die Architektur so gewählt hat.
 
Galatian schrieb:
WCCFTECH berichtet halt ziemlich reißerich Sachen die entweder klar sind oder die halt super schön Hype machen. Und es sollte zu jeder guten Diskussion gehören kritisch seine Quellen zu hinterfragen. WCCFTECH gehört halt nicht dazu und ich wünschte es würden da einige hier den Ball etwas flach halten, wenn sie die CB Autoren und andere User angehen, weil sie nicht dem Glauben schenken was auf WCCFTECH geschrieben wird.

Keine Frage, WccfTech (WT(F)) is ganz klar auf Sensations-Journalismus gebürstet, aber ab und zu finden sie dort auch die Nadel im Heuhaufen und haben manchmal als erste neue Trends (teilweise) richtig beleuchtet oder 'mal eine glaubhafte Quelle am Start.

VideoCardz (VCZ) ist aber auch nicht viel besser und VCZ hat auch schon arg daneben gelegen und vielleicht liegt es eben auch in der "Natur gewisser Hardware/-IT-Seiten" sich mit Mutmaßungen weiter aus dem Fenster zu lehnen als andere, seriösere (zu denen ich im deutschsprachigen Bereich Tom's Hardware und Computer Base bspw. zähle) in der Hoffnung auf mehr Leser.

Ich weiss jetzt nicht wer hier WT gelobhudelt hat (bin erst später in die Threaddiskussion eingestiegen), ich habe nur kurz auf deren Artikel verwiesen (mit subtiler Andeutung, dass er sich erst noch als wahr heraus stellen muss) und die nVidiaBase Titulierungen überlese ich oftmals schon (ebenso wie die CB Redaktion), zumal in diesem Artikel auch überhaupt nichts gebencht wurde und somit die Titulierung fehl am Platze ist, da sie bezogen auf den Artikel nicht untermauert werden kann.

Das heißt per se aber auch nicht, dass es nicht etwa im gerne recycelten Grafikkarten-Rangliste-Thread dafür keinen Anlass zur Kritik an den undurchsichtlichen und teilweise klar falsch oder verfälschend präsentierten Benchmark-Daten gibt und man sich den Vorwurf einer "nVidiaBase" schon eher gefallen lassen müsste.

Nun, ich denke Wolfgang und Co. wissen auch, dass die gebenchten Spiele bzw. die Zusammensetzung des Spieletestparcours und die sich mit der Zeit seltsam (meist zugunsten von nVidia GPUs) verändernden Benchmarks alles andere als akkurat, konsumentenfreundlich und neutral ausgelegt sind.

Allerdings stellt sich löblicher Weise die CB Redaktion meist auch Vorwürfen und Verbesserungsvorschlägen ... daraus jetzt ein "nVidiaBase" abzuleiten (?) ... ich denke die Leute die alles einseitig sehen und entschuldigen sollten auch 'mal Ihre Sichtweise hinterfragen, bevor sie mit solchen Titulierungen wiederholt um sich schmeißen, zumal sie dadurch aus nicht unbedingt glaubwürdiger werden in Threads ohne direkt anliegender Thematik.

Dass man hier ständig über die gleichen Argumente (von den gleichen Personen) stolpert, damit muss man sich einfach abfinden oder eben davon absehen deren Beträge zu lesen (oder diese gar zu ignorieren), zumindest tut man sich (ab einem bestimmten Punkt) oft selber meist damit den größten Gefallen ;) ...
Ergänzung ()

Beitrag schrieb:
@duskstalker
Im Groben ganzen gebe ich dir recht, aber die Probleme sind nunmal da, Entschuldigungen bzw. Verständnis zaubern die auch nicht weg ... aber ich bin nunmal kein AMD-Mitarbeiter sondern potenzieller Vega-Kunde gewesen, wie so viele andere derer, die von einem "Desaster" sprechen auch. Und für uns sieht es mit Vega eben schon sehr schlecht aus.

Guter Beitrag, so (mehr differenziert) sehe ich das auch und schließe mich Deinem Einwurf an; vieles von dem Trauerspiel, welches AMD mit RX Vega bisher vorgeführt hat, ist leider selbstgemacht und -verschuldet und nicht auf dem Mist der Konkurrenz oder der Berichterstattung gewachsen.

Zur Gruppe der ehemaligen RX Vega(56) Interessenten habe ich mich trotz des vor dem Marktstarts schon schlechten Marketings und der ewigen Verzögerung/Warterei auch noch gezählt.

Irgendwann ist aber (nach dem vermasselten Marktstart mit Ihren Radeon Packs, der Preispolitik, den halbfertigen Treibern/Features, usw.) dann auch ein Punkt erreicht, an dem man das nicht mehr rechtfertigen kann sowie der letzte Kredit aufgebraucht worden ist und zum Marktstart von Volta in 2018 (Ende der Karenzzeit für RX Vega) wird bei mir knallhart Bilanz (bzgl. Preis-Leistung) gezogen werden und verglichen (evt. auch ein Kauf direkt entschieden, wenn nicht zeitnah ein vielversprechender RX Vega Refresh auf den Markt kommen sollte).

Was Koduri angeht, hat dieser sicherlich nicht alles alleine bzgl. RX Vega zu verantworten, denn angeblich soll erst Navi komplett unter seiner Regie entwickelt worden sein, aber es gibt sicherlich Gründe für den Weggang von Koduri, der manchmal für meinen Geschmack etwas zu locker, unseriös und wenig überzeugend herüber gekommen ist in seinen Präsentationen und Interviews.

Die Idee, dass man Koduri "Keller-gleich" gehen lässt, weil Navi schon im Prinzip vollständig umrissen ist und es nur noch Details zur Fertigstellung braucht für die ein Koduri nicht notwendig ist, halte ich für interessant.

Wegen des Weggangs von Koduri die Navi-GPU-Generation von AMD/RTG gleich abzuschreiben würde ich in jedem Fall auch nicht, denn die Richtung kann schon stimmen und vielleicht findet AMD/RTG (auch ohne Koduri) ja Mittel und Wege mit den Navi GPUs die RX Vega innewohnende (Roh-)Leistung auf die Straße zu bringen, zu wünschen wäre es Ihnen allemal.
 
Zuletzt bearbeitet:
Man muss ein schlechtes Produkt nicht gutheißen wollen. Die Energie-Effizienz ist miserabel schlecht bei Vega. Da gibt es auch nichts zu diskutieren. AMD hätte diesen Chip für den Bereich auf den Markt bringen sollen, wofür er gedacht ist - Data Center, DeepLearning, AI, etc. Aber der Privatkunde bekommt eine Karte, die Ballast mit sich führt und er keinen Nutzen daraus ziehen kann. Serviert mit einem Energiehunger, der völlig indiskutabel ist in der Leistungsklasse. Das Teil müsste ohne Ausnahme durch die Bank schneller rendern als eine GTX 1080 Ti. Und das tut sie nicht einmal in einem Vorzeigetitel mit Vulkan-API.

Man kann nur hoffen das Navi wieder neue Maßstäbe setzt - im positiven Sinne.
 
Artikel-Update: Der in der Regel gut informierte Journalist Ryan Shrout will die heute hoch gekochten Gerüchte, Koduri verlasse AMD Richtung Intel, bestätigen können. Das hat der Chefredakteur der US-amerikanischen Seite PC Perspective über Twitter bekannt gegeben. Eine Bestätigung durch Koduri oder eines der beteiligten Unternehmen steht noch aus.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
 
Zurück
Oben