News A350M und A370M: Intel Arc startet im Notebook, Desktop-GPUs ab Sommer

.Snoopy. schrieb:
Habe ich nirgendwo erwähnt bezüglich Keller, jedoch Fakt ist, dass Michael Clark und Jim Keller (welcher Mitte 2012 zu AMD zurückging) den Grundstein für Zen gelegt haben, wie er 2017 auf den Markt kam. Michael Clark hatte wohl den größeren Einfluss.
Ja. Denn Clark war seit knapp 2 Jahren daran beteiligt und Lead Architekt und Keller kam erst später dazu und eigentlich mit anderen Projekten betreut. Sagt er selbst, aber das Märchen von wegen er hatte großen Einfluss stimmt halt so überhaupt nicht.

.Snoopy. schrieb:
ich habe dich in keine Schublade geschoben.


Er war und ist verantwortlich für die Produkte, die unter seiner Regie entwickelt wurden und werden. Es ist fachlich und technisch sicherlich mehr als kompetent, um zu sehen, ob das Produkt sein Ziel erreicht oder nicht. Und wenn er aufgrund seines Wissens ein falsches Bild zum Produkt abgibt, muss er sich daran halt messen lassen.
Das hängt halt stark von der Firmenkultur ab, ob man jemanden hinstellt und das blaue vom Himmel verspricht.
Letztlich sage ich nur:
Er kam spät zur Party und hatte nicht mehr so viel Einfluss wie ihm viele unterstellen.
Wenn man ihm Einfluss unterstellt, muss man diesen umso mehr bei Navi unterstellen.

Diesen positiven oder negativen Personenkult den manche haben, kann ich also nicht ganz verstehen und habe versucht das ganze aus verschiedenen Blickwinkeln zu betrachten. Wenn jemand also für das schlechte "Schuld" ist, aber intensiv(er) auch an guten Produkten beteiligt war, sollte man das auch betrachten.
Völlig egal ob jemand Koduri, Keller, Su, Gelsinger etc heißt. Ich verstehe halt immer das sinnlose loben oder haten nicht.
Du wirst mich also bei übertriebenen Lob/Hate immer dagegenreden sehen. Würdest du Koduri jetzt zu sehr loben würde ich diverse Schiffbrüche aufzählen, würdest du nur negativ über ihn schreiben, würde ich das positive hervorheben. Ich finde halt, man sollte immer das Ganze betrachten.
Ich finde außerdem, dass man eben immer ein ganzes Team betrachten sollte, nicht nur die einzelnen Leute. Das Budget bzw. die Voraussetzungen usw usf.
GCN selbst etwa wäre vielleicht auch besser ausgefallen, wär ATI während der Entwicklung nicht übernommen und dann sehr schnell ausgehungert worden, weil AMD gerade mitten in eine Krise geschlittert ist.

Und ob man - das betrifft jetzt nicht dich direkt - nun versteht oder glaubt, dass eine GPU deutlich weniger als 5 Jahre in Entwicklung ist, ist nicht meine Sache. Es zeigt nur von Ahnungslosigkeit. Genauso wie es einfach nur schwach argumentiert ist, wenn man dem anderen Fanboyism unterstellt, nur weil man es schafft eine Entwicklung, Person, ein Projekt oder sonstwas aus 2 Perspektiven zu sehen. Schon lustig, dass derselbe einem dann einmal unterstellt ein AMD Fanboy zu sein, dann ein INtel-Fanboy, dann ein Nvidia Fanboy... weil ich diese besondere Eigenschaft habe, die Kinder eigentlich mit 3 Jahren lernen ;)
Ergänzung ()

andi_sco schrieb:
Laut LinkedIn war er von 1996 bis 2000 bei S3, danach kam er zu ATi
also laut manchen hier Zeit genug die Radeon 9700 Pro von Grund auf mitzudesignen :D
Ist natürlich Nonsense (die war schon längst in Entwicklung), aber hey. Manche glauben sicher auch, dass mit dem Design einer neuen GPU erst dann begonnen wird, wenn die vorige abgeschlossen ist. Parallele Forschung und Entwicklung kennt man nicht.
Er war daran zumindest beteiligt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sardok
anappleaday schrieb:
ja einige… ob man damit Aktionäre etc. befriedigen kann? 🤔
Aktionäre sind leider zu ungeduldig. Oder zu gierig. Oder beides.
 
franzerich schrieb:
Inzwischen scheinen erste Informationen zur Performance der Intel A350m durchzusickern... https://videocardz.com/newz/intel-a...sted-slower-than-gtx-1650-up-to-2-2-ghz-clock

Etwas stärker als die MX450 scheint sie zu sein (die MX450 ist zwischen der 1050 und 1050ti angesiedelt). Aber wie es aussieht noch Treiberprobleme, da gewisse Spiele (Far Cry 6, Forza Horizon Benchmark) einfach abstürzen.

Als Ergänzung:

Die dortigen Benchmarks waren anscheinend limitiert durch ein Intel-Energiesparprogramm. Als das ausgeschalten wurde, ist die Performance stark gestiegen: https://videocardz.com/newz/intel-a...games-with-dynamic-tuning-technology-disabled

Es scheint also doch besser zu sein als gedacht... (auch wenn man immer noch Treiberprobleme sieht, wie z.B. bei RDR2, wo die Framerate nach der Explosion deutlich absackt).
 
DTT legt CPU+GPU zusammen beim power budget. Das ist in dem Fall viel zu wenig, anscheinend sind das 35W für CPU+GPU zusammen. Ohne DTT sind es 55W bei dem Gerät.

Die niedrige Auslastung kam vom CPU Flaschenhals, wenn die CPU nur 15W ziehen darf. Die A350M alleine wird ja schon mit 25-35W angegeben.
 
DevPandi schrieb:
Intel hingegen? Sie fahren seit nun gut 10 Jahren ihre grundlegende Struktur was die GPU angeht - wobei ganz fair ist das nicht, Xe² verändert etwas, aber primär die Namen. Die gesamte Struktur von Xe² findet man in der Form bereits zu SandyBridge-Zeiten: 8 Shader pro EU, 8 EU pro SubSlice, macht 128 Shader pro SubSlice oder wie Intel es jetzt nennt Xe-Core. In dem SubSlice enthalten: Thread-Dispatcher, TMU.

Sieht man sich die Blockdiagramme seit SandyBridge an: Es ist immer die gleiche strukturelle Architektur. Sieht man sich von AMD und NVIDIA nun die Blockdiagramme an und ließt sich alles durch, haben die beiden Firmen in der Zeit ihre Architekturen quasi einmal vollkommen umgekrempelt.

AMD und NVIDIA waren und sind immer noch bereit wirklich auch strukturelle Änderungen in ihren Architekturen unterzurbringen und damit auch den nächsten Schritt zu gehen. Intel hat bei Xe als auch Xe² sich nicht an die Struktur getraut, sie haben XMX-Kerne, RayTracing und Co eingebaut, aber die Struktur ist die gleiche.
Wenn man es so grob betrachtet, dann könnte man auch meinen das es keinen strukturellen Unterschied zwischen GCN und RDNA1 gibt.
64 Shader pro CU, Wavefront-Scheduler, 4x TMUs

Das ist natürlich Unsinn, ebenso bei Intel.
Das Unternehmen hat die GPU-Hardware seit Sandy-Bridge mehrmals stark weiterentwickelt und teilweise völlig neu gestaltet.
Man kann sich folgenden Ivy-Bridge Artikeln durchlesen und sehen wie viel Gen7 schon gegenüber Gen6 umgebaut hat:
https://www.realworldtech.com/ivy-bridge-gpu/4/

8x größerer Instruction-Cache, anstatt 5 Threads (Wavefronts/Warp in AMD/NV-Sprech) wurden 8 unterstützt.
Das Register-Design wurde überarbeitet und aus 1x SIMD4 ("4 Shader") + 1x Extended Math wurde 1x SIMD4 + 1x SIMD4/Extended Math (Ohne EM-Instructions theoretisch doppelter FP-Durchsatz).
Gen7.5 (Haswell) hat die Anzahl der Threads von 8 auf 7 reduziert und es gab 10 EUs pro Subslice.
Bei Gen8 (Broadwell) waren es dann meistens wieder 8 EUs pro Subslice.
Dann folgte Gen9 (Skylake) und Gen11 (Ice Lake) und über all die Jahre wurden interne Strukturen verbessert oder neue Features implementiert, von Compute bis Graphics.
Xe LP hat grundlegende Dinge verändert, die für einige Jahre Bestand hatten, wie das EU-Design.
Anstatt 2x SIMD4 wird pro EU eine SIMD8-Einheit verwendet und zwei EUs teilen sich einen Thread-Scheduler.
Ähnlich wie beim Wechseln von Fermi zu Kepler/Maxwell, verwendet Intel kein Hardware Scoreboarding mehr für Register-Abhängigkeiten, sondern der Compiler kümmert sich nun darum (häufig als Software-Scheduling in der Community bezeichnet).
Das Texture-Sampler-Design wurde verändert, das L1$-Design und seit Gen11 gibt es eine dedizierte Speicherstruktur für Shared Local Memory Operations, während das bei Gen9 und früher langsamer über den L3$ ablief.
Also Intel hat grundlegend die Struktur und das Scheduling von den feinsten Recheneinheiten verändert und völlig neue Strukturen und Features eingebaut, wie ROVs (schon ab Haswell), Async Compute (Xe LP), Tiled-Based-Rasterizer (Gen11), unterschiedliche Sachen für DX12 wie VRS und vieles mehr in dem Bezug.
Auch die interne Skalierung der Einheiten ist anders aufgebaut, als einfache Kategorisierungen wie Sublsice es vielleicht darstellen würden.
Xe² bzw. Alchemist ändert noch einmal an mehreren grundlegenden Sachen etwas:
https://pbs.twimg.com/media/FQG2dk7XMAMZ3PU?format=png&name=large

Doppelt so großer I-Cache, 8 Threads werden wieder unterstützt, optional ein neuer 4-Thread-Mode, um mehr Register pro Thread zuzuweißen, FP- und INT-Operationen können ähnlich wie bei Turing nur parallel ablaufen, solange keine EM-Instruktions vorkommen.
Neben der Tatsache das Intel intern viel verändern musste, damit die Pixel- und Geometrie-Pipeline auf 8 Slices skaliert und alle Strukturen ausbalanciert ausfallen, was die Bandbreite und Buffergröße angeht.
Auch die physische Implementierung sollte stellenweise massiv von dem abweichen, was vor Jahren der Standard war.

DevPandi schrieb:
Ach ja, und dafür hast du auch belege, dass es von Design bis zu Release aber MINDESTENS 5 Jahre dauert?

Hier ist eine Firma, die es scheinbar in etwas weniger als 2 Jahren geschafft hat!

Ach, die GCN-Architektur war 2013 nicht konkurrenzfähig? Also GCN konnte mit Kepler doch relativ gut mithalten.


Und du kannst es belegen, dass er bei Navi von Grundauf dabei war? Ich habe den entsprechenden Artikel bereits verlinkt, in dem eben auch genau darauf eingegangen wurde, das Navi und damit RDNA eben nicht aus seiner Abteilung kam sonder aus der Semi-Costum.

Und wenn man bedenkt, das Vega immer noch GCN ist, dann hat Vega eher keine 5 Jahre gedauert sondern eher weniger und 2 - 3 Jahre sind realistischer.

Wie ich geschrieben habe: Hier gibt es zu viele Gerüchte, zu viele Insider die irgendwelche Aussagen treffen. Und wenn selbst jemand der Pro Raja und Pro Intel behauptet, das Vega so schlecht idt, weil man ihm seine Leute weggenommen hat und die in der Semi-Custom an Navi werkelten. …

Man sollte hier nicht Sachen als Fakt hinstellen von denen man nichts weiß und die man nicht belegen kann.
Ein AMD-Mitarbeiter hat in einem Interview angegeben das sie 5 Jahre an Vega (GCN5) saßen, leider finde ich die Quelle nicht mehr.
Völlig überraschend ist das aber nicht, brachte GCN5 ein paar grundlegende Sachen mit, die viel Vorlaufzeit gebraucht haben.
Neue SoC15 Infrastruktur bzw. Infinity Fabric integriert.
Die 3D-Pipeline hat sehr viele Veränderungen erhalten, Merged-HW-Shader-Stages, Tiled-Based-Rasterizer, ROPs an den L2$ angeschlossen, daneben wurden nötige Features für DX12 FL12_1 inkludiert.
AMD hätte sicherlich mehr erreicht, wären die Ressourcen zu dieser Zeit nicht sehr klein gewesen, der Hauptteil wurde vermutlich in Zen investiert, zumindest in den letzten Jahren hat auch Lisa Su selber gesagt, dass das größte Budget an Zen geht.

Raja Koduri war der Chef der ganzen RTG-Abteilung, der hat alles gesehen, wusste genau von Navi und den Zielfestlegungen dafür.
Es war sicherlich nicht so das er nur an Vega saß und zugeschaut hat wie ein Haufen völlig unabhängiger Entwickler an Navi werkeln und einen signifikanten Anteil an Ressourcen bekommen haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BernmanHH, BAR86 und Zer0Strat
  • Gefällt mir
Reaktionen: Zer0Strat
Zurück
Oben