News AMD Radeon Instinct MI100: CDNA soll am 16. November mit Arcturus-GPU debütieren

Teralios schrieb:
wäre es doch schön gewesen, wenn du meinen ganzen Beitrag gelesen hättest.

Habe ich auch. Was ich mit meinem Verlinken auf einen anderen Kommentar ausdrücken wollte ist: das wird nicht nur nichts mit Navi + ROCm dieses Jahr, sondern es ist nicht mal geplant. So lese ich den Kommentar zumindest.
 
Novasun schrieb:
Nein, die Entscheidung ist nach dem "Flop" Vega gefallen. Weil man da endlich die richtigen Leute in der GPU Sparte an die richtigen Stellen gesetzt hat [bzw. Koduri vor die Türe]

Also ich lese immer wieder, dass Koduri für die Vega-Entwicklung verantwortlich gezeichnet hat. Soweit ich weiß, ist er aber erst bei AMD angeheuert worden, als Vega schon in der Entwicklung war. Was meiner Meinung nach bedeutet, dass er im Grund gar nicht so viel mitreden konnte.

Ich kenn den Typen nicht, außer aus solchen News, aber ich vermute eher, dass er mehr bei Navi mitgeredet hat, als bei Vega.

Freue mich über Bestätigungen oder auch Widerlegungen meiner Ansicht :)
 
dr. lele schrieb:
…, sondern es ist nicht mal geplant. So lese ich den Kommentar zumindest.
Dann muss ich erneut sagen: Lies mal bitte zwei Kommentare weiter von demselben Entwickler oder die Kommentare eines Hauptentwicklers vom letzten Jahr, der sogar erläutert, warum man Navi noch nicht supportet, aber eben auch daran arbeitet.

Die Links habe ich eingefügt. Und genau so kann man sich ja den Quelltext und die Kommentare auf GitHub ansehen und sieht auch dort, dass man durchaus am Support für Navi arbeitet und dass die »Unterstützung« auch immer besser wird.

Wie ich geschrieben habe, ich denke einfach, dass es noch nicht stabil genug ist, dass man es offiziell supporten möchte, was auch verständlich ist.

Dass es aber »garnicht geplant« ist, kann man so nicht herauslesen, sondern ist eine Interpretation deinerseits, die man aber mit gewissen Kommentaren der Entwickler zumindest stark entkräften kann.
Ergänzung ()

DaBo87 schrieb:
Es gibt da einige »Gerüchte«, ich zitiere sie deswegen auch nicht, weil es zu verworren ist.

Man findet zum Teil aber eben Aussagen - auch von ihm anscheinend, aber auch nur »über Dritte«, dass sein Team an Vega gearbeitet hat, man aber für Zen als auch Navi Ingenieure aus seinem Team abgezogen hat.

Das spricht dafür, dass Vega seine »Entwicklung« war, während Navi von einem anderen Teamleader betreut wurde. Da er aber »Chief Architect« der GPU-Sparte war, kann es wiederum durchaus sein, dass er an Navi »mehr« Anteil hatte, als viele - auch ich - vermuten.

Man kann das alles nicht wirklich verifizieren, weil alles nur Hörensagen ist, und zwar Aussagen ihm zugeschrieben werden, aber ob sie wirklich von ihm stammen.

Beachtet man jedoch, dass Koduri Mitte 2013 zu AMD zurückkam, dann ist zwar »Fiji« als auch zum Teil »Polaris« in seiner Verantwortung, aber deren Entwicklung war damals bereits im vollen Gang. Vega wiederum kommt spät genug, dass er hier wirklich bereits vollumfänglich involviert war.

RDNA wiederum als »Ganzes« ist zu »Jung«, als dass er hier viel Einfluss hatte, gleichzeitig sind die Änderungen aber auch so umfassend, dass er durchaus zumindest Weichen gestellt hat.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: DaBo87
danyundsahne schrieb:
Von daher bin ich gespannt auf den 16.9.!
November ist nicht der 9. MontagMonat des Jahres ...

Nutzt eigentlich hier im Forum überhaupt jemand solche GPUs bei der Arbeit oder so? Wird ja immer als Enthusiasten Forum bezeichnet, aber wer nutzt überhaupt die fetten GPUs? Wer macht hpc hier?

EDIT: ich war dumm und hab ein Fehler (Montag vs Monat) gemacht, danke an denjenigen, der mich bei meiner Korrektur korrigiert hat
 
Zuletzt bearbeitet:
Novasun schrieb:
Nein, die Entscheidung ist nach dem "Flop" Vega gefallen. Weil man da endlich die richtigen Leute in der GPU Sparte an die richtigen Stellen gesetzt hat [bzw. Koduri vor die Türe]
Benji18 schrieb:
Stimme dir absolut zu, gott sei dank haben Sie diesen "Poser" endlich vor die Türe gesetzt
Alter Schwede! Dieser "Poser" war von 2001 bis 2009 maßgeblich für die Grafikhardware bei ATi zuständig - auch nach der AMD-Übernahme. Zwar fällt da das Debakel der Radeon 2000er rein, aber eben auch sehr gute Karten wie die Radeon 9000er-Serie, die X1800/X1900, die HD 4000 und HD 5000-Serie. Danach war dieser "Poser" für Apple in der Grafiksparte tätig und verhalf uns zu den Retina-Display, bevor er 2013 wieder zu AMD ging.

Tzk schrieb:
Ich vermute das AMD diesen Schritt wegen Entwicklungskapazitäten oder aus Budgetgrümdem gegangen war.
Selbstverständlich war das der Fall. AMD war weder von den Resourcen noch vom Budget her in der Lage, eine Gaming- und gesonderte Computelösung zu liefern. Es musste ein Chip beides bedienen, und zu dem Zeitpunkt lag AMDs Fokus eher auf den Pro-Bereich denn auf Gaming. GCN war von den Genen her nicht gut für Gaming geeignet. Als Koduri kam, hatte AMD auch nix anderes als GCN. Wer weiß, wie Vega ohne Koduri geworden wäre. Ich glaube eher, dass er alles aus GCN geholt hat, was ging. Auch Polaris fällt in seine Verantwortung und die 400/500er haben ja im Vergleich zu seinen Vorgängern schon einen ordentlichen Fortschritt gebracht, dass darf man nicht vergessen.
Und er ist eben nicht nur für Vega verantwortlich gewesen, sondern auch für Navi, welcher bei seinen Weggang quasi fertig war. Für BigNavi hat er zumindest den Grundstein gelegt.

Er war 2013 vielleicht der falsche Mann am falschen Ort in der falschen Firma mit falschen Startvorraussetzungen. Ihn nur wegen Vega als "Poser" und Loser darzustellen, ist voll daneben.
 
  • Gefällt mir
Reaktionen: smalM
rg88 schrieb:
aber durch den riesigen Cache dort

Ja, die 128 MB "Cache" bei RDNA2 sind wirklich ungewöhnlich. Dafür ist es ja aber auch eine "Gamer" Karte für Daddler.

Für etwas tiefgründigere Fakten werden wir wohl noch eine Weile warten müssen. Bei einer Karte mit HBM und extrem schnellem RAM-Interface wird ein "Cache", der angeblich nur Zugriffe auf den RAM beschleunigt, wohl nicht nötigt sein.

Der Cache verbraucht halt wirklich extrem viel Platz.

mfg
 
Novasun schrieb:
https://de.m.wikipedia.org/wiki/Nvidia_Tesla

Tesla war nur ein Marketing Name. An sich die selbe Architektur wie die normalen Gamer GPUs.. AMD hat nun zwei getrennte Architekturen.
Diesen Schritt muss NV erst noch gehen so weit ich weiß.

Jaein
Auch bei NVIDIA gibt/gab es getrennte Architekturen.
Maxwell war z.B. größtenteils Gaming und Volta nur Compute.
Mittlerweile gibt es defakto 2 Architekturen unter dem Namen Ampere. Zwischen A100 und A102 gibt es einige massive Unterschiede, auch wenn es wohl nicht so weit geht, wie mit CDNA und RDNA.
 
  • Gefällt mir
Reaktionen: Tzk
Novasun schrieb:
Tesla war nur ein Marketing Name. An sich die selbe Architektur wie die normalen Gamer GPUs..
Mir war so, das seit Pascal die ganz großen GPUs nur für Quadro und Tesla zum Einsatz kommen. Konkret meine ich den GP100, GV100 und GA100 Chip. Alle drei haben im Gegensatz zu den kleineren Chips HBM2 und zu Volta gab es afaik kein Äquivalent bei den Consumerkarten. Ja, die basieren irgendwie auch auf den Consumerchips, aber bei Arcturus vermute ich auch eine GCN Abstammung oder zumindest eine lose Verwandtschaft zu RDNA. Natürlich mit anderen Schwerpunkten wie z.B. DoublePrecision Performance, aber nunja.
 
janer77 schrieb:
ja, aber die werden ja kein Bild nehmen, dass grundsätzlich nicht passt, denke ich.
Es ist halt ein Bild der noch aktuellen Radeon Instinct^^ HBM ist aber so oder so ziemlich sicher.
 
Balikon schrieb:
Alter Schwede! Dieser "Poser" war von 2001 bis 2009 maßgeblich für die Grafikhardware bei ATi zuständig - auch nach der AMD-Übernahme. Zwar fällt da das Debakel der Radeon 2000er rein, aber eben auch sehr gute Karten wie die Radeon 9000er-Serie, die X1800/X1900, die HD 4000 und HD 5000-Serie. Danach war dieser "Poser" für Apple in der Grafiksparte tätig und verhalf uns zu den Retina-Display, bevor er 2013 wieder zu AMD ging.
So nicht ganz richtig.

Koduri war bei ATI Leitder der Abteilung zur Entwicklung »erweiterter« Technologien und hatte dort ein Forschungsteam unter sich. Er hat damals mit seinem Team einzelne Technologien entwickelt, die dann mit in die GPUs-Designs mit aufgenommen wurden.

CTO bei Ati war vorher Bob Drebin und ebenso war er CTO bei AMD für die Grafiksparte bis 2009 und ist auch der Hauptverantwortliche für Radeon bis einschließlich der HD 5000. Mit dem Kauf von ATi durch AMD wurde »befördert« zum zweiten Chef der Grafikabteilung.

Wer nun für die HD2x00 verantwortlich war - die ja an sich nicht mal schlecht war - oder den Karren dann aus dem Dreck gezogen hat, kann man so also nicht sagen.

Kodduri und Bob Drebin sind dann 2009 zu Apple, er hat hier das Retina-System entwickelt richtig. GCN als ganzes fällt aber auch zum Teil eben auch noch in deren Zeit und dem folgenden Zitat muss ich widersprechen:
Balikon schrieb:
GCN war von den Genen her nicht gut für Gaming geeignet. Als Koduri kam, hatte AMD auch nix anderes als GCN.
Das ist so nicht richtig. Viele der »Gente« von GCN findet man heute auch immer noch in RDNA wieder und ebenso muss man sagen, dass sich auch NVIDIA langsam zu einer deutlich flexibleren GPU hin wendet mit Turing und erst recht nun mit Ampere.

GCN hatte bereits relativ früh bereits Möglichkeiten, die NVIDIA erst jetzt mit Turing als auch Ampere bietet. Es hatte einen Grund, warum AMD quasi von Anfang an von Async-Shaders massiv profitieren konnte, weil auf einer CU 4 voneinander unabhängige »Shader« laufen können, egal ob sie nun FP oder INT Berechnungen benötigen.

Von »Async-Shader« profitiert erst Turing so richtig und ebenso Ampere, weil nun in den SM 2 Datenpfade vorhanden sind, die jeweils ihre eigenen Shader haben (64 + 64). Bei Turing war das auf 1 * FP und 1 * INT beschränkt, Ampere hat nun die Flexiblität, dass man 2 * FP oder 1 * FP + 1 * INT laufen lassen kann.

GCN hatte immer ein Problem seine ALUs in den CUs auszulasten. Man hatte für einige Zeit im Verdacht, dass es am Hardware-Sheduler liegt, aber sieht man sich die White-Papers zu RDNA an und auch die Developer-Guides, dann gibt es da ein paar interessante Informationen.

GCN unterstützt 3 »Befehlsarten«: Wave16, Wave32 und Wave64. Steht in dem Fall für die Anzahl der Paramter in einem Vector. Eine CU bietet 64 Alus, aber eingeteilt in 4 Vec16 ALUs und genau hier findet man dann in den RDNA-Papers die Information, dass der Treiber mit Wave64 arbeitet, aber die CU den Wave64-Befehl nur auf einer ALU ausführt und diese dann 4 Takte braucht, die anderen ALUs liegen brach. Man braucht also 4 Wave64-Befehle pro CU, damit alle ALUs genutzt werden. Auf den kleineren GCN-Karten - auch bei Vega - ist das nicht so das Problem, da man eben die passende Anzahl an Threads öffnen kann, aber bei den größeren eben nicht.

RDNA hat nun die 4 Vec16 durch 2 Vec32 ersetzt, nun braucht ein Wave64-Befehl nur noch 2 Takte und wenn er nur mit 32-Werten oder weniger besetzt ist sogar nur 1 Takt. Dazu deutet man in manchen Papers an, dass man den Treiber von Wave64 auf Wave32 umstellen will, was auch zum Teil an der Entwicklung der Spiele begründet liegt.

GCN war mit den technischen Möglichkeiten einfach seiner Zeit voraus, deswegen sind aber auch GCN-Karten im Vergleich zu ihren NVIDIA-Pendants besser mit der Zeit gealtert.

Und Koduri hat den Mund leider zu oft in seiner Zeit von 2013 - 2016 bei AMD den Mund sehr voll genommen und hatte bis dahin primär eher »Technologien« nach zu weisen, als wirklich GPU-Architekturen. Er hat durchaus gute und revolutionäre Ideen in einzelnen Segmenten, was man ja auch an Vega mit den Primitive-Shaders sieht, die jetzt als Mesh-Shader gekommen sind, aber eine »gute« Architektur hat er eben noch nicht auf den Weg gebracht. Er wird jetzt bei Intel beweisen müssen, dass er es kann, dass aus dem Kopf, der tolle Technologien ersinnen kann, auch ein guter Ingenieur wird, der seine Ideen effizient umsetzten kann!
 
Man merkt, AMD hat nun Geld. Früher musste ein Design beide Welten bedienen :)
 
pipip schrieb:
Ja kennen wir. ......
Nur macht es leider AMD nicht wie nvidia.
In Anbetracht der deftigen Preisverteuerungen ab RDNA 1 sollte AMD eigentlich Tacheles reden, was die RDNA Architektur so in Zukunft für den Kunden leisten kann. Bei nvidia wird es ja in allen Benchmarks und der Softwareunterstützung ausreichend gut kommuniziert. Vergleichbare Preise bedeuten am Ende bei nvidia trotzdem mehr Programmflexibilität und AMD kommunziert ja nicht mal das mit der Verteuerung den Kunden Luxustreiber Unterstützung anzubieten, die den Kauf auch wirklich wert ist.
 
Oberst08 schrieb:
Das ist durchaus Diskussionswürdig. Eigentlich hat NVidia diesen Schritt schon mit Volta gemacht und mit Ampere weiter ausgebaut. Die A100 ist doch sehr unterschiedlich zum A102, hat natürlich keine RT Kerne und auch nicht die verdoppelten FP32 Einheiten. Stattdessen hat sie Unmengen an FP64 Einheiten. Also der GA100 hat mit GA102 nicht so viel zu tun.
Ja und nein. Die meisten Techseiten wo ich nun was dazu gefunden habe schreiben ganz klar es ist die selbe Architektur mit deutlichen Unterschieden im Detail... Im jeweiligen Chip :daumen:
Aber ich kann auch mit deiner Ansicht leben. Die Unterschiede sind schon so eklatant das man von zwei "Architekturen" sprechen kann.
 
  • Gefällt mir
Reaktionen: Oberst08
Benji18 schrieb:
gott sei dank haben Sie diesen "Poser" endlich vor die Türe gesetzt

Dieser Poser hat nicht nur mit Polaris eine wirklich gute Architektur abgeliefert, sondern auch den Grundstein für alle(!) GPUs gelegt, die AMD aktuell in APUs verwendet. Und da sieht man, was Vega leisten kann.

Und vor allem, arbeiten da mehr Leute als nur er.
 
dr. lele schrieb:
Und vor allem, arbeiten da mehr Leute als nur er.

erstens „Arbeitet“ er nicht als Ingenieur sondern ist ein Manager, was an dem „sein“ Verdienst ist sei mal dahingestellt .... es gibt genug Leute in seiner Position die sich gerne mit Fremden Federn schmücken.

schön wenn du ihm da was zusprichst aber der Verdienst gehört den auch den Ingenieuren bei AMD und nicht nen Manager alleine ....

Wir werden sehen was er bei Intel zambringt
 
  • Gefällt mir
Reaktionen: dr. lele
Ich frage mich, wenn AMD derzeit alles auf TSMCs 7nm produziert, wo da noch Kapazitäten für NVIDIA übrig bleiben sollen.
Glaube kaum, dass NV dafür was von seinen Profi Amperes opfert.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Substanzlos schrieb:
wo da noch Kapazitäten für NVIDIA übrig bleiben sollen.
Nvidia hat angeblich versucht bei TSMC Sonderrechte zu bekommen und hohe Forderungen gestellt, ist aber abgeblitzt, weil TSMC keinerlei Lust hat sich von NV was diktieren zu lassen, zumal sie auch so ausgelastet sind. AMD hat sich weitaus mehr Kapazitäten gesichert im Vorfeld, das dürfte von Vorteil sein.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Substanzlos schrieb:
Ich frage mich, wenn AMD derzeit alles auf TSMCs 7nm produziert, wo da noch Kapazitäten für NVIDIA übrig bleiben sollen.
Glaube kaum, dass NV dafür was von seinen Profi Amperes opfert.
Wenn AMD alles richtig gemacht hat, was ich doch hoffe können Sie die Kontingente für Nvidia bei 7nm klein halten. Neue Konsolen laufen über Jahre ! meint sie könnten das gesamte Jahr 2021 in Q4/20 produzieren lassen wenn der GPU´s nicht laufen, wenn sie laufen dann eben weniger APU´s mehr GPU´s herstellen. letztendlich geht es um die bestellten Wafer, die man buchen und abnehmen muss und die APU´s sind kleiner wie die GPU´s.
und selbst wenn die GPU´s Floppen dann korrigiert AMD nach unten und produziert eben die APU´s für 2022 schon vor
 
Zurück
Oben