News AMD Radeon Instinct MI100: CDNA soll am 16. November mit Arcturus-GPU debütieren

dasbene schrieb:
Ich frage mich dabei aber immer wie sich der Marktanteil von Cuda zu OpenCL verhält? Nvidia scheint da recht viel zu machen und von OpenCL Entwicklung bekommt man nichts mit.
Jup, Nvidia ist bei GPU-Computing immer auf Trap. Überall CUDA und in Renderern mittlerweile auch OptiX.
Wer auf Software angewiesen ist, die nur Nvidia unterstützt, dem bringen gute AMD-Karten leider nichts.
 
Obreien schrieb:
Für mich doofen. Ist das dann der Nachfolger der Radeon Pro oder noch ne ganz andere Serie. Bei AMD blick ich da net so durch.

Nein sind sie nicht. Die Radeon Pros sind Workstation Karten bzw für extreme Multi Monitor Setups Vergleichbar mit den Quadros aus dem Hause Nvidia.

Die Instinct Karten sind noch weiter angepasst und werden vor allem für Berechnungen eingesetzt. Zudem lassen sie sich noch besser verbinden. Hinsichtlich IF. Eben alles was man für HPC braucht
 
  • Gefällt mir
Reaktionen: Obreien
[wege]mini schrieb:
Wir werden sehen, was am Ende erscheint.

Sollten sich aber die 19 Milliarden Transistoren bewahrheiten, wären auch die 420mm² gar nicht so unwahrscheinlich. Immerhin ist die alte MI50 auch nur 335 mm² groß und hatte schon 13 Milliarden Transistoren.

Gerade bei einigen Chips, vergisst man manchmal, wie groß der Cache wirklich ist. Bei GPUs für Compute, ist der natürlich deutlich kleiner.

Niemand würde eine GPU bauen, bei der 50% der Fläche für Cache verballert wird (wie bei klassischen CPUs).

Naja, irgendwo muss die Leistung herkommen. Die MI50 hat gerade mal grob 4k ALUs. Und ob der Cache klein bleibt ist alles andere als gesetzt. Auch GPUs profitieren von Cache. Mal abgesehen davon, dass das dynamische L1 Cache Sharing genauso Platz braucht. Und das wird denke ich in CDNA enthalten sein. Irgendwo muss das ganze aber hin.

Krautmaster schrieb:
Ich meine man redet bei Big Navi von 500mm2 und etwa 75 mm2 davon der neue Cache. Der ja bei HBM eig nicht nötig da dieser genug Bandbreite hat. Kommt ja etwa hin da noch etwas mehr wegfällt aber CDNA ggf wiederum etwas mehr Platz pro Einheit braucht. RT Kram entfällt sicher auch.

Ja, allerdings spricht man auch von um die 8k ALUs. Dafuer sind 400mm2 schon sehr sportlich.

Beitrag schrieb:
Jup, Nvidia ist bei GPU-Computing immer auf Trap. Überall CUDA und in Renderern mittlerweile auch OptiX.
Wer auf Software angewiesen ist, die nur Nvidia unterstützt, dem bringen gute AMD-Karten leider nichts.

Man kann sich ja auch mal an den Softwarehersteller wenden und versuchen Druck zu machen anstatt darauf zu warten, dass das schon irgendwie wird. Ansonsten ist man da selbst Schuld und begibt sich schoen in einen Vendor-Lock.
 
DrFreaK666 schrieb:
Solange CUDA noch so stark vertreten ist, sind diese Karten für viele keine Option
Beitrag schrieb:

Wenn CDNA bei ROCm unterstützt wird kann man quasi CUDA ausführen. Und vor allem geht dann Tensorflow/Pytorch, das ist nicht uninteressant.

Wirklich schade, dass Navi da bisher nicht unterstützt wird, ich hoffe da wird jetzt keine Unterscheidung zwischen "consumer" und "pro" gemacht. Denn bei Nvidia geht Deep Learning und spielen auf einer Karte.
 
Da gehts ja Schlag auf Schlag bei AMD.

Nach wie vor Wahnsinn, was der Laden an gefühlt fast jeder Front auf die Beine bringt und dann auch noch so überzeugt und überrascht.
Ich drücke für Arcturus die Daumen damit sie einigermaßen gut dastehen gegen den fast schon übermächtigen A100.
Aber auf der anderen Seite dachte man auch die haben keine Chance gegen GA102. Kam auch gänzlich anders :D

Von daher bin ich gespannt auf den 16.9.!
 
Novasun schrieb:
Die Entscheidung war eigentlich schon lange überfällig... Aber hey immerhin vor NV gemacht

Nvidia hat dich die tesla karten. Laufen die nicht mit eigenständigen chips? Ansonsten zustimmung.
 
Da bin ich Mal gespannt ,ob sie da auch Smart Acces Memory verwenden.Die zu erwartenden Epyc und Threadripper CPUs wären ja auch dafür geeignet.Glaube Mal sowas gelesen zu haben, das AMD daran denkt , CPU und GPU auch in diesem Sektor besser zu verknüpfen ,um die Rechenleistung zu erhöhen.
 
dr. lele schrieb:
.....
Wirklich schade, dass Navi da bisher nicht unterstützt wird, ich hoffe da wird jetzt keine Unterscheidung zwischen "consumer" und "pro" gemacht. Denn bei Nvidia geht Deep Learning und spielen auf einer Karte.
Leider wird es so enden, weil Frau Su mit RDNA 2 die Compute Benchmarks bis heute nicht nennen mag und nur die Spieleleistung einer Spielearchitektur bewirbt.

Das sieht man mal, wie überlegen die nvidia Architektur umgesetzt auf einem Chip mit der Softwareunterstützung ist, gut Spiele und Compute Aufgaben zu übernehmen, wenn auch spezilisert es sicher immer besser geht.

Würde nvidia seine RTX Ampere von den Tensorkernen befreien, den Platz für Cache und Shader aufwenden, würde die R6000 Serie im Gaming ziemlich schlecht da stehen. Der reine Ampere Anfang des Jahres als reine Computekarte wird da sicher schwer zu knacken sein.

Aber immerhin, AMD bietet bei seiner Vormachtsstellung am Markt auch umgelabelte Kent Fahrräder in Walmart Qualität an. Da würde ich lieber für das so begehrte nvidia Lineal zahlen, was wenigstens als Lineal einen technischen Mehrwert bietet. Da merkt man, welcher Hersteller Technik überhaupt hinterfragt.
 
dr. lele schrieb:
Wirklich schade, dass Navi da bisher nicht unterstützt wird, ich hoffe da wird jetzt keine Unterscheidung zwischen "consumer" und "pro" gemacht. Denn bei Nvidia geht Deep Learning und spielen auf einer Karte.
https://github.com/RadeonOpenCompute/ROCm/issues/887

Zumindest die Community ist hinterher und macht Dampf und manche Sachen vob RoCm laufen schon auf Navi.

Auch darf man nicht vergessen, das AMD RDNA für den HPC Markt nie wirklich definitiv ausgeschlossen hat, sondern dass man auch durchaus darauf hinarbeitet, das man irgendwann eine Grundarchitektur hat, die man, wie NVIDIA ggf. an die Aufgaben anpassen kann.

Es gibt sogar erste Gerüchte, das CDNA auch bereits Teile von RDNA mit einfließen. Man kann nun gespannt sein was kommt und wie die Entwicklung in den nächsten Jahren aussieht.

Am Ende macht es aber durchaus Sinn, das man primär die Karten an ihre Aufgaben ausrichtet. Es gibt genug Entwickler/Wissenschaftler, die sagen, das wir uns bei den Chips wieder mehr spezialisieren müssen um Leistung und Effizienz tu bekommen, da die "generellen" Ansätze langsam einen Flaschenhals bilden.

Und kleiner Nachtrag: https://github.com/RadeonOpenCompute/ROCm/issues/1251#issuecomment-720333863

Es wird fieses Jahr nichts, aber irgendwie scheint es doch geplant zu sein. Wenn man bedenkt, das Wave16 bei RDNA wegfällt, muss man da schon mehr anpassen.
 
Zuletzt bearbeitet von einem Moderator:
Einerseits freue ich mich, dass AMD auf dem HTPC-Markt was konkurrenzfähiges auf die Beine stellt.

Andererseits bedauere ich, dass AMD GPU-Compute auf dem Desktop nicht wirklich ernst zu nehmen scheint, seit RDNA. Es scheint fast als hätten sie aufgegeben.
Und das während Nvidia hier seinen Vorsprung weiter ausbaut. ROCm unterstützt bis heute RDNA nicht und wer weiß, wie das mit RDNA2 wird. Was soll der Normalo Content Creator mit Davinci Resolve, Capture One Pro oder Blender also in seinen Desktop stecken, wenn es nicht Nvidia sein soll? Vega?
 
Zuletzt bearbeitet:
Novasun schrieb:
Nein, die Entscheidung ist nach dem "Flop" Vega gefallen. Weil man da endlich die richtigen Leute in der GPU Sparte an die richtigen Stellen gesetzt hat [bzw. Koduri vor die Türe]

Stimme dir absolut zu, gott sei dank haben Sie diesen "Poser" endlich vor die Türe gesetzt und gleich ein paar der Marketing Fuzzis die für das miese Marketing in der Vergangenheit verantwortlich waren.
 
Tzk schrieb:
Nvidia hat dich die tesla karten. Laufen die nicht mit eigenständigen chips? Ansonsten zustimmung.
https://de.m.wikipedia.org/wiki/Nvidia_Tesla

Tesla war nur ein Marketing Name. An sich die selbe Architektur wie die normalen Gamer GPUs.. AMD hat nun zwei getrennte Architekturen.
Diesen Schritt muss NV erst noch gehen so weit ich weiß.
 
Teralios schrieb:
Zumindest die Community ist hinterher und macht Dampf und manche Sachen vob RoCm laufen schon auf Navi.

Die Community ja, aber AMD scheinbar nicht.
We still don’t have definitive plans for supporting NAVI series of Hardware in this year.
Quelle

D.h. es gibt noch nicht mal offizielle Pläne Navi überhaupt mal zu unterstützen. Das schreckt natürlich vom Kauf ab. Und selbst wenn AMD eine Roadmap für NAVI + ROCm hätte: solange das nicht zu 100% unterstützt wird wird das auch nicht an Unis oder in Startups genutzt. Ist halt so. Man will produktiv sein und nicht rumfrickeln.
 
Beitrag schrieb:
Jup, Nvidia ist bei GPU-Computing immer auf Trap. Überall CUDA und in Renderern mittlerweile auch OptiX.
Wer auf Software angewiesen ist, die nur Nvidia unterstützt, dem bringen gute AMD-Karten leider nichts.
Äh, die MI100 zielt auf einen ganz anderen Markt. Die ist in erster Linie für HPC, da spielt CUDA nur eine eingeschränkte Rolle, weil es da neben NVidia GPUs noch AMD GPUs und schon länger auch spezielle Chips wie Intels Xeon Phi oder FPGAs gibt. Die nutzen eigentlich alle OpenCL, nur NV nutzt CUDA. NV ist da zwar Marktführer aber der Markt ist da schon weiter verteilt, sodass vermutlich mehr OpenCL als CUDA verwendet wird.
Der Bereich, den du meinst, wird von den Grafikkarten darunter abgedeckt (Quadro und RadeonPro), da ist CUDA sicherlich stark, aber im HPC ist man nicht so groß, wie viele hier denken (und da wird die Software sowieso für jeden Rechner quasi neu geschrieben).
Novasun schrieb:
Tesla war nur ein Marketing Name. An sich die selbe Architektur wie die normalen Gamer GPUs.. AMD hat nun zwei getrennte Architekturen.
Diesen Schritt muss NV erst noch gehen so weit ich weiß.
Das ist durchaus Diskussionswürdig. Eigentlich hat NVidia diesen Schritt schon mit Volta gemacht und mit Ampere weiter ausgebaut. Die A100 ist doch sehr unterschiedlich zum A102, hat natürlich keine RT Kerne und auch nicht die verdoppelten FP32 Einheiten. Stattdessen hat sie Unmengen an FP64 Einheiten. Also der GA100 hat mit GA102 nicht so viel zu tun.
 
  • Gefällt mir
Reaktionen: Teralios
dr. lele schrieb:
Die Community ja, aber AMD scheinbar nicht. Quelle

D.h. es gibt noch nicht mal offizielle Pläne Navi überhaupt mal zu unterstützen. Das schreckt natürlich vom Kauf ab. Und selbst wenn AMD eine Roadmap für NAVI + ROCm hätte: solange das nicht zu 100% unterstützt wird wird das auch nicht an Unis oder in Startups genutzt. Ist halt so. Man will produktiv sein und nicht rumfrickeln.

Höchst interessant, dass Radeon Open Compute als OSS auf Github entwickelt wird, anscheinend auch mit aktiver Community. Mit etwas Glück könnte da richtig Zug drauf kommen, über die AMD Hardware hinaus. Der Name Radeon behindert solches allerdings.

Ist CUDA eigentlich Open Source in ähnlicher Weise verfügbar?
 
dr. lele schrieb:
Die Community ja, aber AMD scheinbar nicht.
Weiß ich bereits und habe ich als Nachtrag sogar in meinen Beitrag geschrieben und da dein Beitrag so deutlich zeitlich später kommt, wäre es doch schön gewesen, wenn du meinen ganzen Beitrag gelesen hättest.

Teralios schrieb:
Es wird dieses Jahr nichts, aber irgendwie scheint es doch geplant zu sein. Wenn man bedenkt, das Wave16 bei RDNA wegfällt, muss man da schon mehr anpassen.

Ich verweise da auch auf einen Kommentar, der genau 2 Beiträge später kommt:
When we start supporting NAVI series of cards, we will clearly mention all supported cards/series too(based on support and availability of cards by that time).

Den Link spare ich mir, der ist eh da.

Auch interessant wäre da ein Beitrag der Entwickler aus dem letzten Jahr:
Sorry, I should've updated this previously. We have full compute support for Navi10 (Radeon 5700 and 5700XT) as of 2.7. We don't have display capabilities yet (in 2.7 or 2.8) due to some issues with the display code, so we had to disable display to allow the GPU to work with our ROCm stack. We are aiming to get full display support for Navi10 to go with the already-present full compute capabilities in the 2.9 release.
https://github.com/RadeonOpenCompute/ROCm/issues/819#issuecomment-531738702

Ich würde mal sagen: Man arbeitet dran, aber es ist eben noch nicht so weit, dass man es als »Supported« freigibt.

ghecko schrieb:
Andererseits bedauere ich, dass AMD GPU-Compute auf dem Desktop nicht wirklich ernst zu nehmen scheint, seit RDNA. Es scheint fast als hätten sie aufgegeben.
Lies dir mal auf GitHub die ganzen Issues zu RDNA mal durch und was da so alles steht, zumal AMD RoCm und Navi keine Absage erteilt hat, sondern man durchaus auch an dem Support arbeitet! Siehe Zitat 3 in diesem Beitrag.

Teile von RoCm laufen bereits auf RDNA und auch scheint sich von Version zu Version die Unterstützung von Navi durchaus zu verbessern, es benötigt aber teilweise noch eingriffe von den Anwendern, wenn sie es mit Navi verwenden wollen und bestimmte Bestandteile sind noch sehr anfällig für Fehler - Tensor Flow.

Man darf nicht vergessen, dass GCN mit 4 * Vec16-ALUs pro CU arbeitet und damit optimale Auslastung pro CU mit 4 Threads mit den Wave16-Befehlen erreicht. Wave32 und Wave64 laufen auch nur auf einer der ALUs und brauchen 2 oder 4 Takte. (Siehe GCN-Developer-Papers).

Mit RDNA hat man die ALUs in der CU drastisch verändert und mit der WGP ebenso. Jede CU besteht nun aus 2 Vec32-ALUs sowie nun einem gemeinsamen Registerfile/LDS für 2 CU. Die Wave16-Befehle werden in den Developer-Guides für RDNA überhaupt nicht mehr erwähnt und für Wave32 gilt: 1 Takt, für Wave64 2 Takte (erst die unter Hälfte wird berechnet, dann die obere Hälfte).

Man muss hier also durchaus auch umfassendere Anpassungen vornehmen, damit man mit RDNA optimal anspricht. Und ich denke, AMD arbeitet daran und wird mit der Zeit auch RDNA in RoCm aufnehmen, nur sowas braucht auch eben Zeit, gerade wenn man bedenkt, dass AMD durchaus eher überschaubare Ressourcen hat, dann verwundert es nicht wirklich, dass man hier auch mal länger braucht.

Polaris, Vega als auch vermutlich CDNA lassen sich da recht einfach implementieren und prüfen, da hier die Hardware doch sehr ähnlich ist.
Ergänzung ()

Silverhawk schrieb:
Ist CUDA eigentlich Open Source in ähnlicher Weise verfügbar?
Klares: Jaein.

NVIDIA hat Teile von CUDA nun durchaus unter OpenSouce-Lizenz gestellt, soweit ich weiß geben sich auch »vergange« API-Versionen durchaus auch dann unter einer OpenSource-Lizenz frei, aber nicht alles.

Hier mal so ein Bestandteil, der nun frei ist: https://www.heise.de/news/Nvidia-st...liothek-unter-Open-Source-Lizenz-4907653.html
 
Zurück
Oben