News AMD wittert den Milan-Moment: MI450 soll „bei jeder Art von KI-Workload“ führen

stefan92x schrieb:
Das Rackscale-System muss überzeugen, nicht mehr die einzelne GPU. Die Zeiten sind vorbei.
This!
Wer interessierts ob da nun 20'000 oder 35'000 GPUs verbaut sind?
Kosten und Energieverbrauch sind da relevanter.
Wer kauft sich schon Eine einzige dieser GPUs?
 
Intel hatte vor nicht allzu langer Zeit auch ein quasi Monopol. Dann kam Ryzen und der Rest ist bekannt….
Klar ist AMD gegenüber NVIDIA der Underdog. Und? Ich steh nun mal auf Underdogs und vertraue AMD 😊
 
  • Gefällt mir
Reaktionen: Bunhy, muvmend und herrStreusalz
messi10 schrieb:
Intel hatte vor nicht allzu langer Zeit auch ein quasi Monopol. Dann kam Ryzen und der Rest ist bekannt….
AMD hat da sicherlich Grosses geleistet, aber bei intel kam neben Pech auch noch Unglück dazu. Zum einen in der Fertigung, dann ein paar Designentscheidungen verkackt und sich darüber hinaus auf den Lorbeeren ausgeruht. Gegen ein tough geführtes intel hätte AMD sich zwar behaupten, aber nicht so abboosten können.

Nvidia ist da aus einem anderen Holz geschnitzt.
 
  • Gefällt mir
Reaktionen: Benji18 und herrStreusalz
Irgendwie glaub ich dem nicht so ganz...
 
@Yosup .. wer hoch fliegt, kann hoch fallen ... oder wie heißt es so schön?

nVidia hatte bisher immer ein Händchen für den besten Zeitpunkt.
Zudem einen massiven Vorteil in Sachen Software FÜR IHRE Hardware.

AMDs Vorteil ist OpenSource.
Auf Dauer sicher der bessere Weg.

Faktisch ist nVidia als Unternehmen auf Stelzen gebaut und drastisch überbewertet.
Kann eine Zeit lang gut gehen.
Aktien zieht man aber lieber mal früher als später raus. Ewig geht das nicht mehr so weiter.

Auch Intel wird im KI Bereich weiter aufholen.
Im Top End besser zu werden ist schwieriger als aufzuschließen.
 
  • Gefällt mir
Reaktionen: sebastian_uniq, EntelodonX, Ganjaware und eine weitere Person
Inxession schrieb:
AMDs Vorteil ist OpenSource.
Auf Dauer sicher der bessere Weg.
Tja... wenn man den "engen" Blick nur auf Treiber etc legt, dann stimmt das natürlich. Wenn man mal etwas breiter schaut, dann liefert Nvidia enorm vieles an Code/Frameworks für Entwickler. Das ist der große Vorteil von Nvidia und da kommt AMD lange nicht ran. OpenSource ist der bessere Weg, ja - aber da wo es für Entwickler zählt, liegt Nvidia vorne. Als Systemadministrator sieht man das anders, aber der entscheidet nicht, was gekauft wird, der muss damit leben, was gebraucht wird.
Inxession schrieb:
Faktisch ist nVidia als Unternehmen auf Stelzen gebaut und drastisch überbewertet.
Angesichts der absurd guten Ergebnisse, die Nvidia tatsächlich liefert, gar nicht mal so drastisch.
Inxession schrieb:
Auch Intel wird im KI Bereich weiter aufholen.
Wird es das? Mit was? Niemand glaubt an Intels Versprechungen, zu lang ist die Liste des Scheiterns in dem Bereich. Da muss ganz viel passieren, damit man überhaupt schaut, was Intel macht.
Inxession schrieb:
Im Top End besser zu werden ist schwieriger als aufzuschließen.
Stimmt. Im Top End überholen ist aber nochmal schwieriger, muss man dafür doch gleichzeitig aufschließen und besser werden. Und ohne zu überholen hat man wenig Argumente, warum man Kunden vom Wechsel überzeugen sollte - höchstens den Preis, und das tut der Marge weh.
 
Konkurrenz ist immer gut, aber zusätzlich zur Hardware muss AMD auch die Software angehen.
Solange CUDA nur auf nVidia läuft bzw. bis eine Opensource-Alternative sich durchsetzt, die auch auf nicht-nVidia Karten läuft, wird sich am quasimonopol nix ändern.
 
messi10 schrieb:
Intel hatte vor nicht allzu langer Zeit auch ein quasi Monopol. Dann kam Ryzen und der Rest ist bekannt….
Klar ist AMD gegenüber NVIDIA der Underdog. Und? Ich steh nun mal auf Underdogs und vertraue AMD 😊
Überhaupt nicht vergleichbar.

Intel hat sich einfach auf seinem Monopol ausgeruht und schleifen lassen. Nvidia tut das nicht. Und das ist der Unterschied.

AMD wird Nvidia mit hoch angrenzender Wahrscheinlichkeit nicht so schnell einholen, oder gar überholen. Es geht ja auch nicht nur um GPUs... auch um das ganze drumherum, Interconnect, Netzwerk, SOFTWARE vor allem und bla bla bla... das muss auch stimmen, sonst wird AMDs GPU-Sparte da bleiben wo sie ist.
 
Diese Ankündigungen muss man halt machen, um Investoren und Aktionäre anzulocken.
Intel ist ja auch immer Leading irgendwas. Im Versagen stimmts zumindest.
Ich sehe es so: das Sagen hat immer der König oder das Team an der Spitze.
Wenn Bayern es nicht selbst vergeigt, sind die am Ende automatisch auf Platz 1 gesetzt.
Also was bringt es, wenn AMD oder sonstwer irgendwelche hochgesteckten Ziele und Werte präsentiert, und dann wirft NVidia ein nochmals besseres Produkt auf den Markt, und dann sind die Unterschiede am Ende vielleicht sogar noch größer?
Und mit Leistungswerten generell muss man sagen, das gilt oft nur in einem bestimmten Szenario, die Wirklichkeit und der Alltag liegt dann meisten so bei der Hälfte davon.
 
stefan92x schrieb:
Tatsächlich sind die Chips an sich quasi irrelevant. Das Duell lautet nicht Rubin vs MI400, sondern NVL144 gegen Helios. Das Rackscale-System muss überzeugen, nicht mehr die einzelne GPU. Die Zeiten sind vorbei.
Ja aber solange der Chip nicht die gleiche Leistung hat bekommst du am ende auch pro Rack weniger Leistung. Und Leistung pro Fläche ist immer noch das wichtigste.
Haldi schrieb:
Wer interessierts ob da nun 20'000 oder 35'000 GPUs verbaut sind?
Kosten und Energieverbrauch sind da relevanter.
Wer kauft sich schon Eine einzige dieser GPUs?
Energieverbrauch und Einkaufkosten sind in dem Bereich nicht mehr so wichtig. Sondern wie schnell wird meine Anfrage beantwortet.
 
Steven Coolmay schrieb:
Ja aber solange der Chip nicht die gleiche Leistung hat bekommst du am ende auch pro Rack weniger Leistung. Und Leistung pro Fläche ist immer noch das wichtigste.
Tatsächlich ist Leistung pro Rack erstmal egal, und Leistung pro Fläche eigentlich auch.
Steven Coolmay schrieb:
Energieverbrauch und Einkaufkosten sind in dem Bereich nicht mehr so wichtig. Sondern wie schnell wird meine Anfrage beantwortet.
Energieverbrauch ist enorm wichtig, Leistung/Watt ist eine DER Metriken überhaupt in dem Bereich. Das fällt nur auf den ersten Blick eben nicht auf, weil es für einen Cluster halt tatsächlich effizienter ist, die AI-Chips weit über ihrem Sweetspot zu betreiben und im Gegenzug viel weniger Netzwerktechnik, CPUs und sonstigen Overhead verbauen zu müssen, der auch Strom frisst. Wer nur auf die GPUs schaut, der guckt dann halt nur auf deren TDP und denkt, Energieverbrauch interessiert nicht.

Tatsächlich ist die erhöhte Leistung pro Rack/Fläche eine Folge davon, dass man versucht, die Energieeffizienz zu optimieren. Und das geht am einfachsten, indem man das Netzwerk (das enorme Datenmengen transportieren muss) reduziert.

Wenn wir nochmal breiter schauen und uns Rechenzentren als ganzes ansehen: Die elektrische Leistungsdichte steigt enorm. RZ-Fläche ist mittlerweile so gut wie egal. Fast alle (von Neubauten abgesehen, die direkt dafür ausgelegt) sind heute dadurch limitiert, was sie für einen Netzanschluss haben. Wer aus einem 5 Jahre alten Standard-RZ ein KI-RZ macht, der hat danach eine Halle, die zu 3/4 leer ist, solange er den nicht erweitern kann.
 
Yosup schrieb:
AMD hat da sicherlich Grosses geleistet, aber bei intel kam neben Pech auch noch Unglück dazu ....
Am Ende spielt es keine Rolle, ob Intel Pech hatte oder nicht. Entscheidend ist, dass AMD im richtigen Moment bereit war. Warum sollte das bei NVIDIA nicht möglich sein? NOKIA und RIM (Blackberry) können sicher ein Lied von singen.
Ergänzung ()

BDR529 schrieb:
Überhaupt nicht vergleichbar.

Intel hat sich einfach auf seinem Monopol ausgeruht und schleifen lassen. Nvidia tut das nicht. Und das ist der Unterschied.
Natürlich kann hier ein Vergleich gezogen werden.

Ich stimme Dir zu, dass aktuell NVIDIA breiter aufgestellt ist, aber die Vergangenheit (Intel, NOKIA, RIM) hat doch deutlich gezeigt, dass wenn man den einen Moment der Veränderung verschläft, die Karten neu gemischt werden. Oben bleiben ist schwerer, als nach oben kommen.
 
Zuletzt bearbeitet:
messi10 schrieb:
Am Ende spielt es keine Rolle, ob Intel Pech hatte oder nicht. Entscheidend ist, dass AMD im richtigen Moment bereit war. Warum sollte das bei NVIDIA nicht möglich sein?
Meine Güte, es redet hier doch keiner davon dass das mathematisch unmöglich sei, Ich halte einfach nur die Wahrscheinlichkeit für nicht sonderlich gross, dass dies bereits in 2026 passiert.

Und zu Deiner Rethorik: Du sagst, wenn intel einfach so abkacken konnte, wieso sollte dann nicht auch Nvidia einfach so abkacken - merkst dabei aber nicht, dass man in der gleichen Logik auch fragen könnte, warum dann nicht AMD einfach so abkacken könnte...

Man nennt das wohl auch Confirmation Bias...
 
@Yosup Du widersprichst Sachen, die ich nie geschrieben habe.

Zu Deiner Confirmation Bias Theorie:
Natürlich kann AMD auch abkacken, etwas Gegenteiliges habe ich nie behauptet. Ich habe aus der Sicht des nachweislichen Underdogs geschrieben, weshalb es nicht möglich sein sollte, dass NVIDIA dasselbe Schicksal ereilt. Das war mein Punkt.

Schönes Wochenende und VG
 
messi10 schrieb:
@Yosup Du widersprichst Sachen, die ich nie geschrieben habe.
Kann sein, dass ich verschiedene Posting durcheinandergebracht habe. Sinnentstellung war nicht meine Absicht.

Nun, dann sind wir ja im Grunde einer Meinung. Natürlich kann NVidia jederzeit abkacken, das gilt ja für Alles und Jeden.

Bei Vergleichen mit intel sollte man sich aber auch vor Augen führen, dass a) intel sich einige Jahre lang auf den Lorbeeren ausruhen konnte, bevor die Kacke so richtig am Dampfen war. Und b) ist nvidia durch die Lederjacke viel tougher geführt, als so ein Bürokraten-Laden wie intel es ist.
Vor dem Hintergrund glaub ich einfach nicht, dass AMD mit der nächsten GPU-Generation in 2026 mit Nvidia den Boden aufwischen wird. So schnell geht das einfach nicht, auch nicht in der Branche.
 
Zurück
Oben