News Server-CPU-Marktanteile: AMD kämpft gegen Intel – und später auch ARM

sikarr schrieb:
Wenn ARM so "gefürchtet" wird, warum bringt man dann nicht eigene CPUs? Intel wie auch AMD besitzen ARM Lizenzen und mit deren Erfahrung aus dem x86 Bereich sollten die doch was zum laufen bekommen. Gerade AMD könnte sich jetzt ein Ökosystem aufbauen so wie es im Artikel für Intel erwähnt wurde?
Du hast aber schon mitbekommen, dass AMD es nicht mal schafft den Bedarf bei X86 CPUs und GPUs zu bedienen, oder?
Falls nicht: Nein, sie schaffen es nicht oder nur so gerade.
Nach welcher Logik sollen sie jetzt auch noch irgendwas mit ARM versuchen? (Abgesehen davon, dass sie damals auch irgendeine ARM Firma geschluckt haben)
Nebenbei: Sie sind gerade dabei sich Xilinx einzuverleiben - wer zu viel auf einmal versucht, steigert das Risiko böse zu fallen.

Ich sehe ARM noch lange nicht als den großen Killer und für AMD schon gar nicht als nötigen Wachstumsmotor.
 
  • Gefällt mir
Reaktionen: Smartbomb, konkretor, DonL_ und eine weitere Person
Nagilum99 schrieb:
Du hast aber schon mitbekommen, dass AMD es nicht mal schafft den Bedarf bei X86 CPUs und GPUs zu bedienen, oder?
Darum gehts doch nicht ob man den Markt bedienen kann, ich denke mal du beziehst die auf die Auslieferung und Produktion der Chips?
Es geht vielmehr darum überhaupt etwas zu haben was man in markt einbringen kann.
Nagilum99 schrieb:
Nach welcher Logik sollen sie jetzt auch noch irgendwas mit ARM versuchen?
AMD hat seit 2014 eine ARM Lizenz, ich kenne jetzt nicht die Details daraus aber es ist nicht so das die bei Null anfangen.
 
sikarr schrieb:
Darum gehts doch nicht ob man den Markt bedienen kann, ich denke mal du beziehst die auf die Auslieferung und Produktion der Chips?
Es geht vielmehr darum überhaupt etwas zu haben was man in markt einbringen kann.

AMD hat seit 2014 eine ARM Lizenz, ich kenne jetzt nicht die Details daraus aber es ist nicht so das die bei Null anfangen.
Es ergibt doch keinen Sinn etwas in den Markt einzubringen, wenn du so schon nicht liefern kannst.
Die Folge wären noch mehr Produkte die noch schlechter lieferbar wären.
Wie zu sehen ist, kommen sie auch mit X86 ausreichend vorwärts.

Der M1 wird meistens maßlos überhyped und technisch-inkompetent als überragend betrachtet.
Inkompetent weil da viele Details unter den Tisch fallen, die gravierende Unterschiede machen und zweischneidig sind.

AMD hat damals irgendeine ARM Firma geschluckt, ich habe den Namen vergessen, kann man sicher googlen.
AFAIK wird das Know-How genutzt um die PSPs (Platform Security Processor) damit zu bauen.
 
  • Gefällt mir
Reaktionen: LamaMitHut
Hayda Ministral schrieb:
Gib es ruhig zu, ursprünglich wolltest Du schreiben "in der Schublade"
Pandis geben überhaupt nichts zu, sondern die Essen lieber eine Mango und schmollen!

sikarr schrieb:
AMD hat seit 2014 eine ARM Lizenz, ich kenne jetzt nicht die Details daraus aber es ist nicht so das die bei Null anfangen.
Jaein, AMD hat 2014 eine Architektur-Lizenz bekommen, also dass sie auch eigene Kerne entwerfen können. Lizenznehmer ist AMD aber schon länger gewesen, auch für den Embeded-Bereich! :D
Ergänzung ()

Nagilum99 schrieb:
Der M1 wird meistens maßlos überhyped und technisch-inkompetent als überragend betrachtet.
Na, da bin ich aber mal auf deine Expertenmeinung gespannt, denn wer so starke Worte verwendet wie überhyped und vorallem noch technisch-inkompetent benutzt, der sollte doch seine technische-kompetenz auch unter Beweis stellen können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Col. Jessep, TexHex, butchooka und 5 andere
DevPandi schrieb:
Na, da bin ich aber mal auf deine Expertenmeinung gespannt, denn wer so starke Worte verwendet wie überhyped und vorallem noch technisch-inkompetent benutzt, der sollte doch seine technische-kompetenz auch unter Beweis stellen können.
Der "Maccerkopf" oder wie er hieß hat z.B. überall nur Singlethread Benchmarks gezeigt und seinen ganzen Artikel der Überlegenheit gewidmet.
Da der Mac grad bei Medienleuten beliebt ist, ist die ST-Leistung aber nur bedingt interessant. Spätestens wenn es gen Video geht, wird auch heute noch sehr viel über CPU gerendert - und da zählt Skalierung mit Kernen. Einen M1 zu schlagen fällt AMD da nicht schwer.
Das nächste ist: RAM. Bei Apple ist das ein "friss oder stirb", in diesem Fall, da der RAM sehr nah am CPU-Die sitzt sogar nicht anders lösbar (anders als der aufgelötete früher).
AMD könnte sowas auch machen, aber für viele ist die fehlende Erweiterbarkeit ein Nogo und für Hersteller im Geschäftsbereich eine Katastrophe. So kannst du aus verschiedenen Komponenten sehr viele Modelle bauen - mit Überschneidungen.
Das aufgelötete ist schlimmer als Intels aufgelötete 400 Watt Xeons: Sehr starres Konstrukt.

Natürlich ist es einfach sich schnell einen kleinen Marktanteil zu holen, weil es auch die gibt, denen das egal ist.

Edit: Dieses M1-Gehype führte schon so weit, dass ich einen Kunden erst überzeugen musste, dass ein Threadripper ihn weiter bringt als ein M1 Gerät.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TexHex, Onkel Föhn und sven.ghostrider
@Nagilum99

Das sind alles Eigenschaften der konkreten Implementierung für den M1, welcher sich eher nicht an Poweruser richtet. Auch das kombinierte Packaging von Ram und SoC von TSMC dient eher einem kleineren PCB design. Signifikante Latenzvorteile gibt es dadurch nicht.

Das CPU design an sich ist einfach sehr gut.
Kein anderer Hersteller bekommt derart viele Pipelines gefüttert und auch das OoO window ist mehr als beeindruckend.

Gerade der erste Teil stößt in der Branche immer noch auf Verwunderung.
Das ganze ist natürlich mit einem hohen Transistorcount erkauft, allerdings ist es trotzdem beeindruckend und keineswegs leicht zu replizieren. Dataflow innerhalb der CPU ist allgemein immer ein kniffliges Thema.

Früher oder später wird Apple da auch größere SoCs rausbringen. Bisher wurde ja nur das Einstiegs/Passivkühlungs Segment bedient.
 
  • Gefällt mir
Reaktionen: TechFA und DevPandi
Nagilum99 schrieb:
Der "Maccerkopf" oder wie er hieß hat z.B. überall nur Singlethread Benchmarks gezeigt und seinen ganzen Artikel der Überlegenheit gewidmet.
Ah, wir bleiben weiter bei den harten Worten? Darf ich jetzt auch harte Worte verwenden oder bin ich ein liebes Pandi?

Na, ich versuche einen Mittelweg: Also, dafür, dass du anderen technische-inkompetenz vorwirfst, hätte ich von dir deutlich mehr erwartet, als eben technische-inkompetente heiße Luft.

Denn du lieferst keine wirkliche technische Aspekte, warum der M1 überbewertet ist oder warum die anderen technisch-inkompetent ihn überbewerten, sonder du lieferst im Endeffekt überhaupt nichts.
Nagilum99 schrieb:
Da der Mac grad bei Medienleuten beliebt ist, ist die ST-Leistung aber nur bedingt interessant. Spätestens wenn es gen Video geht, wird auch heute noch sehr viel über CPU gerendert - und da zählt Skalierung mit Kernen. Einen M1 zu schlagen fällt AMD da nicht schwer.
Dein Hauptargment ist es also, dass der M1 nur auf 4 + 4 Kerne kommt und es für AMD (und Intel) ein leichtes wäre das zu schlagen? Echt jetzt? Dir ist aber schon klar, dass das eine Milchmädchenrechnung ist und kein wirklich technisches Argument!

Natürlich ist es für AMD und Intel ein leichtes mit ihren dicken Prozessoren den M1 zu schlagen, die Frage ist in dem Fall dann aber nur wie und wer sich damit beschäftigt weiß dann auch, warum der M1 ein sehr guter Prozessor ist, besser warum die Firestorm-Kerne echt pandastische Kerne sind (Ja, absichtlich so geschrieben!).

Klar, ein Ryzen miz 12 oder 16 Kernen zersägt beim Rendern einen M1, hat ja auch 4 - 8 Kerne mehr. Nur darf sich der Ryzen dafür deutlich mehr Energie gönnen und benötigt diese auch. Gleiche gilt für die großen Intels.

Dazu kommt, das der M1 aktuell nur in 2 Notebooks, einem Kleinstrechner und einem Unterhaltungsrechner sitzt und hier je nach dem, was du denn kaust, zwischen 800 - 1600 € in der Startkonfiguration kostet. Und wenn man in dem Preisbereich den M1 gegen AMD und Intelkonkurrenten in den Barbones und Notebooks antreten lässt dann sieht das alles schon wieder etwas anders aus, denn dann können sich AMD und Intel nicht wirklich absetzen, benötigen für die gleiche Leistung teilweise aber deutlich mehr Saft.

Aber ja. ... der M1 ist ein so schlechter und überbewerteter Prozessor, es ist ja nicht so, dass ich die Tage ein Film habe darauf rendern lassen, was sogar in dem Fall einen Ryzen 2700X geschlagen hat. Der Prozessor ist ja ganz ganz schlecht und überbewertet.

Natürlich, ich hätte mir jetzt auch ein 16-Kerner Zen 3 kaufen, aber mit allem wäre das teurer gewesen als das MacBook Pro 13" und nicht so portabel.

Nagilum99 schrieb:
Das nächste ist: RAM. Bei Apple ist das ein "friss oder stirb", in diesem Fall, da der RAM sehr nah am CPU-Die sitzt sogar nicht anders lösbar (anders als der aufgelötete früher).
Jaha und? Wo ist hier das Argument? In den Geräte, in den Apple die CPU verwendet, setzten ein paar Hersteller, gerade auch wenn es an LPDDR4 und LPDDR5 geht, auch verlöteten RAM. Klar, es ist ärgerlich - gerade beim MacBook Pro, weil man früher einen SO-DIMM einsetzten konnte, aber auch das ist heute bei manchen Anbietern nicht möglich, gerade auch im Ultrabook-Bereich.

Das ist aber eher ein Argument gegen das Gerät als ganzs, aber ganz sicher keines dafür, dass die CPU überbewertet ist.

Du hast kein einziges technisches Argument geliefert, warum die CPU nicht gut ist, sondern einfach nur ein wenig gestänkert. Wenn du anderen technische inkompetenz vorwirfst, solltest du mehr ab liefern, als dieses lauwarme Lüftchen, da muss ein richtiger Stinker kommen, mit dem man gegen die anderen anstinken kann!
 
  • Gefällt mir
Reaktionen: Col. Jessep, Booby, TechFA und eine weitere Person
Ich schrieb nicht, dass das Teil perse schlecht ist, ich schrieb überbewertet - weil manche so tun als ob das der totale x86 Killer sei.
Außerdem muss es kein 5950X sein, selbst die Mobil CPUs von AMD schlagen sich da gut. Bei Intel sieht das aktuell sicher schwieriger aus: https://www.cpu-monkey.com/de/compare_cpu-apple_m1-1804-vs-amd_ryzen_7_5800u-1763

Deine Argumentation ist schwierig. Ich schreibe dir, dass eine Rezension Müll war, weil sie auf schlechter Grundlage fußt und du antwortest: Du lieferst ja gar nicht.

Dann führe ich aus, dass Apple Vorteile durch Kompromisse 'erkauft' (womit der o.g. Vergleich vermutlich noch besser für AMD ausgehen würde, wenn nur Benchmarks mit LPDDR4X herangezogen würden).
Deine Antwort: Das ist kein Argument.

Deine Resistenz und Verdreherei sagt mir, dass weitere Unterhaltung mit dir Sinnlos ist.
Alles was ich schreiben könnte, würde von dir entweder als irrelevant abgetan oder wieder in völlig falsche Zusammenhänge geschoben. Du darfst jetzt alleine weiter pandastisch stinken.
Ergänzung ()

DoSBos_74 schrieb:
Das sind alles Eigenschaften der konkreten Implementierung für den M1, welcher sich eher nicht an Poweruser richtet. Auch das kombinierte Packaging von Ram und SoC von TSMC dient eher einem kleineren PCB design. Signifikante Latenzvorteile gibt es dadurch nicht.
Der Latenzvorteil hält sich natürlich in Grenzen - aber du erhälst aufgrund der kurzen Signalwege einen massiven Bandbreitenvorteil. Hier wird perse auf LPDDR4X gesetzt - das bringt auch bei Ryzen U noch mal spürtbar Leistung, insbesondere bei GPU-lastigen Arbeiten. Aufgrund der mangelnden Flexibilität (und auch entfallenden Reparierbarkeit durch simplen Austausch der Module) ist das aber ein erkaufter Kompromiss.
Inwieweit der rieseige L2 statt eines großen L3 Caches hier Einfluss hat und was da künftig auf ARM/X86 Seite passiert, vermag ich nicht einzuschätzen.
Hier wird AMD möglicherweise auch mobil mit dem gestackten Cache arbeiten.

Weltuntergansszenarien wie "ARM wird X86 töten" sehe ich noch lange nicht. Sie haben durchaus gut vorgelegt, wie es weiter geht werden sie erst beweisen müssen. Bei AMD lässt sich das ja inzwischen gut sehen:
Der erste Schlag war böse, alle weiteren waren kleiner und mit immer mehr Aufwand verbunden.

Edit: Es war auch nicht ihr Erstlingswerk, schließlich verbaut Apple schon viele Jahre eigene ARM Prozessorgen in iOS Geräte.

Edit2: Ich vergas, insbesondere für "alleskeinargumentepanda": AMD fertigt das Vergleichsprodukt noch in 7 nm - Apple schon in 5. Wie sich das AMD-Pendant bei 5 nm Fertigung schlagen würde, kann man nur spekulieren. Die Strukurgrößen sind dann auch Verdienst von TSCM, nicht Apple oder AMD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Draco Nobilis und LamaMitHut
So lange keine Zertifizierung für AMD Systeme gibt. Sehe ich da eher weniger Möglichkeiten hier zu wachsen.

Keiner wird seinen ESXI Cluster mischen

Betreibe mehrere AMD Server dort ist keine Zertifizierung erforderlich. Sobald Zertifizierung ins Spiel kommen wird's eng für AMD.

Leider
 
  • Gefällt mir
Reaktionen: medsommer und Onkel Föhn
Nagilum99 schrieb:
Der Latenzvorteil hält sich natürlich in Grenzen - aber du erhälst aufgrund der kurzen Signalwege einen massiven Bandbreitenvorteil.

Nur wenn die Signallaufzeit so hoch wird, dass diese zu lange für einen pipelining Takt wird.
Ansonsten wird natürlich Crosstalk irgendwann zum Problem, allerdings ist man da noch weit von dem Punkt entfernt, bei dem es nicht mehr ausgeglichen werden kann.
 
DoSBos_74 schrieb:
Nur wenn die Signallaufzeit so hoch wird, dass diese zu lange für einen pipelining Takt wird.
Ansonsten wird natürlich Crosstalk irgendwann zum Problem, allerdings ist man da noch weit von dem Punkt entfernt, bei dem es nicht mehr ausgeglichen werden kann.
Wir sind mit jeder Generation erneut an dem Limit. ;-)
Deswegen wird LPDDR4X ja auch nur aufgelötet angeboten.
konkretor schrieb:
So lange keine Zertifizierung für AMD Systeme gibt. Sehe ich da eher weniger Möglichkeiten hier zu wachsen.

Keiner wird seinen ESXI Cluster mischen

Betreibe mehrere AMD Server dort ist keine Zertifizierung erforderlich. Sobald Zertifizierung ins Spiel kommen wird's eng für AMD.

Leider
Ich kenne niemanden der das Problem der Zertifizierung hat, vermutlich ein Randproblem.

Klar will keiner mischen (auch abseits AMD nicht), weil es die Poolfähigkeiten mindert. AMD = Neuer Pool!
 
Nagilum99 schrieb:
Wir sind mit jeder Generation erneut an dem Limit. ;-)

Im Consumer Segment und vor allem bei Low Power Speicher bei weitem nicht.
Da ist GDDR6X oder HBM schon viel problematischer. 128b Parallel bei 2133mhz sind ziemlich unproblematisch.

Da habe ich selbst schon deutlich anfälligere Schaltungen entworfen und gedebugt.
Im Netzwerk und Funktechnik, sowie im FPGA und spezial ASIC Bereich gibt es da viel kritischere Szenarien.
 
konkretor schrieb:
@Nagilum99 SAP kannst nicht drauf betreiben, keine Freigabe. SAP ist schon sehr weit verbreitet
Tatsächlich wüsste ich aus dem Stehgreif nicht, wer (direkt) mit SAP zu tun hat.
Wobei ich aber nicht nachvollziehen kann, warum SAP da so hinter'm Mond lebt.
Ergänzung ()

DoSBos_74 schrieb:
Im Consumer Segment und vor allem bei Low Power Speicher bei weitem nicht.
Da ist GDDR6X oder HBM schon viel problematischer. 128b Parallel bei 2133mhz sind ziemlich unproblematisch.
Man wird aus gutem Grund die Spezifikation für DDR4 bei 3200 begrenzt haben - um mit DDR5 dann höher anzusetzen. AFAIK ist das Problem nicht das reine Platinenlayout/die Leitungsführung sondern (auch und immer mehr) die Sockel und die dazu nötigen Kontakte/Übergänge.
 
Nagilum99 schrieb:
Man wird aus gutem Grund die Spezifikation für DDR4 bei 3200 begrenzt haben - um mit DDR5 dann höher anzusetzen. AFAIK ist das Problem nicht das reine Platinenlayout/die Leitungsführung sondern (auch und immer mehr) die Sockel und die dazu nötigen Kontakte/Übergänge.
Afaik geht der interne Takt bei Dram nicht allzu weit hoch und eine Erhöhung des Buffer Faktors hat wiederum andere Einflüsse (Latenz und Kosten), wobei hier z.B. bei LPDDR4X und DDR5 wieder eine Verdopplung stattfand.

Die Brechung am Sockel ist ausgeprägter, allerdings ist auch dies mit den entsprechenden Vorkehrungen kompensierbar. Es gibt für FPGA Dev Boards sogar Steckbaren Dyn CMOS eSRAM.

Daisy Chaining wie bei der RTX 3090 ist da viel gruseliger. Das ist dann alles andere als trivial.
 
  • Gefällt mir
Reaktionen: Nagilum99
DoSBos_74 schrieb:
Afaik geht der interne Takt bei Dram nicht allzu weit hoch und eine Erhöhung des Buffer Faktors hat wiederum andere Einflüsse (Latenz und Kosten), wobei hier z.B. bei LPDDR4X und DDR5 wieder eine Verdopplung stattfand.

Die Brechung am Sockel ist ausgeprägter, allerdings ist auch dies mit den entsprechenden Vorkehrungen kompensierbar. Es gibt für FPGA Dev Boards sogar Steckbaren Dyn CMOS eSRAM.

Daisy Chaining wie bei der RTX 3090 ist da viel gruseliger. Das ist dann alles andere als trivial.
Tatsächlich liegt der Takt intern nur bei wenigen 100 MHz.

AFAIK waren beim Sockel sowohl Signalreflektionen als auch erhöhtes rauschen/verminderte Qualität das Problem - der Aufwand und die Kosten werden damit halt immer größer.

Daisy Chaining bei RAM? Kein TSV o.ä.? (Klingt schon ekelhaft)
 
g0dy schrieb:
Speziell im Servermarkt spielt Sympathie für einen Underdog keine große Rolle. AMD muss und wird weiterhin dranbleiben.

10% Marktanteil in wenigen Jahren in einem extrem verhärteten Umfeld zu schaffen ist schon aller Ehren wert!

Intel wiederum ist wie ein großer Tanker auf hoher See. Wenn das Ding einmal läuft braucht es ewig um zu bremsen.
Erläuter das doch bitte etwas.
Entweder:
Sympathie spielt keine Rolle => Leistung zählt = AMD
Sympathie spiel tkeine Rolle => Obwohl AMD underdog ist nehmen wir = Intel.

Soweit ich weiss nehmen BWLer immer das effizienteste.
In "Immer" steckt aber auch drin:
"Best practice", "don't touch a running System" und "Bauch sagt neeeeein"
 
Zurück
Oben