News Opteron 1100: AMD-CPU mit 8 ARM-Kernen und 12 MB Cache bei 32 Watt

Ohne Treiber kein stabiler Server.

Das dürfte wohl ein großer Knackpunkt sein.

Ansonsten dürfte ein Board mit diesem SOC
doch eine gute Basis für einen (heimischen Ubuntu-)Server sein. ;-)

Ich würde jedoch befürchten
dass die Unterstützung für so ein Board
für den normalen Endkunden eher nicht gegeben sein wird.
Da steht man evtl. schon nach kurzer Zeit im Regen.
 
Es steht und fällt immer mit dem Software Angebot. Entweder man benutzt x86 Software, die teuer ist, oder man lässt für arm entwickeln, was noch teuerer wird.
 
rg88 schrieb:
und diese Cloud besteht aus? Richtig! Das ist auch der Einsatzzweck für diese Geräte. Solche Server wird man eher nicht im Serverkämmerchen neben den Putzmitteln in einem mittelständischen Unternehmen finden ;)

Kleine Rechnung:
1 Kern geht für die SoC-Steuerung drauf, bleiben noch 7 übrig.
Darauf kommen 7 virtualisierte Server und das bei 35Watt Maximalverbrauch für CPU und einem Großteil des Chipsatzes (da SoC). Dann noch bei einem Preis unter 150€ für den Chip. Da kann soleicht kein x86-System mithalten.

Das interessante ist letztlich, was das gesamte paket kostet und das fällt doch recht individuell aus. Rein auf die TDP bezogen gibts auch irgendwelche Intel Atormgurken mit 8Kernen bei 20watt. Ist zwar insgesamt schlechter aufgestellt, ab für ein system was am Ende dann hauptsächlich rumidled auch okay. Am ende kommt man da wohl auf nen ähnlichen verbrauch. Bin mir recht sicher, ob Intel in die richtung weiterentwickelt hat. Zumindest ist es durchaus möglich in ähnlichen regionen zu landen.
 
@D708: In diesem Bereich geht es um Linuxserver und bereits vorhandene ARM-Software wie eines LAMP-Servers.

@Fred: redhat, suse, enea, Linaro sind die ARM-Plattformen, welche den SoC unterstützen laut den Bildern im Artikel
 
Ob das Ding APU, CPU, SoC heißt was die geforderten Services liefert ist dem Betreiber und damit Kunden egal. Wichtig ist, dass kostenverursachende Parameter klein und gewinnbringende Parameter groß sind. Schafft ein dicht gepackter Rack mit dem AMD SoC nicht mindestens die selbe Leistungsdichte je € (Betrieb und Anschaffung) wie etablierte X86er Installationen, dann ist das Ding nicht attraktiv.

Wobei 1VM je Core wie du es geschrieben hast für viele Anwendungen einfach viel zu wenig wäre.
 
Die direkten Gegenspieler sind beim Xeon D 1518 bzw. 1521 zu suchen. Das sind zwar jeweils nur 4-Kerner mit SMT, dürften aber trotzdem keine Probleme mit 8x Cortex A57 haben. Der Rest ist von den Features her vergleichbar. Auch der Preis.

Die größeren Xeon Ds mit 8 Kernen und 16 Threads sind völlig außer Reichweite.

Im Prinzip gibt es wenig Gründe, warum man jetzt auf den Opteron A1100 setzen brauch. Das Ding hat effektiv gegenüber dem Xeon D keinen sichtbaren Vorteil. Im Gegenteil. Man ist im Zweifelsfall sogar gezwungen, seinen kompletten Softwarestack auf eine andere Prozessorarchitektur umzustellen / zu optimieren, was eventuelle Kostenvorteile beim reinen Hardwarepreis gleich wieder zunichte macht.
 
Verglichen zu anderen Server-ARMs klingt das Angebot hier ziemlich verlockend. Es hängt dann eben auch am Preis.
Aber 2x10gbE 14x nativ SATA und dann noch 8x PCIe3, an die man auch noch mal einige Laufwerke anbinden kann, ist schon ein sehr gutes Paket.
Sofern die Prozessorkerne auch genug Leistung liefern, um eine vernünftige Auslastung der Festplatten simultan zu schultern, könnte das für ein paar Nischen interessant sein. Vor allem, wenn man es gegen Xeon D platziert aber dann im Preis massiv niedriger liegt.

Leider alles etwas zu spät dran und die Nische ist auch ziemlich klein.
 
Fusseltuch schrieb:
Schon klar, es ging mir nicht um einzeln kaufen. Aber 150$ sind doch ein ziemlicher Kampfpreis würde ich sagen. Auch wenn es nur der Chip selbst ist. Das Drumherum kostet dann vll nochmal 150$ und da stelle ich mir dann relativ preiswerte Platinen vor. Hatte jetzt mit 800$+ gerechnet, könnte aber günstiger werden.

<581$ Dollar ohne Board. Spekuliert 200 bis 300$. Aktuell kosten die Boards noch 3000$ (Softiron OVERDRIVE 3000).

http://www.whd.global/downloads/2015-global/mFtag2d.pdf

Lahme Krücke, X-Gene 2 schafft 2,8 GHz @ 35W TDP und 28nm TSMC.
 
Zuletzt bearbeitet:
@Piktogramm
Der Vorteil der 1100er liegt wohl eindeutig in der Konnektivität, das ist einfach eine perverse Anzahl an Anschlüssen.
 
Oromis schrieb:
@Piktogramm
Der Vorteil der 1100er liegt wohl eindeutig in der Konnektivität, das ist einfach eine perverse Anzahl an Anschlüssen.

Weil er 14 SATA Ports hat? Das ist einzig und alleine nur interessant wenn das Ding in eine Storage-Appliance kommt. Sonst nicht, ist ja kein Platz bei hoher Packungsdichte wie im Apollo. Der Storage kommt dann über Ethernet. Der Xeon-D hat auch 2x 10G.

[F]L4SH schrieb:
Aber 2x10gbE 14x nativ SATA und dann noch 8x PCIe3, an die man auch noch mal einige Laufwerke anbinden kann, ist schon ein sehr gutes Paket.

PCIe ist völlig egal, denn in Systemen ala Apollo mit hoher Packungsdichte ist kein Platz für PCIe Karten. Der Xeon-D hat auch 24 PCIe 3 und 8 PCIe 2 Lanes.
 
Zuletzt bearbeitet:
strex schrieb:
<581$ Dollar ohne Board.

Die Präsi stammt vom März 2015.
Dennoch sollte man richtig zitieren: "<<<581$ list" was bedeuten soll, dass die Preise deutlich unter dem Xeon liegen sollen.
Aus den "<45W" wurden ja nun auch 35 Watt.
 
@rg88

Deshalb steht auch noch dort laut Spekulation 200 bis 300$ und nicht nur <581$.
 
@strex: Die 150$ von harwareluxx werden wohl nicht einfach so aus der Luft gegriffen sein. Der Preis ist wohl mal wirklich ne Ansage, da gibts mit dieser Anzahl an Schnittstellen und sonstiger Ausstattung eigentlich keine Konkurrenz.
 
@rg88

150$ Dollar nur für den SoC. Das Board muss ja dann auch noch her. Also sind 200 bis 300$ doch nicht unrealistisch. Wenn er in Systeme wie Apollo kommt, würden mich 1000$ und mehr für eine Einheit auch nicht wundern, spielen doch bereits günstigste SoCs in dieser Liga.

Wenn ich wirklich günstig was haben will, weil SATA Ports für eine Storage-Appliance (super low cost appliance) möchte, dann greife ich zum C2750 mit eigenen Board. Wie es doch die einigen oder anderen machen. Denn dann bleib ich unter 150$ nur für den SoC.

Aber dann ist das wirklich nur lowcost. Es braucht doch schon ziemliche dicke Maschinen im Storage, um die heute angeforderten Bandbreiten zu bekommen und dies noch dynamisch zu verwalten (ala ZFS oder comstar) oder zu erzeugen.
 
Zuletzt bearbeitet:
strex schrieb:
PCIe ist völlig egal, denn in Systemen ala Apollo mit hoher Packungsdichte ist kein Platz für PCIe Karten.

Du vergisst Zusatzchips, die vom Mainboard-Hersteller direkt auf der Platine verlötet werden und per PCIe angebunden werden.
 
Limit schrieb:
Du vergisst Zusatzchips, die vom Mainboard-Hersteller direkt auf der Platine verlötet werden und per PCIe angebunden werden.

Und die wären, beleuchte uns? Das wären Mezzanine Cards für FC, Ethernet oder Infiniband. Davon haben die immer aus Platzgründen nur ein, zwei oder in dicken Blades 3 Slots. Da sprechen wir aber schon von großen Blades im c7000.

Der m400 (Apollo Plattform) zum Beispiel, hat gar keine Mezzanine Cards oder Ports für PCIe. Da ist auch nichts auf dem Board außer dem integrierten Ethernet oder Infiniband Ports. Braucht er ja nicht, für hohe Packungsdichte ist das nur im Weg.

http://h20195.www2.hp.com/v2/GetDoc... guide&doclang=EN_US&searchquery=&cc=us&lc=en

Sehr viel Platz für PCIe Karten:

OnlineLabs-C1-Node-scaled-1.jpg

Oder im X-Gene m400:

m400cartridge_hand_0.jpg
 
Zuletzt bearbeitet:
Oromis schrieb:
@Piktogramm
Der Vorteil der 1100er liegt wohl eindeutig in der Konnektivität, das ist einfach eine perverse Anzahl an Anschlüssen.

Nach "perverser Anzahl an Anschlüssen" geht im professionellem Umfeld echt Niemand. Zwei Netzwerkanschlüsse aus Gründen der Redundanz ist nahezu Pflicht und damit eher Branchenstandard und 14Sata/Sas-Ports... Das ist eher wenig, solang keine Portmultis möglich sind. Wobei der SoC überhaupt erst einmal ein Storagearray von 14Laufwerken bewältigen können muss. Bei den Softwareraids bzw. dazu gänigen Dateisystemen braucht es derzeit recht dicke Maschinchen. Wenn der ARM SoC von AMD ein 14er Array verwaltet und ohne großartige Datenverarbeitung dessen Daten mit annähernd 10Gbit/s Bandbreite im Netzwerk zur Verfügung stellt wäre das bereits ein enormer Achtungserfolg.
Allein habe ich von irgendwelchen ARM Kisten bisher keine Zahlen gesehen, die das real erscheinen lassen könnten.

Zudem, 2x 10Gbit/s und 14 Laufwerke? In vielen Rechenzentren ist das keine Größenordnung für die sich interessiert wird. Das ist mindestens eine Größenordnung zu klein.
 
rg88 schrieb:
@D708: In diesem Bereich geht es um Linuxserver und bereits vorhandene ARM-Software wie eines LAMP-Servers.

@Fred: redhat, suse, enea, Linaro sind die ARM-Plattformen, welche den SoC unterstützen laut den Bildern im Artikel

Naja also für den Großen Markt von Servern, Industrie, entscheidet deren IT meist über die Software und du kannst mir vieles erzählen aber z.B. Man Kann man nicht ohne Probleme die Siemensserver auf ARM emigrieren. Also geh mal davon aus, die werden wohl auf ihrer Software bleiben. Gerade bei 150€ ist die Marge wohl ganz klar auf Massenumsatz gelegt. Ich halte ARM noch nicht dafür bereit groß zuzuschlagen. Erst wenn das umschreiben in ein Paar Minuten geht, hat ARM ne Chance. Dazu kommt, auch wenn ubuntu auf ARM läuft, ist es nicht das gleiche, wie das x86 Ubuntu. Man braucht optimierte Software.
 
D708 schrieb:
Gerade bei 150€ ist die Marge wohl ganz klar auf Massenumsatz gelegt. Ich halte ARM noch nicht dafür bereit groß zuzuschlagen.

Selbst AMD Mitarbeiter schätzen den Markt für ARM Server im Jahr 2017 nur auf 1 bis 2 Milliarden Dollar. Wenn man über optimistisch ist kann man auch gern 3 Milliarden Dollar schätzen. Das muss man sich dann mit den restlichen auch noch teilen.

http://armservers.com/2014/05/09/how-big-is-the-arm-server-market/
 
Zurück
Oben