News AMD Opteron „Naples“: 32-Kern-CPU mit Zen und extremer Ausstattung

@Dr. MaRV

Da man heute eh Richtung SDDC geht, arbeitet man kaum noch mit physisch getrennter Infrastruktur. Das wird nur verwendet, wenn es gesetzlich vorgeschrieben ist oder zwingende Gründe hat etwa ein Management Network. VLANs sind mit VXLAN eh passe und wer heute eine große Infrastruktur betreibt oder aufbaut will Richtung NSX oder ACI. Mit physisch ist dort nichts mehr.

Auch Lastspitzen von 160 Gbit/s wird die Kiste nicht packen. Deshalb stellt sich schon der Sinn dabei. Denn 160G sind 160G, wenn man die hat, will man die auch nur Kurzzeitig verwenden. Die Anzahl an Packets die auch bei der Lastspitze mit Wirespeed anfallen sind nicht bearbeitbar. Dazu sind die Zeiten der Interrupts der x86 Kisten viel zu hoch. Hat doch ein großer FPGA bei 100G schon so seine Probleme nur für die Bearbeitung der Packets.

Dr. MaRV schrieb:
Außerdem ist es dem Kunden völlig egal was in seinem Server arbeitet oder eingebaut ist. Der Kunde sagt dem Dienstleister was vor hat, der Dienstleister gibt es weiter an den Consultant der dann ein Projekt daraus macht und am Ende wird dem Kunde die für ihn passende Maschine geliefert und installiert. Ob das Ding darin dann 10, 20 oder 32 Kerne hat, tauchen, fliegen oder Kaffee kochen kann, ist völlig egal. Es muß einfach das machen, was der Kunde erwartet.

Der Kunde wird aber dumm schauen wenn er bei 16x 10G pro Server bei einem Rack mit 10 Servern (2 HE) 160x 10G Ports bezahlen muss. Gegen ein gutes Verhältnis zwischen Server und Anzahl Ports hat ja keiner etwas, da darf man sich aber nicht blenden lassen. Bei 160x 10G sprechen wir von 4x 5596UP mit einem Preis von 260.000€ @ Basic Liste. Der Core, der das aggregieren muss also Nexus 7000 zum Beispiel ist hier noch gar nicht genannt. Und dann sind wir schnell bei einer Oversubscription Rate so das ich eh nur 2x 10G pro Server habe. Useless..Cisco, Arista und Juniper werden sich freuen :evillol:

Da darf man sich wundern, wenn man so die DAX Konzerne anschaut, die Infrastruktur selbst aufbauen und verwalten und dazu fähiges Personal hat. Da sind Blade Center mit 8x BL660 mit 2x 10G und max 4x 10G angebunden und das ist die Regel. Auslastung der Links mangels Leistung oft nicht der Rede wert.

Aktuell gäbe es kein Blade Center das bei einem Blade mit 16x 10G, bei 8 Slots nur annähernd die Kapazität bei Midplane hat oder Uplink Ports das überhaupt anbinden könnte. Rechnen wir dann noch 8 NVM SSDs über Fabric dazu wäre die Midplane riesig und somit extrem teuer.
 
Zuletzt bearbeitet:
@Dr. MaRV

Der Trend geht bestimmt nicht dazu hin, für die Netztrennung für jedes Netz wieder mit einzelnen Links anzufangen. Der Trend geht eher in Richtung weniger Links, dafür mehr in Richtung SDN & VXLAN, wo mitunter hunderte verschiedene Traffic-Arten über wenige Ports laufen.

Die 16 x 10G würden auch nur Sinn ergeben, wenn man sie ggf. zu 4 x 40G bündeln könnte, um dann mit QSFP nach außen zu gehen.

@News

Ich vermute mal, die 128 PCIe Lanes beziehen sich auf ein Dual-Socket-System, also 64 pro CPU. Alles andere wäre eine reine Verschwendung von Ressourcen. Was will man sonst mit 256 PCIe Lanes auf einem Mainboard anfangen. Selbst für Enterprise-Anwendungen fällt mir da kaum ein sinnvolles Szenario ein.

Allerdings darf man nicht außer acht lassen, dass Skylake-EX neben den 48 PCIe Lanes auch ggf. 2x 100 Gbit/s OmniPath Fabric auf der CPU sitzen hat. Wenn AMD etwas vergleichbares auf Infiniband EDR Basis separat lösen will, gehen ja für die beiden Infinibandports schon alleine 32 PCIe Lanes weg. Von 2x 64 bleiben auch da dann nur noch 2x 48 Lanes übrig, womit man mit Skylake-EP/EX gleichziehen würde.

Zumal es ja auch noch IBM POWER9 mit PCIe 4.0 und NVLink gibt...
 
Ob es irgendwann mal jemandem gelingen wird, einen Thread aufzubröseln und von x Kernen abarbeiten zu lassen? Durch einen intelligenten Cache der jeweils eine Millisekunde CPU Zeit zwischenpuffert und dann die Arbeit aufteilt zum Beispiel? Wo sind die schlauen Köpfe der Industrie hin? Das wäre DAS Killerfeature.
 
deo schrieb:
Ich bin mir sicher, dass Zen konkurrenzfähig ist. Allerdings hat AMD dermaßen niedrige Marktanteile, dass sie bei großen OEMs nicht mehr berücksichtigt werden könnten, auch wenn sie konkurrenzfähiges anbieten.
.

Deshalb auch die Zusammenarbeit mit chinesischen Firmen, zu mindestens was die Server angeht. Vllt hat das ganze aber auch einen postiven Affekt auf die OEM-Produkte, China wäre kein kleiner Markt, speziell für Raven Ridge mit hoffentlich HBM.
 
@pipip: Soweit ich das mitbekommen habe, wird AMD da nichts verkaufen. Die Chinesen haben eine Lizenz für den Nachbau erworben, das ist zwar Kohle für AMD, aber an den späteren Verkäufen ist nichts verdient
 
@digitalangel18

An diesem "Inverse-Hyperthreading" haben sich schon einige versucht. Bislang mit eher überschaubaren Erfolg. Die aktuellsten dürften wohl Soft Machines sein. Für Mitte 2016 sind davon neue Kisten (Shasta) angekündigt.

http://images.anandtech.com/doci/10025/Presentation (3).jpg

Am Ende könnte es wieder so laufen: Viel Geld von Investoren verbrannt, nutz- und kaufbar ist nix.
 
Simon schrieb:
Die 16 x 10G würden auch nur Sinn ergeben, wenn man sie ggf. zu 4 x 40G bündeln könnte, um dann mit QSFP nach außen zu gehen.

Wäre da nicht das Problem der teueren 40G Ports. Das wäre Nexus 56xx, rein Chassis 41K + 40G Module im selben Preisrahmen pro Stück. Die meidet man aktuell so gut wie es geht, der Aufpreis ist zu teuer und dank FabricPath mit 16 Wege auch kaum notwendig. Wenn man da aber anfängt die Server mit 40G anzubinden müsste man auf die 100G Ports für Uplinks gehen. Und dann wird es exorbitant.

Deshalb stellt sich bei 16x 10G bei einem Server/Blade die Frage:

1) Warum brauche ich das, nutzbar in der Menge gleich null. Auslastung eh nicht möglich. Es ist ja auch für AMD unwirtschaftlich das Ding mit 10G Ports vollzustopfen die dann keiner verwendet oder verwenden kann. Das treibt den Preis der Möhre bloß in's unendliche.

2) Ist es wirtschaftlich? Wenn es keinen massiven Drop (1/10 vom aktuellen Preis) der Preise bei 10/40/100G kommt, ist die Anbindung zu teuer. Wäre ja teurer als der Server selbst.

Für mich, der aktuell solche großen Umgebungen plant, sind die 16x 10G ein Blendwerk. 4x 10G hätte gereicht und würde die Server wohl massiv billiger machen. Aber gut, vielleicht bringt ja einer noch für seine Infrastruktur eine gute Begründung dafür. Das würde mich schon interessieren, wie er das wirtschaftlich und technisch realisieren will, dass es dafür eine Begründung gibt. Da muss ich wohl mal beim nächsten Meeting mit Cisco und HP ansprechen warum das Sinn machen sollte. Die werden Dollar in den Augen haben :evillol:

Mich würde ja noch mehr interessieren wie die maximale RAM Kapazität ist. Da hängen wir gerade mit 2 TB pro Blade ganz schön am Limit.

Simon schrieb:
Zumal es ja auch noch IBM POWER9 mit PCIe 4.0 und NVLink gibt...

Hoffen wir mal, dass das noch 2017 was wird.
 
Zuletzt bearbeitet:
Prokiller schrieb:
amd wollte schon oft mit mehr kernen punkten... und? jedes mal ein flop
wird nicht anders sein dieses mal

em nope ... in den Bereichen bietet Intel ebenfalls diese Anzahl an Kernen ;-) und da wo man das Braucht wird Multithread eingesetzt z.b. VMware
 
32-Kern-CPU für was brauch man Sowas um das Atomkraftwerk zu steuern,
Cry Engine hat min. 10 Kern Support.(Quelle PCGH Tests) Vielleicht sogar viel mehr. Würd mich echt mal interessieren wo das Limit der Engine ist. Ergo eine 12Kern+ CPU ab ca. 2019 wenn man einen neuen PC braucht, wäre gar nicht mal so verkehrt. Und die Kernauslastung steigt ja nur, sie fällt auf keinen Fall.
 
@strex

Mit TCP/IP sehe ich das ein, aber wie schaut es mit RoCE aus?
 
Es muss ja was gescheites sein, wenn man eine 4K Xbox One und PS4 herausbringt. Da steckt doch überall eine AMD GPU drin ;) So schlecht steht AMD doch eigens gar nicht da, sie vertreiben ihre Chips eher unscheinbarer als Intel. ;) Ich bin auch gespannt was AMD da zauber wird/will/möchte...
 
Bei RDMA over Converged Ethernet kommt es auf die Message Size darauf an. Im Best Case gibt Mellanox 2 bis 3 fache Performance zu iWARP an. Problem bei RoCE bleibt aber immer noch der IP Layer, Interrupts sind bei x86 zu hoch. Deshalb auch erst gute Steigerung wenn Message Size hoch ist und die Paketzahl nach unten geht. Somit sinken auch die Interrupts.

Auch bei 3x Performance könnte ich die 160G nicht annähernd auslasten. Aber vielleicht hat das Ding auch die 20 fache Leistung der EX Reihe. Irgendein Gedanken muss AMD bei 16x 10G schon gehabt haben (falls es stimmt), man bläht das Ding ja nicht umsonst auf. Vielleicht steigt AMD ja in's Netzwerkausrüster Geschäft ein und will sich damit den Grundstein legen.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
ich denke die Zen Kerne werden nach wie vor mit etwa 30% weniger IPC daherkommen als die Intels, dafür aber in der Fläche kleiner ausfallen und SMT bieten.

Schon der letzte Excavator (ohne L3) ist im allerschlechtesten Fall nicht mehr als 40-45% von der Skylake IPC entfernt.

Du glaubst also AMD entwickelt 5 Jahre lang an einer völlig neuen Architektur mit SMT,
lässt JIM KELLER!! die grobe Kelle schwingen der ganze Aufwand für 10-15% IPC?

ROFLMAO!! HAHA!
Komplett unrealistisch!

Da dürfte es bedeutend billiger und leichter sein, nochmals 10-15% aus Excavator zu kitzeln.

Zen wird die Sandy, Ivy oder gar Haswell IPC garantiert erreichen.
Im schlimmsten Fall gehe ich von ca 15% unter Skylake aus, also ca. Sandy.
(Was lächerlich genug ist, wenn man bedenkt dass 4 Gen dazwischen liegen)


Auf dem Desktop sprechen wir von Nachfolger des AM3(+) Highendsockels.
Da gibt man sich nicht mit 16 Lanes ab.
 
Zuletzt bearbeitet:
drago-museweni schrieb:
Hmm sehr interessant ob dann die Chance besteht das auch auf dem Desktop mehr wie acht Kerne kommen 12 oder 16?
Eher gering, ich gehen davon aus, dass AM4 auf 8 Kerne beschränkt bleiben wird, denn für mehr Kerne müsste man bei den 95W TDP die für AM4 im Raum stehen, die Taktraten zu sehr senken und damit Singlethread Performance opfern, denn man kann mit Turbotakten zwar einiges ausgleichen, aber das hat Grenzen. Ich denke eher, dafür wird ein größerer Sockel kommen der dann die Server- und Workstation CPUs mit einem Die und bis zu 16 Kernen aufnehmen wird, darüber liegt dann der noch größere für die dicken CPUs mit zwei Dies im Gehäuse. So war es bei den Opterons ja auch bisher schon analog plant ja auch Intel über dem bisher größten S. 2011-3 einen noch viel größeren LGA 3647 vorzugehen. Das macht auch Sinn, denn man braucht künftig viel mehr I/O, also viel mehr PCIe Lanes für NVMe SSDs und Netzwerkports, aber eben nur bei einigen Anwendungen und bei anderen würde dies nur die Kosten unnötig in die Höhe treiben.

rg88 schrieb:
Vor allem bei Virtualisierung sind 16x 10 Gbit ne feine Sache bei 32 Kernen -> 4 Threads haben eine exklusive Gigabit-Leitung, wenn ich mir grade vorstelle wieviele Server man damit ersetzen und auf einer Maschine zusammen kann *habenwill* :D
Es geht weniger um Virtualisierung, es geht um BigData, da braucht man I/O wenn man die Daten auch noch auf die schnellen PCIe SSDs bringt und von dort weiterleiten muss. Also viele PCIe Lanes für die SSDs und viele schnelle Netzwerkports um diese weiterreichen zu können. AMD hat das erkannt und liefert entsprechend.

strex schrieb:
16x 10G Ports hätte man, könnte man aber nie auslasten.
Unsinn, die wird man schon sehr bald auslasten, denn beim Storage ist gerade die Revolution in Gang, von lahmen SATA/SAS SSDs auf NVMe, also PCIe SSDs und Supermicro hat den Wechsel für seine Storages schon angekündigt. Die bis zu 48 PCIe SSDs wollen angebunden werden, am Besten mit 4 Lanes pro Stück, da reichen 128 von einer CPU gar noch gar nicht einmal aus. Daher auch das 8 Kanal RAM Interface und eben auch viele Netzwerkports.
strex schrieb:
Da haben BL660 mit Quad Socket Xeon im Vollausbau schon Probleme mit 6x 10G. Da hat man aber schon 4x E5-4650 v3 mit 48 Cores. Die 160 GBit/s muss man auch befeuern können.
Und was machen die Kisten und wie viele NVMe SSDs hängen dran? Eben, euer Use-Case scheint nicht so viel Netzwerktraffic zu produzieren, aber es gibt auch andere Usecases und künftig kommen mit den noch viel schnelleren Storages noch mehr von der Art hinzu. Du hängt zu sehr an dem fest was Du jetzt machst und übersiehst total was gerade für ein Umbruch in Gang ist. Zum Glück ist AMD da viel weitsichtiger als Du es bist, denn die scheinen genau das geschaffen zu haben, was man z.B. für Konzepte wie Oracles Exadata braucht.
strex schrieb:
Alleine die 16x 10G Ports an eine Infrastruktur führen
Ist 40Gb/s InfiniBand denn etwa billiger?

strex schrieb:
Bezüglich den Lanes, auch wenn die 128 Lanes per Switch angebunden (bzw. die Mehrzahl davon) werden, müssen die auf die Slots ausgeführt werden.
Wer redet von Switches und Slots? Die werden (überwiegend) an NVMe SSDs gehen, also an eine Backplane an der die SSDs angeschlossen werden oder eben über U.2 Ports rausgeführt. Sonst würde es auch kaum Sinn machen, denn wer braucht schon 8 volle x16 Slots und kann auch entsprechende Karten mit einfacher Breite dort unterbringen und kühlen? Klar wird es das auch geben, wenn jemand GPU Computing extrem macht und alles mit Wasser kühlt, aber das wird eher die Ausnahme sein und spätestens bei den Lanes der zweiten CPU wären die Möglichkeit diese an normale Slots zu führen dann wohl erschöpft.

strex schrieb:
Sehen wir dann Preise von 5 bis 10K nur für's Board..nicht unwahrscheinlich.
So what? Das ist ja keine HW für Heimanwender und Bausparer, die ist für Unternehmen die genau wissen, dass sie damit Geld verdienen und gegenüber anderen Lösungen auch Geld sparen werden. In einem Storageserver mit 48 NVMe SSDs würden die Kosten des Mainboards dann im Vergleich zu denen der SSDs auch verschwinden, die juckt es also keinen ob das Board nun 5k oder 10k kostet.
 
Kasmopaya schrieb:
Cry Engine hat min. 10 Kern Support.(Quelle PCGH Tests) .

Naja, auf der PC Games Show, hat der AMD CEO gerade eben Polaris RX 480, 470 und 460 gezeigt und ein neues Video zu Zen, wo ein Tester Doom auf Zen spielt.
(Laut ihr sollen die Karten ab 29.01 verfügbar sein)
 
Holt schrieb:
Unsinn, die wird man schon sehr bald auslasten, denn beim Storage ist gerade die Revolution in Gang, von lahmen SATA/SAS SSDs auf NVMe, also PCIe SSDs und Supermicro hat den Wechsel für seine Storages schon angekündigt. Die bis zu 48 PCIe SSDs wollen angebunden werden, am Besten mit 4 Lanes pro Stück, da reichen 128 von einer CPU gar noch gar nicht einmal aus. Daher auch das 8 Kanal RAM Interface und eben auch viele Netzwerkports.

Da scheint sich einer auszukennen. Nicht, schauen wir uns den billigsten Fall an. Reines Routing/Switching von IP Frames, kein Storage, keine Anwendung nichts außer reines Packet Processing das 1:1 auf Cores skaliert. In dem Fall wird das Packet nur von einer Queue in die andere geschoben, es sind nur RAM, CPU, Bus und NIC beteiligt.

So was schaffen wir, rund 21 Mpps macht ungefähr um die 70 Gbit/s je nach Packet Size. Sind es nur 64k, bricht die Rate drastisch ein. Also weit weg von deinen 160 Gbit/s und das ist der beste Fall ohne jeglichen anderen Workload einer Applikation oder des Storages. Sprich reine Verarbeitung des IP Headers, dass brauchen alle deine Storage Systeme auch. Und die sollen jetzt wunder schaffen..Sorry vielleicht Ahnung von Storage aber sicher nicht vom Netzwerk.

So viel zu deiner Performance: http://networkengineering.stackexch...sics-vs-x86-general-purpose-routing-switching

Nicht ohne Grund setzen die Router und Switching Hersteller statt auf x86 auf ASICs. Wäre ja so einfach wenn man 160G einfach per Quad Socket Server bedienen könnte. 20x 10G Ports, Software Bridge ala OpenvSwitch und es läuft. Ist ja eh nur Geschiebe, also nichts rechenintensives. Leider nicht in der Realität.

Aber das kannst du ja einfach selber testen, Traffic Generator an deine 100G für den Server und mit Packets zuballern. Dann wirst du sehen wie schnell er die Grätsche macht. Es wäre so viel einfach, wäre das möglich, denn zwei dieser ZEN "Wunderkisten" könnten 160 Gbit/s Traffic managen, damit bräuchte es statt zig Blades nur noch zwei, um damit zig zehn tausend vm zu befeuern. Das geht aber auch nur in Holt's Welt.

Zu deinem schönen Supermicro wo du immer verwendest. Schon mal die Kiste (Full Flash) angeschaut, wird meist mit 2x 10G geliefert. Würde die mir bedienen können von der Performance wären zwei weitere 10G Ports wohl kein Problem. So viel zur Performance von Storage auf IP.

Holt schrieb:
Und was machen die Kisten und wie viele NVMe SSDs hängen dran? Eben, euer Use-Case scheint nicht so viel Netzwerktraffic zu produzieren, aber es gibt auch andere Usecases und künftig kommen mit den noch viel schnelleren Storages noch mehr von der Art hinzu. Du hängt zu sehr an dem fest was Du jetzt machst und übersiehst total was gerade für ein Umbruch in Gang ist. Zum Glück ist AMD da viel weitsichtiger als Du es bist, denn die scheinen genau das geschaffen zu haben, was man z.B. für Konzepte wie Oracles Exadata braucht. Ist 40Gb/s InfiniBand denn etwa billiger?

Reines SDN, Packet X von Queue 1 nach Queue 2 verschieben. Einfachste Applikation mit am wenigsten Last.

Holt schrieb:
Ist 40Gb/s InfiniBand denn etwa billiger?

Zu einem low latency Ethernet wie Nexus 6k, durchaus. Bei weitem sogar wenn man bedenkt, dass die Hersteller, falls man Storage anbinden lassen möchte sich die Lizenzen dafür sehr teuer bezahlen lassen. Einfach mal ansehen was die FCoE der Nexus Infrastruktur kostet, das gibt's bei Infiniband umsonst.

Holt schrieb:
Sonst würde es auch kaum Sinn machen, denn wer braucht schon 8 volle x16 Slots und kann auch entsprechende Karten mit einfacher Breite dort unterbringen und kühlen? Klar wird es das auch geben, wenn jemand GPU Computing extrem macht und alles mit Wasser kühlt, aber das wird eher die Ausnahme sein und spätestens bei den Lanes der zweiten CPU wären die Möglichkeit diese an normale Slots zu führen dann wohl erschöpft.

So gut wie alle. Denn wer ein so massive Netzwerkinfrastruktur aufbaut, wir sprechen hier ja von zig Millionen, fährt damit HPC. Sprich Omnipath, Infiniband, FPGA, GPU,.. alles Anwendungen mit PCIe Hunger. Nichts anderes macht man mit den Power8 Systemen, die liefern auch jede Menge, da kommt aber kein Idiot darauf den Storage darauf zu betreiben.

Der Rest fährt mit Pizzaboxen und 1G, wenn es hochkommt per 10G.

Die meisten befinden sich eh erst beim Umstieg auf 10G und der ist noch lange nicht abgeschlossen: http://www.prnewswire.com/news-rele...tage-of-volume-server-adoption-191808991.html

Die haben keine Infrastruktur für 160 Gbit/s pro Server.

Holt schrieb:
Wer redet von Switches und Slots?

Weil die Großzahl alle Server max. 1 bis 2 Disks haben. Blades sowie so, haben ja gar kein Platz, wenn überhaupt noch. Die meisten verkauften Server sind einfache Pizzaboxen, da ist nichts mit dicken Storage oder wo für man die Zahl an Lanes bräuchte für SSDs. Da gibt es doch deine Variante, EMC, Netapp,.. braucht ein paar mehr nicht, die basteln sich eh selbst.

Holt schrieb:
So what? Das ist ja keine HW für Heimanwender und Bausparer, die ist für Unternehmen die genau wissen, dass sie damit Geld verdienen und gegenüber anderen Lösungen auch Geld sparen werden. In einem Storageserver mit 48 NVMe SSDs würden die Kosten des Mainboards dann im Vergleich zu denen der SSDs auch verschwinden, die juckt es also keinen ob das Board nun 5k oder 10k kostet.

Die kaufen sich eine fertige Lösung von EMC und co., da bastelt keiner seinen Storage. Irgendwie vergisst du das der Storage der kleinste Markt ist. Die wollen möglichst billige Pizzaboxen mit max. Leistung und Stromverbrauch.
 
Zuletzt bearbeitet:
@strex
Ich hatte da direkt einen Anwendungsfall im Kopf, der bezieht sich auch auf eigene praktische Erfahrung.Die liegt nur 20 Jahre zurück ;)
Ein CAD-Büro, 10 Workstations. 10 nervig laute Maschinen und ein Server zur zentralen Datenspeicherung.
Von den 10 Plätzen waren meist nur 4-5 belegt, und am Tag ging 50% der Zeit für Planung & Dokumentation drauf.
D.h. von 10 persönlichen Arbeitsplätzen waren am Tag nur 50% in Betrieb und haben zusätzlich nur 50% der Betriebszeit zum rendern gebraucht. 10 vollausgerüstete CAD-PCs, die nicht billig, trotzdem leistungsmäßig nur Mittelklasse waren.

Jetzt bietet die CPU massig Kerne und genügend schnelle LAN Ports. Man könnte doch EINEN schnellen Server mit ein paar dicken Worstation Grakas + 10 schlanke Clients (ITX mit diskreter 10G Karte) aufbauen?! Jeder Platz kann dann auf volle Rechenleistung - vor allem lagfrei - zugreifen. Alle zusammen wird quasi nie passieren.

Ich kenn' mich mit den grßen Netzwerkgeschichten nicht aus, es wäre sinnlos mich jetzt mit Fachbegriffen, bzw Bezeichnungen anderer Lösungen zu überschütten.
Vielleicht kannst Du mir einfach sagen, ob das ein sinnvolles Einsatzgebiet wäre, und wenn nicht, warum (nicht)?
 
EchoeZ schrieb:
Jetzt bietet die CPU massig Kerne und genügend schnelle LAN Ports. Man könnte doch EINEN schnellen Server mit ein paar dicken Worstation Grakas + 10 schlanke Clients (ITX mit diskreter 10G Karte) aufbauen?! Jeder Platz kann dann auf vollte Rechenleistung - vor allem lagfrei - zugreifen. Alle zusammen wird quasi nie passieren.

Dafür bräuchte es aber keine 160 Gbit/s..SDN ist gerade ein Gebiet das kommt. SDN Controller managen den Traffic, brauchen dafür aber kaum Leistung und haben so eine gute Bandwidth/CPU Leistung. Aber keiner der aktuellen Systeme schafft 160 GBit/s nur für Routing Switching. Da ist die CPU am Limit, trotz Zero Copy und anderem...

Aber ich weiß, Holt liefert 20 GB/s über 16x 10G per IP und tausenden Verbindungen..pro Node. Am Besten noch per NFS.
 
Zurück
Oben