News Skylake-EP/EX: 32-Kern-CPU als Sample in China zum Verkauf

Malar schrieb:
Also ich hätte liebend gerne eine 32-Kerne CPU im bezahlbaren Bereich, da man immer mehr Software pro Sockel lizensiert.

Also ich weiß nicht, von welcher Software Du redest. Gerade weil es immer mehr Kerne pro Sockel gibt, wird zunehmend nach Kernen lizensiert. Aktuellstes Beispiel: Windows Server 2016.
 
Nett, bin schon auf die nächsten Super-Computer gespannt.


Ich hoffe ZEN kann da mitspielen.
 
Brian McDonald schrieb:
Und wieso schreibt hier keiner Compilieren von Software als Anwendungszweck rein?
Was compilierst du denn dass du unbedingt 32 Kerne brauchst? Das lohnt sich wohl nur bei Betriebssysteme oder vergleichliches.
Der Großteil der Dinger wird wohl für Datenbanken, VMs und Rechenzentren draufgehen.

Ich verstehe auch nicht wieso hier einige meinen dass die CPU jetzt wegen Zen kommt oder deswegen 32 Kerne bietet. Das ist eine Server-CPU, da geht es bei Intel seit jeher voran, unabhängig von AMD.
 
Popey900 schrieb:
Nett, bin schon auf die nächsten Super-Computer gespannt.


Ich hoffe ZEN kann da mitspielen.

ja das wäre wünschenswert, da in diesem Bereich viel Geld liegt, allerdings sehe ich nicht wie viele andere hier das Problem/Schwierigkeit, bei Anzahl der Kerne(bez. Zen), ehr in Sachen Verbrauch...:rolleyes:
mal schauen was da kommt :freaky:
 
Cytrox schrieb:
Der Sockel erinnert etwas an diese Open Compute Platform von IBM & Co. Wenn die noch größer werden könne man bald überlegen gleich ein ganzes Board statt nur der CPU zu verkaufen.

ja genau bringt intel nur wieder auf die ide mit aufgelöteten cpu is da ma das Mb defekt kannste gleich drölftausend euro ausgeben für neuanschaffungen die so vieleicht paar euro kosten
 
ayanamiie schrieb:
is da ma das Mb defekt kannste gleich drölftausend euro ausgeben für neuanschaffungen

Wann ist bei dir das letzte Board Kaputt gegangen? Weiteres ist ein RMA Ablauf mit Intel vermutlich alle male angenehmer als mit irgend einem Boardhersteller.

Aber ganz unabhängig davon, Intel hat ja schon bei Haswell/Broadwell versucht die MoBo VRMs in die CPU mit rein zu packen. Sie sind zwar z.T. daran gescheitert aber man sieht ganz klar in welche Richtung das ganze geht. Was bleibt da noch großartig über für das Board?


Angesichts der Tatsache wieviel Ärger und Einschränkungen diese Pins nach sich ziehen wäre es imho durchaus eine Überlegung wert sie demnächst wohl los zu werden, anstatt in Zukunft dann Sockel mit 5000 pins zu haben und Boards die fast so teuer sind wie CPUs selbst (weil sie versuchen um die Limitierungen des Sockels herum zu arbeiten).
 
Also mit AMDs Treiben hat dies nichts zu tun. Das ist nix weiter als die logische Fortsetzung der Entwicklung der letzten Jahre.
Ein weiterer Schritt in Richtung Parallelisierung und gesteigerter Energieeffizienz.
 
Richtig interessant wird dessen Nachfolger, sollte dieser bereits in 10 nm kommen.
Für die meisten nutzlos, aber im professionellen Bereich durchaus sinnvoll!
 
Also ich muss mich wundern wieso viele Schreiber hier das mit AMD in Verbindung bringen, wo doch der Text schon eine klare Aussage dazu macht. Aber Lesen und Verstehen scheint nicht jedem leicht zu fallen. :freak:

Malar schrieb:
Also ich hätte liebend gerne eine 32-Kerne CPU im bezahlbaren Bereich, da man immer mehr Software pro Sockel lizensiert.
Noch mehr wird pro Kern lizensiert, aber beides betrifft wohl kaum Software für Heimanwender und Profis werden dann damit auch Geld verdienen und sollten sie daher die HW dazu auch leisten können. Außerdem wird es mit mehr Kernen oft sogar günstiger eine bestimmte Rechenleistung zu erreichen, weil man dann weniger drum herum braucht, also z.B. nur ein Rechner mit CPUs mit 32 Kernen statt zwei mit solche mit nur 16 Kernen benötigt wird. Die CPU sind ja nur ein Teil der Kosten eines Systems und keiner schaut am Ende wie viel die nun ausmachen, sondern will nur wissen was am Ende alles zusammen kostet.

Simon schrieb:
Für virtualisierte Server sind die ganz dicken SKUs einer Serie meistens nicht so gut geeignet, da oft durch RAM limitiert.
Eben, die ganze Kerne müssen auch mit Daten gefüttert werden und daher bekommen die Speicherkontroller ja auch immer mehr Kanäle damit die Kerne ausgelastet werden können. Da dürfte auch ein Grund liegen, warum Intel für den Mainstream Sockel bisher maximal 4 Kerne anbietet, dann um mehr vernünftig nutzen zu können, wären mehr als Dualchannel RAM sinnvoll, nur treibt das die Kosten wieder in die Höhe und der Mainstream ist nun einmal sehr kostensensibel.
 
Wishbringer schrieb:
Bei den aktuellen Speicherverwaltungs-Techniken von ESXi (overcommit, overprovisioning, balloning, compress und deduplication {KSM/TPS}) wird man auch mit 256GB Ram gut auskommen.
Normalerweise werden 2GB pro Kern empfohlen => 32 Kerne == 64GB Ram
Bei einem 4-Prozessor Serverboard == 256GB Ram

Also bei uns laufen ca. 80-100 Clients auf 20-24 Cores (+HT = 48)), Jeder Client hat zwei CPUs und 2 GB-4GB RAM das läuft im Bürobereich ganz ordentlich. Da die VMs auch immer wieder durch Updates nahezu alle gleichzeitig arbeiten bzw. neu starten, braucht so ein Server real mehr als 256GB eher 384-512 MB. Bei der Virtualisierung von Hochleistungsmaschinen sieht das Core/RAM-Verhältnis sicherlich anders aus..
 
Kommt halt immer darauf an für was man die Server benötigt. Je nach Einsatzgebiet kann eine VM auch mehrere 100 GB RAM benötigen, von daher finde ich solche pauschale Aussagen immer etwas schwierig. Klar, für eine RDS Farm kann man overcommitten bis zum geht nicht mehr.
Zu den Kosten: man darf nie vergessen wieviele Kosten ein Server völlig unabhängig von dessen Leistung verursacht. 2-4 Verbindungen zu Switches, zum Storage, Platz im Rack,...je höher die Leistungsdichte, desto besser (gut, ich pauschalisiere jetzt auch ;). Grundsätzlich - natürlich gibt's Ausnahmen. Ob sich der Aufpreis für die vielen Kerne lohnt ist dann völlig abhängig vom Einsatzgebiet.
 
Piak schrieb:
was mich interessiert..wer bekommt solche CPU's immer schon so früh? und was ist so paralellisiert, dass solch eine CPU sich lohnt?
Wir z.B. *hust* ;-) .
Simulationssoftware kann nicht genung CPU leistung haben. Dort ist Simulationszeit = Design Turnaround-Time = Geld.

Und äh (wenn man k.A. hat ..): ja Compileren ist sehr wohl auch ein Anwendungsfall. Jede hablwegs komplexe Anwendung kann lange Kompilieren und in in Zeiten von ContinousDelivery/Integration ist Kompileren = Code Turnaround-Time = Geld.
 
hrafnagaldr schrieb:
Also ich weiß nicht, von welcher Software Du redest. Gerade weil es immer mehr Kerne pro Sockel gibt, wird zunehmend nach Kernen lizensiert. Aktuellstes Beispiel: Windows Server 2016.

ESXi, Veeam um Brot & Butter Software zu nennen.
 
808y schrieb:
Und äh (wenn man k.A. hat ..): ja Compileren ist sehr wohl auch ein Anwendungsfall. Jede hablwegs komplexe Anwendung kann lange Kompilieren und in in Zeiten von ContinousDelivery/Integration ist Kompileren = Code Turnaround-Time = Geld.
Und was machst du während es compiliert? Däumchen drehen? Wohl eher nicht.

Solche Teile muss man idR. auch nicht ständig immer wieder komplett neu erstellen. Da langt es auch mal nur das Modul neu zu compilieren an dem man gerade gearbeitet hat.

Ich habe bereits an komplexe Software gearbeitet und hatte "nur" einen 8-Kerner mit 2,4 oder 2,6 GHz zur Verfügung. Den ganzen Spaß zu Compilieren hat dann halt mal 20-30 Minuten gedauert. Da wird in der Zeit halt etwas anderes gemacht oder z.B. über die Mittagspause laufen gelassen. Da holt man sich dann bestimmt keinen 32-Kerner.

Klar gibt es auch Ausnahmen wo sich so ein Teil lohnt, aber das habe ich ja bereits gesagt.
 
808y schrieb:
Dort ist Simulationszeit = Design Turnaround-Time = Geld.
Dann kann man die Investition in schnellere HW ja auch begründen und vor allem wieder reinholen. Das ist im geschäftlichen Umfeld ganz anderes als bei den Heimanwendern wo die Rechner Hobby sind und im Grunde immer ein Verlustgeschäft.
 
Malar schrieb:
ESXi, Veeam um Brot & Butter Software zu nennen.

VMware hat das noch, aber freunde Dich schonmal mit dem Gedanken an, dass das bald rum ist. Die sind ja auch nicht blöd. Und Veeam hat das Lizenzmodell schon immer an die vSphere Editionen angepasst gehabt.

Je mehr Kerne es pro Sockel gibt, desto mehr Hersteller werden auf ein Kern-Lizensierungsmodell umsteigen. Die wollen ja auch Geld verdienen. Microsoft machte da mit SQL und Windows Server nur den Anfang (wobei SQL ja noch klassisch Server/CAL anbietet).

Das sind alles noch Lizenzmodelle, die kaufmännisch auf acht Kerne pro Sockel ausgelegt waren.
 
S.Kara schrieb:
Und was machst du während es compiliert? Däumchen drehen? Wohl eher nicht.

Solche Teile muss man idR. auch nicht ständig immer wieder komplett neu erstellen. Da langt es auch mal nur das Modul neu zu compilieren an dem man gerade gearbeitet hat.

Ich habe bereits an komplexe Software gearbeitet und hatte "nur" einen 8-Kerner mit 2,4 oder 2,6 GHz zur Verfügung. Den ganzen Spaß zu Compilieren hat dann halt mal 20-30 Minuten gedauert. Da wird in der Zeit halt etwas anderes gemacht oder z.B. über die Mittagspause laufen gelassen. Da holt man sich dann bestimmt keinen 32-Kerner.

Klar gibt es auch Ausnahmen wo sich so ein Teil lohnt, aber das habe ich ja bereits gesagt.

1. "Solche Teile muss man idR. auch nicht ständig immer wieder komplett neu erstellen": ContionusDelivery -> ContinousIntegration -> ContionusBuild und es gibt mehr wie einen Entwickler ... .
2. Hast du gerade selbst gesagt, das man eben nicht weiter an der eigentlichen aufgabe Arbeiten kann und "etwas anderes" machen "kann".
3. Die Annahme das man nur 1x Compilieren muss ist wennig sinnvoll weil man Änderungen in sehr kleinen Bausteinen abliefert und testet. Dies impliziert weit mehr als nur 1x am Tag Compilieren. Wenn ich 5x Compiliere bei 20-30 min, entspricht das 2-3 Stunden an einem 8 Stunden Arbeitstag, wenn mir eine neue Machine 33% schneller kompiliert, dann spare ich 1 Stunde.
 
hrafnagaldr schrieb:
Je mehr Kerne es pro Sockel gibt, desto mehr Hersteller werden auf ein Kern-Lizensierungsmodell umsteigen. Die wollen ja auch Geld verdienen.

Intel müsste mal fies werden und ein Kern CPU mit 50GHz bauen. :)
Ergänzung ()

808y schrieb:
3. Die Annahme das man nur 1x Compilieren muss ist wennig sinnvoll weil man Änderungen in sehr kleinen Bausteinen abliefert und testet. Dies impliziert weit mehr als nur 1x am Tag Compilieren. Wenn ich 5x Compiliere bei 20-30 min, entspricht das 2-3 Stunden an einem 8 Stunden Arbeitstag, wenn mir eine neue Machine 33% schneller kompiliert, dann spare ich 1 Stunde.

Erinnere mich noch wie ich meinen armen 386 ein Wochenende lang quälen musste für X11 Kram aber habt ihr so große Projekte?

Vor vielen Jahren habe ich mal aus Nostalgie einen Linux Kernel gebaut als ein Server ins Haus kam. Ich war platt als er in nur etwas über einer Minute fertig war.
 
Zurück
Oben