News Skylake-EP/Cannonlake-EP: Purley-Plattform mit DDR4‑2933, 4 × 10‑GBit‑LAN & Omni Path

Da E immer die "Kinder-Version" von EP ist, sollte das im Normalfall auch so sein. Haswell-E bekommt jetzt genau wie Haswell-EP einen Nachfolger in 14 nm, Broadwell-E/EP. Dann hat die Plattform wieder 2 CPU-Serien mitgemacht wie die zuvor auch (Sandy-E/Ivy-E) und der Nachfolger steht an.

Evtl specken sie aber einen Zwischenschritt ab, es gibt ja aktuell ja auch noch die EN-Serie mit Triple-Channel-RAM und Sockel 1356: https://www.computerbase.de/2015-01/haswell-en-sockel-lga-1356-4-bis-10-kerne-ddr3/
Dieser wird aktuell quasi nicht beachtet, aber Skylake-E als Ableger von Skylake-EP mit Sechs-Kanal-RAM und dem ganzen Gedöns braucht als Desktop-Lösung doch wirklich kaum einer. Evtl ziehen sie deshalb eine Lösung weiter mit Quad-Channel-RAM und so in Betracht - aber das ist auch nur rumraten von mir jetzt, hab dazu noch keine Infos.
 
Zuletzt bearbeitet:
P4ge schrieb:
Die Frage ist eher was Intel als "Server-Markt" mitlwerweile sieht.
Als die mal angefangen haben, war schon das Büro in der Innenstadt mit 8 Mitarbeitern auf einen Server angewiesen. Da brauchte man massig Kerne, Bandbreite, Speicher etc.

Und heute? Ernsthaft bei der Effektivität braucht man im selben Büro max. 8/16Ht Core, der Rest kostet so gut wie gar nichts mehr.
Nein diese Entwicklung geht seit Jahren nur noch in den Bereich Workstadion. Wobei sich CPU´s mit GPU´s kabbeln. Es ist doch ehrlich gesagt egal ob die CPU mir den Kram berechnet bei Adobe oder Medusa, oder die GPU. Es soll halt nur schnell gehen und nicht ruckeln.

Wie sehen es doch auch jedes Jahr aufs neue wenn CB die CPU´s testet. Bei Spielen sind das keine Flaschenhälse mehr und trotzdem wird im HIGH-END Sektor noch mehr Kerne nachgeliefert. Wozu? 70% der Zeit tun es auch 1-2 Kerne.
Es wäre viel hilfreicher wenn CPU´s eine big.LITTLE Architektur bekommen, und das der Servermarkt hier mehr forscht.

Ich nehme mal an Intel sieht als Server-Markt, wo solche 28 Core CPU's eingesetzt werden, bei Serverfarmen wie sie Facebook, Google und andere riesen Konzerne verwenden.

Und dann natürlich noch bei den Supercomputer.
 
Zuletzt bearbeitet: (Zitat vergessen)
Nicht nur. Im Prinzip lässt sich damit wie auch heute hervorragend virtualisieren wie heute schon, selbst bei uns im Mittelständischen Unternehmen habe wir viele 12 Kern / CPU Server mit 2 oder 4 Sockeln, worauf eigentlich die ganze Serverwelt, 100erte VMs virtualisiert laufen.
 
Krautmaster schrieb:
joa, 28 Kerne ^^ da sieht man mal wie weit das Desktop Umfeld derweil dem Sever "Standard" hinterherhinkt. Mal schauen ob die kleineren Skylake S2011-3er dann günstiger werden, vielleicht macht ein Xeon dann auf X99 Sinn. Ich könnt ab und an schon etwas mehr Kerne brauchen, zB Adobe Premiere imitiert mit meinem 12 Threads, gerade auch beim Videos stabilisieren, encoden usw.

Wieso kaufst dann nicht einfach den PC zweimal? :D
 
Krautmaster schrieb:
Nicht nur. Im Prinzip lässt sich damit wie auch heute hervorragend virtualisieren wie heute schon, selbst bei uns im Mittelständischen Unternehmen habe wir viele 12 Kern / CPU Server mit 2 oder 4 Sockeln, worauf eigentlich die ganze Serverwelt, 100erte VMs virtualisiert laufen.

Ja sicher. Das gibt es auch. Allgemein sehe ich im Serverbereich mit diesen CPUs einen weit beständigeren Markt für Intel als im Desktop oder gar Notebook-Bereich. Dort lockt man die breite Masse mit mehr Leistung kaum noch hinter dem Ofen hervor (eher mit längerer Akkuzeit und so), aber bei solchen Servern kann man nie genug Leistung haben, bzw. Kerne.
 
Find ich putzig, wie hier die Leute von 10GBase-T schwärmen, wenn man beim Switch dafür aktuell min. 100€ pro Port zahlt. Das wird im Desktopbereich noch ein paar Jahre dauern.
Man könnte natürlich auch einfach 2x 1Gbit teamen, damit ist man aktuell eh am Limit von 4-Bay Systemen, die mit Verschlüsselung arbeiten.
 
P4ge schrieb:
Wie sehen es doch auch jedes Jahr aufs neue wenn CB die CPU´s testet. Bei Spielen sind das keine Flaschenhälse mehr und trotzdem wird im HIGH-END Sektor noch mehr Kerne nachgeliefert. Wozu? 70% der Zeit tun es auch 1-2 Kerne.
Es wäre viel hilfreicher wenn CPU´s eine big.LITTLE Architektur bekommen, und das der Servermarkt hier mehr forscht.

Dass CPU-Threads nicht genug genutzt werden, liegt vor allem an der Programmierung.
Aber ja, viel mehr Kerne bringen im Desktop wenig, helfen könnten hier in Zukunft vo allem Unmengen an Cache für mehr Performance.

Aber inwiefern nützt big.little was im Desktopbereich? Selbst in Laptops werden die CPUs 'so' wie sie sind schon fast zum geringsten Wattfresser, von daher wäre selbst dafür diese Implementierung viel zu umständlich.
 
hi

ich habe zwar auch noch mit 10 mbit Netzwerk und bnc kabel gearbeitet , und dann 100 und natürlich 1gBit .
Aber so wie alle Techniken voran geschritten sind usb , wirless lan, Dsl, kabel Dsl und vieles mehr, wundert mich das dieser Bereich irgendwie seit Jahren stehen geblieben ist eigentlich müssten wir schon bei 100 Gbit serie sein und die Industrie bei 1000 gbit
 
Dass sich der vergleichsweise "langsame" Standard so manifestiert, liegt wohl auch maßgeblich an den den Netzwerkalternativen für Privathaushalte. Der Trend zum WLAN ist ja ungebrochen und da sind wir von den Übertragungsraten weit hinter Gbit-LAN.
http://www.synology-wiki.de/index.php/%C3%9Cbertragungsraten


Zudem darf man auch nicht den Aufwand beim Upgraden auf den höheren Standard vergessen. Das geht ja nun auch nicht einfach über Nacht und kostenneutral.

Der Leidensdruck ist derzeit noch nicht groß genug in der Breite der Gesellschaft. :)
 
Schade ... nicht viel neues.
würde mir einige infos wünschen, aber da muss man sich wohl noch etwas gedulden :-D
(avx-512), upi/qpi ...
infos zu den pci-e lanes sind ja vorhanden und interessant für den einsatz von 10g karten die per vt-d durchgereicht werden.
der wirklich interessanteste teil wäre aber sl-ep mit zusätzlicher fpga ... damit könnte man den einsatz als large ce oder als kleinen pe mit weit über 20gbit/s auf einer gut skalierbaren x86 plattform bringen und dann wird es wirklich nicht mehr nur für den enterprise einsatz interessant, sondern sogar für den carrierbereich in gewissen kleineren feldern. möglicherweise sogar mit einsatz von satelittes wie einen asr9000v.
 
PhilAd schrieb:
Schade ... nicht viel neues.
würde mir einige infos wünschen, aber da muss man sich wohl noch etwas gedulden :-D
(avx-512), upi/qpi ...
infos zu den pci-e lanes sind ja vorhanden und interessant für den einsatz von 10g karten die per vt-d durchgereicht werden.
der wirklich interessanteste teil wäre aber sl-ep mit zusätzlicher fpga ... damit könnte man den einsatz als large ce oder als kleinen pe mit weit über 20gbit/s auf einer gut skalierbaren x86 plattform bringen und dann wird es wirklich nicht mehr nur für den enterprise einsatz interessant, sondern sogar für den carrierbereich in gewissen kleineren feldern. möglicherweise sogar mit einsatz von satelittes wie einen asr9000v.
Was will Intel eigentlich mit UPI? Nichtmal QPI bekommt man wirklich ausgereizt
Sieht man z.B. an Sockel 1366, da wird der meist nur zu 10% ausgelastet
 
@Knogle

Fortschritt! Nur weil man es noch nicht ausreizt muss etwas ewig da sein ohne Nachfolger.
 
Cool Master schrieb:
@Knogle

Fortschritt! Nur weil man es noch nicht ausreizt muss etwas ewig da sein ohne Nachfolger.

Okay, versteh ich zwar nicht aber gut :D
Warum kommt dann nix ueber SATA 600? Dank PCIe Takt auf 150MHz konnte ich da deutlich mehr als 710MB/s rausholen aus dem Marvell Controller
 
* nicht ewig... ;)

Sata 4 wurde wegen PCIe nicht entwickelt, da es einfach deutlich mehr Vorteile bringt - nicht nur Geschwindigkeit.
 
Wieviele hier auf 10 GBit im Desktop abfahren...?! Wollen die alle ihre eigene NarusInsight-Machine zu Hause bauen?
 
@Mr.Seymour Buds

Die Sache ist halt bei einigen Usern inkl. mir ist das Netzwerk die Bremse. Intern läuft bei mir alles über SSD ergo 500+ MB/s, im NAS läuft ein RAID 6 der Intern auch 500+ MB/s packt. Das Problem ist halt das Netzwerk. Je nach Datei bin ich da bei 113-115 MB/s voll im Limit, obwohl mein PC als auch das NAS mehr packen würden.

Gut es ist ja nicht so das eine Übertragung 20 Stunden dauert, aber trotzdem ist mehr Geschwindigkeit und weniger Latenz immer gut :) Ich hab auch schon überlegt mir ein 10 GBit Netzwerk aufzubauen aber das Problem ist halt das NAS, welches nur 4x1GBit hat, da lohnt es sich einfach nicht.
 
Cool Master schrieb:
Ich freu mich am meisten auf 10 GBit/s! Mein NAS könnte schneller aber das Netzwerk limitiert. Bin mal gespannt wann 10 GBit in den Mainstream kommen.
Mein Heimserver auch und es ärgert schon sehr, dass der LAN Port praktrisch die langsamste Schnittstelle der Backplane des Mainboards ist, bei meinem Z97 Extreme 6 hat nur der PS/2 Port noch weniger Bandbreite.

Aber wenn 10 Gb/s zu teuer und aufwendig ist, dann könnte ich auch mit 2.5Gb/s oder 5Gb/s leben, das sollte ja auch schon länger mal kommen, davon ist aber kaum noch irgendwo die Rede. 1Gb/s ist jedenfalls für immer mehr Leute mit einem NAS oder Heimserver eine echte Bremse.
Krautmaster schrieb:
28 Kerne ^^ da sieht man mal wie weit das Desktop Umfeld derweil dem Sever "Standard" hinterherhinkt.
Welcher Heimanwender hat dann überhaupt eine Anwendung die so viele Kerne nutzen kann? Das ist doch der Punkt und selbst wenn man die hat, wer will denn für zuhause so viel Geld für eine solche CPU bezahlen? Man sieht ja auch hier wieder, dass die 1000€ für den 8 Kerner für viele Heimanwender einfach zu viel sind.
Krautmaster schrieb:
Mal schauen ob die kleineren Skylake S2011-3er
Für Skylake-E(P) wird es einen neuen Sockel geben, auf S. 2011-3 Skylakes wirst Du also ewig warten dürfen und mit dem X99er werden sie dann auch nicht mehr zusammenarbeiten.

TorenAltair schrieb:
Ich bin verwirrt, ob der neuen Laufwerksanbindung OCuLink von der ich bisher noch nichts gehört hatte. Gibt es da schon mehr Informationen dazu? Wenn's als preiswerte Lösung beworben wird, wäre ja SATA Express, M.2, U.2 direkt nach 1, 2 Jahren schon wieder EOL?
OCuLink war mir bisher auch neu, aber ich denke das geht eher in Richtung Thunderbolt für Enterprise, denn TB enthält ja auch den Display Port, was aber für Server total unnötig ist, während man andererseits halt immer mehr Dinge direkt an PCIe Lanes anschließen möchte, wäre das genau die Lösung für externe Geräte. Innerhalb des Gehäuses scheint es mir dagegen weniger Sinn zu machen. SATA, SATA Express (eine Todgeburt) und auch M.2 spielen bei Enterprise HW keine Rolle und M.2 ist ja auch für Notebooks gedacht um dort mSATA abzulösen, was sicher nicht durch OCuLink ersetzt wird. Allenfalls U.2 könnte von OCuLink ersetzt werden, wenn es sich über diese kleineren Strecken innerhalb des Gehäuses lohnt, aber U.2 Backplnes sind Hot-Swap fähig, wird es eine OCuLink Backuplane geben die das auch ist? Für SSDs in Servern ist das ein sehr wichtiger Punkt!

Knogle schrieb:
Warum kommt dann nix ueber SATA 600? Dank PCIe Takt auf 150MHz konnte ich da deutlich mehr als 710MB/s rausholen aus dem Marvell Controller
Mit welchem Marvell? Ich vermute mal mit dem 9230 oder einem 9220, jedenfalls einem mit 2 PCIe Lanes und zwei SSD im RAID 0, denn so viel schafft ja eine SSD gar nicht und auch nicht ein SATA 6Gb/s Port (der wird ja nicht mit übertaktet) und auch nicht eine um 50% übertaktete PCIe 2.0 Lane. Außerdem ist SATA ab absehbare Zeit für HDDs schnell genug, für SSDs wären aber schon heute selbst 12Gb/s zu lahm und daher ist der Wechsel zu PCIe sinnvoller gewesen. Außerdem werden die Kabel und Stecker bei 12Gb/s anspruchvoller und teuer, wie man bei SAS auch gut sehen kann. Abwärtkompatibilität wäre also wohl sowieso nicht erreicht worden, da kann man dann auch gleich eine ganz andere Anbindung wählen.

Mr.Seymour Buds schrieb:
Wieviele hier auf 10 GBit im Desktop abfahren...?!
Nein, aber wenn ich intern vom RAID 5 meiner 5 WD Red 3TB über 500MB/s lesen / schreiben kann, meine SSD im Rechner ähnliche Werte schafft, dann ärgert es mich halt gewaltig, wenn ich die Dateien im Netz nur mit gut einem fünftel der Geschwindigkeit zwischen beiden übertragen kann. Das dürfte nicht nur mir so gehen und daher er Wunsch nach mehr Bandbreite, 2.5Gb/s oder besser 5Gb/s würde mir ja auch reichen.
 
@Holt:

Der SATA Controller wird mituebertaktet, da er laut Datenblatt seinen Basistakt ueber den PCIe Takt bezieht
Es ist der Controller auf dem P6X58D-E

Dasselbe geht auch bei den LSI RAID Controllern wenn man den PCIe Takt ordentlich hoch reisst, dann steigt die Geschwindigkeit auch an, und die Latenz sinkt, kann dazu gerne Benchmarks machen

Der LSI Controller steigt jedoch leider schon ab 150MHz aus
 
Zurück
Oben