News Skylake-SP: Mainboard-Blockdiagramme offenbaren die letzten Details

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.298
#1

Sephe

Commander
Dabei seit
Sep. 2012
Beiträge
2.924
#2
Die Sache mit der TDP-Begrenzung find ich echt arm...

Habe bei mir nen Dual-CPU Xeon-System mit Wakü auf normaler ATX-Größe, und die kann ich problemlos kühlen. Jetzt einfach pauschal die TDP zu begrenzen kann doch nicht der richtige Schritt sein. Warum macht man das nicht Temperaturabhängig - ähnlich wie bei AMD?
Wenn die Spawas zu warm werden > Drosseln
 
U

unisolblade

Gast
#3
Die Sache ist einfach wo wird im professionellen Umfeld mit Wasser gekühlt ... fast nirgends
 

FUSION5

Lt. Junior Grade
Dabei seit
Nov. 2012
Beiträge
377
#4
@Sephe: TDP Begrenzungen gab es schon früher bei etlichen Server Modellen. Ich bin sicher es wird sich für jeden Einsatzzweck ein Mainboard finden lassen, auch ohne TDP Begrenzung.

Die stärkere Anbindung des Chipsatzes finde ich sehr gut, denn gerade da fehlte Bandbreite. Allerdings könnten da ruhig ein paar weitere Lanes verfügbar sein. Aber man darf sich wohl nicht vom Bild täuschen lassen, da es sich um Block-Diagramm für ATX Designs handelt. Deswegen wird z.B. beim Dual Socket System der x4 Slot wegfallen. Custom Designs wie in Servern können das bestimmt noch besser ausreizen.
 
Zuletzt bearbeitet: (typo)

[SoD]r4z0r

Cadet 4th Year
Dabei seit
Apr. 2011
Beiträge
120
#5
Interessant... Bei dem einen Diagramm werden die I210er NICs per PCIe Gen2 x1 und bei dem anderen per PCIe Gen1 x1 angebunden :D
 

FUSION5

Lt. Junior Grade
Dabei seit
Nov. 2012
Beiträge
377
#6
Ja, der BMCAST2500 wird beim Single Socket auch nur noch mit Gen2 x1 anstatt Gen3 x1 angebunden. Dafür gibts allerdings einen extra Gen3 x1 Slot und mehr USB 2.0.

Entweder gingen den wirklich die Schnittstellen aus oder da sind einige Fehler im Diagramm ;)
 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
45.187
#7
Interessant... Bei dem einen Diagramm werden die I210er NICs per PCIe Gen2 x1 und bei dem anderen per PCIe Gen1 x1 angebunden :D
Die I210 haben ja nur PCIe 2.1 x1 Interface, aber der X557 wird dort nicht per PCIe Lanes angebunden, sondern dort steht: PHY TX/RX diff und da der X557 auch der in den Broadwell-DE (Xeon-D) SoCs ist und dort eben zwei Ports im SoC vorhanden sind, dürften die neuen Chipsätze dann wohl endlich 10GbE nativ unterstützen. Die X557 unterstützen übrigens anderes als der X550 (das ist ein Zusatzchip der per PCIe angebunden wird) kein NBASE-T, also keine 2.5 und 5Gb/s!
 
Zuletzt bearbeitet:
Dabei seit
Aug. 2010
Beiträge
2.695
#8
Naja, dass man jetzt ein hexa-channel-mi an beiden cpus voll auslastet halte ich nur selten für gegeben, aber beschnitten wirkt das ganze schon.
Vor allem aber die tdp begrenzung mutet seltsam an. Eine tdp dynamik wäre da sinnvoller gewesen. Zumal so alle e5 cpus auf dem board unterstützt würden.
 
Dabei seit
März 2015
Beiträge
5.027
#9
Den zusätzlichen Chip EC IT8528E könnten sie mal in Desktops bringen. Dann gäbe es mal einen einheitlichen Fan-Controller. 7-Kanäle sollten auch für ein protziges System reichen.

Durch den einheitlichen Chip wäre nur eben das Ansprechen durch Software einfacher. So verbaut jeder Boardpartner was er will.
 

davidzo

Lieutenant
Dabei seit
Dez. 2008
Beiträge
770
#10
Pro CPU also nur triple Channel DDR4? - Arm
, äh ne, Intel, nicht ARM ;)

Oder wie soll das gehen bei zwei CPUs und Sechskanal SI nur mit 6 Dimms zu arbeiten? Da halbiert sich doch die Speicherbandbreite. Die Sockel sind für die low-TDP Modelle der Xeon Gold Familie gedacht, also 14-22Kerne - Selbst da ist die Speicherbandbreite schon arg limitierend.
Na da habe ich lieber ein single Socket Epyc mit 8-channel SI in ATX und 32Kernen statt 2x 14Kern Xeon Gold mit 2x triplechannel SI.
 

FUSION5

Lt. Junior Grade
Dabei seit
Nov. 2012
Beiträge
377
#11
Naja, die wirklich interessanten Dual Socket Boards werden in E-ATX oder den etwas exotischeren Formaten wie EE-ATX und SSI-EEB daherkommen.
 

ruthi91

Lieutenant
Dabei seit
Nov. 2007
Beiträge
651
#12
Vielleicht können die Prozessoren jetzt über den UPI Link auf die Rambänke des anderen Prozessors zugreifen?
Wobei die maximal möglichen 2x~10GB/s ja jetzt schon von DualChannel Systemen überschritten werden...
 

Love Guru

Lieutenant
Dabei seit
Dez. 2015
Beiträge
572
#13
Die Sache ist einfach wo wird im professionellen Umfeld mit Wasser gekühlt ... fast nirgends
Genau: "Fast nirgends"!

Kaltwasserkühlung im indirekten System gibt es dort bereits seit Jahren, ja mindestens einem Jahrzehnt. Erkundige dich mal über Rittal und die dort verwendeten Kaltwasserzwischenschränke, die die Schrankluft herunterkühlen auf kuschelige Temps. Die werden an 19" Rackschränke angeflanscht oder dazwischengebaut und fertig ist die Laube. Direkte Wasserkühlung gibt es allerdings nicht, da man ja sonst ewig nicht an eine defekte Komponente herankäme, bei dem ganzen Schlauchwirrwarr.
Ergänzung ()

Naja, die wirklich interessanten Dual Socket Boards werden in E-ATX oder den etwas exotischeren Formaten wie EE-ATX und SSI-EEB daherkommen.
na hoffentlich, dieses SSI-CEB mit Shadow design ist ja ml häßlich wie die Nacht und an den RAM-Bänken um die Hälfte kastriert.
 
Zuletzt bearbeitet:
Top