Notiz Jetzt verfügbar: Intel Xeon W-3175X für 2.999 USD offiziell im Handel


 
  • Gefällt mir
Reaktionen: p4z1f1st
wieso muss etwas rausgearbeitet werden , das so offensichtlich ist ?
macht irgend jemand NVME Raid auf der Intel Mainstream Plattform , wo beide NVME am Chipsatz hängen ? Natürlich nicht .... , weil es nichts bringt ne 970 Evo / pro hat eh ne Leserate von 3400 MB = DMI mit einer NVME zu 100 % ausgelastet , davon mal abgesehen gibt es VROC nur auf der HEDT ( mein ich ) und da muss man löhnen = Key kaufen , wenn man NVME Raid mit nicht Intel SSD s laufen lassen will , oder sollte sich das geändert haben ?
wozu mehr Geräte über 3.0 Chipsatz Lanes anschliessen wenn man sie nicht gleichzeitig nutzen kann mit voller Bandbreite ? wozu soll das gut sein ?
 
HardRockDude schrieb:
Daran sieht man schon ganz gut, dass die Architektur am äußersten Limit läuft. Auf Dauer geht das so nicht mehr weiter. Aber Intel wird es am Ende doch noch irgendwie schaffen, diese Leistungsbrücke zu stemmen, bis eines Tages dann die neue Architektur bzw. das kleinere Produktionsverfahren da ist.

Intel hat die SLX Kerne ziemlich heftig aufgeblasen. Man hätte genau wie AMD eine deutlich schlankere Linie fahren können, hielt das aber nicht für nötig.
Schau dir mal an wie klein die 8 Kerne des 9900K sind und was für ein Monster der 28C SLX ist.

Mit iGPU ist der 177mm², ohne iGPU wohl bei etwa 130mm². Bei 8 Kernen und 2x SI. AMDs Zeppelin is mit >200mm² dagegen nicht gerade schlank. Und selbst dagegen ist SLX wieder ein Monster wegen AVX und angeklebtem Cache.

Im Sinne eines reinen Core Wars hätte Intel weniger die Kerne aufblasen müssen, sondern ein in die Breite gehen können. Heißt nen 16 Kerner mit zb 2x Ringbus wie bei Haswell EP auf 250mm² mit 4x SI. Wäre ne schön schlanke effiziente CPU. Selbst nen 32 Kerner mit 8x SI wäre so mit 500mm² noch deutlich kleiner als das was uns jetzt der 28C zeigt. Und dank Ring vermutlich sogar takt-freudiger und effizienter.

Die Entscheidung bei SLX auf Mesh und aufgebohrte Kerne zu gehen fiel bei Intel aber auch zu einer Zeit als Zen noch weit weg war. Und mit AVX punktet man ja gerade auch abseits des Consumer Marktes.

@MK one

auf AM4 und 1151 dürften die wenigsten ein Raid aus 2 PCIe 4x SSDs machen. Und wenn dann hoffentlich eher ein Raid 1 als ein unsinniges Raid 0. Aber zeig uns mal wie viel Vorteile so ein Raid 0 an HEDT in reellen Apps bringt. Das wollte ich ja sehen.
 
@Volker Wäre es möglich, den Artikel – selbst wenn es sich 'bloß' um eine Notiz handelt – dennoch um eine tabellarische Listung der technischen Spezifikationen zu ergänzen?

Ich weiß, daß dieser Artikel gewollt als die altbekannte Randnotiz durchgehen sollte, allerdings darf man auch auf einem Technik-Portal (oder erst recht dort?), welches sich um das Universum „Rechner & Co und Computer im Allgemeinen“ dreht, zumindest erwarten, daß bei einem nun mal offiziellen Release zumindest so etwas wie Spezifikation mitveröffentlicht werden, oder?

Was ist denn jetzt der offizielle All-Core-Takt? Single-Core-Boost? Cache-Größe? Was ist die maximal unterstützte Speicher-Frequenz? Gibt‘s das jetzt in 2019 nicht mehr?

Oder wird dem mündigen Leser heutzutage im Zeitalter des informationstechnischen Nihilismus (aka „Weniger ist mehr – und Specs braucht eh kein Mensch!“) ein gewissenhaftes Rezipieren und damit Bildung von An- sowie Einsichten durch das lesen von technischen Daten schlicht nicht mehr zugetraut?

Ja, mir ist bewußt, daß ich oft auf solchen Kleinigkeiten rumhaue, allerdings tragt Ihr mit solchen Unterlassungen von Basisinformationen in Tabellenform (sic!) grund·legend zur neuerlichen Undurchsichtigkeit (und oftmals geradewegs Täuschung) etwaiger Hersteller bei Euren Artikeln durch das unterlassen selbiger leider Gottes bei.

Deshalb die lieb gemeinte Bitte, doch bitte derlei Spezifikationen nachzutragen – oder aber zumindest auf entsprechende Artikel zu verlinken, welche diese Informationen (in Tabellenform) beinhalten. Selbst in Eurem großen Test („High-End-CPUs im Test: 28 Kerne von Intel gegen 32 Kerne von AMD“) geizt Ihr leider mit solchen Informationen oder aber man muß sie sich mühsam aus dem Kontext des Fließtextes heraussuchen.

Und wenn mir erlaubt ist daß zu sagen; Das passiert die letzte Zeit immer öfter, daß selbst in großen, prominenten Tests von Euch keine Spezifikationen in Tabellenform zu finden sind, sondern diese im Fließtext versteckt sind.

… was wirklich schade ist, da Ihr damit selbst die Quintessenz und Artikel-Qualität Eurer eigenen Artikel nicht unwesentlich in der Lese-Qualität herabsetzt oder zumindest stark schmälert.

Edit: Und weil ich stets gewillt bin, mit guten Beispiel voran zu gehen …
Kerne/ThreadsTakt / max. 1C-TaktL3-CacheSpeicherkanäle / TaktTDPPreis
(UVP, Start)
Xeon W-3175X
28/56​
3,10/ 4,3 GHz​
38.5 MB​
6/DDR4-2666​
255 Watt​
$ 2,999/1Tsd Stck​
TR 2990WX
32/64​
3,0/ 4,2 GHz​
64 MB​
4/DDR4-2933​
250 Watt​
$ 1.799​


In diesem Sinne

Smartcom
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CBmurphy, s0UL1, onkel-foehn und eine weitere Person
MK one schrieb:
wozu mehr Geräte über 3.0 Chipsatz Lanes anschliessen wenn man sie nicht gleichzeitig nutzen kann mit voller Bandbreite ? wozu soll das gut sein ?

Ähm, weil man vielleicht auch nachträglich noch ne weitere SSD dazu packen will und auch volle Geschwindigkeit von ihr abrufen will? Ich könnte mich nicht einmal dran erinnern dass ich von zwei M.2 SSDs gleichzeitig was lesen musste, geschweige denn mit >3 GB/s.

Wenn du jetzt noch 6 langsame Spin HDDs als Raid am Chipsatz betreiben willst, was bringen dir dann zB PCIe Gen 4 an X370/oÄ wenn dieser nicht genug Sata Ports bereitstellt?

Ich mach dir ein anderes Beispiel dass du es ggf kapierst.

Stichwort 16 Port Gigabit Switch (wie in vielen Haushalten anzufinden). Kann dieser zeitgleich an allen Ports Gigabit bereitstellen? Nein. Schließt du deinen Gigabit Switch mit 16 Ports mit 16 Gbit an den nächsten Switch an damit alle 16 parallel mit Gbit saugen können? Nein.
Du hast immer ein Load Balancing. Am besten kann jede Ressource für sich volle Geschwindigkeit abrufen, aber in den seltensten Fällen alle auf einmal. Anzahl der Ports = wichtiger als zwingend an allen zeitgleich Gigabit umsetzen zu können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Banned
Holt schrieb:
Das ist aber in der Praxis nur dann eine Einschränkung wenn man schnelle NVMe SSDs im RAID 0 betreibt. Nutzt man sie als Einzellaufwerke ist es praktisch keine Einschränkung und auch für schnelle 10GbE Karte stellt es keine wirkliche Einschränkung da.
Nun ja, nicht einmal alle acht 6Gbit/s SATA-Onboard-Anschlüsse können gleichzeitig mit voller Bandbreite Richtung CPU (40 Gbit/s DMI) schaufeln. USB und die PCIe-Lanes hängen auch noch dran.

Mehr PCIe-Lanes sind kein Nachteil von AMD, das finde ich neben dem Preis (und vermutlich der Ausbeute durch den Monoblock-Die) als größten Nachteil von dieser CPU.
 
Krautmaster schrieb:
bleiben lächerliche 2 funktionale SATA Ports über, also einen für den DVD Brenner, noch einer für ne SSD. Nicht gerade viel oder?
Das Board war seit Anfang 2018 für um die 70€ und weniger erhältlich. Irgendwo wird der Rotstift angesetzt. Finde die Ausstattung dafür nicht explizit lächerlich. Gibt ja ausreichend Angebot, wo für wenig mehr Geld entsprechend Konnektivität geboten wird. Die Sache mit der Aufteilung / Deaktivierung von Ports lässt sich doch über die Handbücher heraus finden. Ist ja nicht so, dass eine Zusammenstellung mit 10 Minuten bei Geizhals rumklicken abgefrühstückt ist.
 
  • Gefällt mir
Reaktionen: HageBen
Klar, wer sich mit gängigen Sata 6 Gbit SSDs (~500MB/s / Platte) ein 8 Platten Raid an DMI baut kann nur 80% Bandbreite zur CPU schaufeln, ganz gleich was die CPU damit anfangen soll.

Ich denke blöd wirds dann wenn man keine 6-8 Platten anstecken kann.
 
Krautmaster schrieb:
Stichwort 16 Port Gigabit Switch (wie in vielen Haushalten anzufinden). Kann dieser zeitgleich an allen Ports Gigabit bereitstellen? Nein. Schließt du deinen Gigabit Switch mit 16 Ports mit 16 Gbit an den nächsten Switch an damit alle 16 parallel mit Gbit saugen können? Nein.
Ich will ja nicht meckern, aber …
Ist der grundlegende Unterschied zwischen Switches und Hubs nicht derer, daß sich alle Clients eines Hubs die Bandbreite untereinander teilen – und nur ein Switch sämtlichen angeschlossenen Geräten die selbe (maximale) Bandbreite untereinander zur Verfügung stellt? Ich meine, da war mal was …

Allerdings – und nur wenn ich mich nicht irre – ist die Analogie Intel's DMI vs Switch sogar ziemlich präzise hier, jedenfalls in Bezug zum Uplink (auf dem Wege zur CPU). Da sämtliche Peripherie (mit Ausnahme der Grafikkarte, und [je nach Verdrahtung] auch SSD) zwecks Bearbeitung aka → processing durch das Intel'sche Nadelöhr namens DMI müssen.

Intel_Z390_official.png



In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: SVΞN und I'm unknown
user2357 schrieb:
Das Board war seit Anfang 2018 für um die 70€ und weniger erhältlich. Irgendwo wird der Rotstift angesetzt

Das ist eher Sache des Chipsatzes als Sache des Boards.
http://www.pcgameshardware.de/Mainb...-Promontory-B450-Chipsatz-Ryzen-2000-1261743/

An anderer Stelle werden die Spezifikationen hingegen flächendeckend unterschritten. Offiziell gibt AMD für den B450 sechs SATA-Ports an, genau wie für den B350. Mit Letzterem erschien aber kein einziges derartiges Mainboard und auch beim B450 sind der Redaktion bislang nur Mainboards mit vier Promontory-SATA-Ports bekannt. Mit sechs Anschlüssen versehene Platinen greifen dagegen auf CPU-Ressourcen zurück. Das heißt nur vier Ports stellt der I/O-Hub bereit, für zwei werden CPU-Lanes umgeleitet, die eigentlich dem primären M.2-Slot gehören. Diesen Kunstgriff sieht AMD zwar ausdrücklich vor, verspricht dann aber insgesamt acht SATA-Ports.
http://www.pcgameshardware.de/Mainb...-Promontory-B450-Chipsatz-Ryzen-2000-1261743/

Ergänzung ()

Smartcom5 schrieb:
Ist der grundlegende Unterschied zwischen Switches und Hubs nicht derer, daß sich alle Clients eines Hubs die Bandbreite untereinander teilen – und nur ein Switch sämtlichen angeschlossenen Geräten die selbe (maximale) Bandbreite untereinander zur Verfügung stellt? Ich meine, da war mal was …

ich wollte nicht auf Hub vs Switch raus, sondern auf den Umstand das dein 64 Port Gigabit Switch nicht mit 64 Gbit am Server hängt sondern ebenfalls, wie DMI, eine Teilbandbreite zum nächsten Tier bietet - ganz einfach aus dem Umstand dass höchst selten bis nie alle Ports am Switch gleichzeitig eine Ressource mit voller Geschwindigkeit verlangen.

Nur weil bei einzelnen 400 Mbit VDSL aus der Dose kommt heißt das ja auch nicht dass alle VDSL Kunden mit 400 Mbit/s zeitgleich von Steam leechen können oder können müssen.
 
  • Gefällt mir
Reaktionen: gaelic und Smartcom5
Krautmaster schrieb:
Raid an DMI baut kann nur 80% Bandbreite zur CPU schaufeln, ganz gleich was die CPU damit anfangen soll.
Nicht alleine das - USB ist dann komplett abgeschnitten und die extra PCIe-Lanes auch.

Alleine für einen 40 GBit/s Ethernet-Logger (2x x8) mit zwei x8 RAID-Controllern muss schon ein Xeon verwendet werden - und dann sind bereits 32 Lanes weg. Und ja, die Daten kann man bei effizienten Datenstrukturen und Programmierung live auftrennen zum Wegspeichern. Eine derart potente CPU wie der hier vorgestellte Xeon kann noch mehr - hat aber nicht genug PCIe-Lanes um an die Daten zu kommen...
 
der8auer hat das Ding sogar schon übertaktet...echt krass die Stromaufnahme!

 
Beeindruckend ist auch die schiere Größe des Dies, dieser ist mit 21mm x 32mm so ziemlich an der Grenze des technisch möglichen von normalen Belichtungsmaschinen. Da versteht man auch den Ansatz von AMD, einfach kleine Dies zu bauen und diese zusammen auf ein Package zu werfen, statt riesige Monolithen zu schnitzen. Ausbeute höher, leichter erweiterbar. Intel kann rein aus Platzmangel schon garnicht mehr als 28 Kerne herstellen, ohne auf eine neue Prozessnode zu wechseln.

Frage mich, wie Intels Antwort auf den AMD 64 Kerner aussehen wird. 2x 28 Kerne "zusammenkleben" und den Sockel 7294 begründen? :evillol:
 
  • Gefällt mir
Reaktionen: s0UL1 und Transistor 22
ja klar , weil man ja ein single Tasking Mensch ist und brav ein Gerät nach dem anderen einschaltet und nutzt ...

wie stehts mit VM s ? dort werden jeder VM Ressourcen zugewiesen , normalerweise ne SSD / HDD pro VM
Stellen sich die Laufwerke der unterschiedlichen VM s an um nacheinander mit voller Bandbreite den DMI passieren zu dürfen ? Nein natürlich nicht diezur Verfügung stehende Bandbreite wird aufgeteilt ....

Wie mach ich dir meinen Standpunkt am besten klar , du hast 24 Chipsatz Lanes und benutzt Geräte mit hohen Bandbreitenbedarf , machen 6 schnelle NVME über den Chipsatz Sinn ?( falls es sowas gäbe ) Willst du mir solchen Bulllshit tatsächlich erzählen , nur weil der Chipsatz 24 Lanes hat ? Ich möchte die Geräte nicht hintereinander mit voller Kapazität nutzen , oder 2 gleichzeitig mit halber Kapazität

Ich hatte weiter oben schon mal geschrieben das sich die Geschwindigkeiten der NVME , erst recht im Raid dem der ersten DDR Generation annähern und man sie schon fast als eine nicht flüchtige Erweiterung des Arbeitsspeichers betrachten kann , weil installierte Programme in null komma nix geladen werden .
Der Ryzen 3xxx mit seiner internen 4.0 Struktur bzw doppelt so schnellem IF2 werden da nochmal ne Schippe drauflegen , weil das Design an allen Ecken und Enden aufgebohrt wurde .

Nur zur Info : Intel bietet etwas ähnliches an ( mit geringere Latenz , kürzere Zugriffszeiten ) , natürlich vollkommen überteuert , wird im DDR 4 Slot gesteckt
 
Smartcom5 schrieb:
Ganz genau - man kann zwar (mit etwas Verlust) zwei x8 Netzwerkkarten mit jeweils 2x 10 GBe darüber laufen lassen, aber von den 8 weiteren PCIe-Lanes, den SATA-Ports, USB oder integriertem Ethernet-Controller war es das dann. Für einen Desktop ok, für eine Workstation bereits ein Problem und bei dieser CPU ein echtes Hindernis.
 
  • Gefällt mir
Reaktionen: Smartcom5
Krautmaster schrieb:
Wenn du jetzt noch 6 langsame Spin HDDs als Raid am Chipsatz betreiben willst, was bringen dir dann zB PCIe Gen 4 an X370/oÄ wenn dieser nicht genug Sata Ports bereitstellt?
@ unter mir
du tust so als wäre der DMI und die Chipsatz Lanes der Gralsbringer überhaupt , sind sie nicht ...
Ist ne SATA SSD + eine M2 NVME eine seltene Kombination ? Nein
Hat man 2 voll angebundene M2 NVME Slots , wird es da ungewöhnlich sein das man 2 NVME hat ? Nein wird es nicht , Vermutlich wird zusätzlich noch die eine oder andere Sata SSD eingebaut als Datengrab
Die benötigte Bandbreite wird ständig weiter steigen . Du kannst dich ja weiterhin darauf berufen das die Geräte meist nicht gleichzeitig genutzt werden , mir reicht das nicht ...
 
Zuletzt bearbeitet:
iamunknown schrieb:
Nicht alleine das - USB ist dann komplett abgeschnitten und die extra PCIe-Lanes auch.

Alleine für einen 40 GBit/s Ethernet-Logger (2x x8) mit zwei x8 RAID-Controllern muss schon ein Xeon verwendet werden - und dann sind bereits 32 Lanes weg. Und ja, die Daten kann man bei effizienten Datenstrukturen und Programmierung live auftrennen zum Wegspeichern. Eine derart potente CPU wie der hier vorgestellte Xeon kann noch mehr - hat aber nicht genug PCIe-Lanes um an die Daten zu kommen...

Setzt voraus das überhaupt deine CPU in der Lage ist das auch simultan zu verarbeiten
1548877044219.png

1548877329131.png


Aber ich denke wir sind uns einig dass nicht besonders viele ihren 40 Gbit Ethernet Logger betreiben werden. Und wenn man ein gesonderten Anwendungsfall hat der 128 Lanes braucht, sicher, dann nehme ich ohnehin nen Epyc. Ich sag ja nicht dass es keinen Anwendungsfall gibt. Ich sage dass die Anzahl der Lanes in den meisten Fällen wichtiger ist als der Umstand ob diese nun alle simultan Full Speed bringen können.

Ganz gleich ob AMD oder Intel oder sonstwas. Ich sehe zb AM4 hier nicht wirklich im Vorteil nur weil man 4 PCIe Lanes auf der CPU Seite mehr hat. Dafür hat der Chipsatz bezüglich Anzahl Defizite.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
wenn man ein gesonderten Anwendungsfall hat der 128 Lanes braucht, sicher, dann nehme ich ohnehin nen Epyc.
Nein, bereits vorher, da maximal 44 + 2 bei vollem Durchsatz Ende ist.
Krautmaster schrieb:
Ich sage dass die Anzahl der Lanes in den meisten Fällen wichtiger ist als der Umstand ob diese nun alle simultan Full Speed bringen können.
Dann nimmst du aber einen PCIe-Switch auf dem Mainboard und nicht den Umweg über den Chipsatz.
 
^^ natürlich, ich meinte damit sobald einem die LGA 3647 Lanes nicht mehr ausreichen.
Ergänzung ()

iamunknown schrieb:
Dann nimmst du aber einen PCIe-Switch auf dem Mainboard und nicht den Umweg über den Chipsatz.

Wenn man mal von HEDT wegkommt und sich die gängigen Consumer Plattformen anschaut ist es ja genau das was der Intel Chipsatz macht. Er spielt quasi PCIe Switch um für die eventuell nötige Anzahl an Lanes zu sorgen. Siehe Smartcoms Grafik oben.

Edit. Ich denke Intel will damit auch den OEM die Möglichkeit bieten nach eigenem Ermessen Zusatzchips drauf zu knallen ohne groß durch die Anzahl an Lanes beschränkt zu werden.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Er spielt quasi PCIe Switch um für die eventuell nötige Anzahl an Lanes zu sorgen.
Nein er quetscht eben 24 3.0 Lanes, viel SATA, Sound, USB 3.x und Ethernet über ein sehr kleines Nadelöhr.

Verglichen damit ist es ein Hyperloop, wenn du einen X16-Port per Switch auf zwei X16-Ports aufteilst.
 
Zurück
Oben