News Intel Xeon W-3300: Ice Lake für Workstations mit 38 Kernen bei 270 Watt

ThePlayer schrieb:
Ich glaube Intel ist jetzt in einer ähnlichen Situation, wie damals AMD mit dem Bulldozer. Die Frage ist jetzt ob Intel 10 Jahre braucht um AMD wieder ein oder zu überholen.
Würde ich so nicht unterschreiben ... AMD hatte sich mit Bulldozer mit einer neuen Architektur verrannt, Intel steht quasi seit Ewigkeiten auf der selben Architektur und hat dann Probleme mit der Fertigung bekommen.
AMD hat genau den richtigen Zeitpunkt für ZEN erwischt und damit Intel schwer getroffen. Intel musste dem etwas entgegensetzen und dadurch hat man solche Heizelemnte in die Welt gebracht.
AMD hatte damals trotz der enormen Leistungsaufnahme Intel nichts entgegen zu stellen.

Was mich mal interessieren würde wäre die Performance von Bulldozer in der heuteigen Zeit, in der sehr viel mehr auf Multicore optimiert ist. Hat da jemand einen aktuellen Benchmark gefunden?
 
  • Gefällt mir
Reaktionen: Cruentatus und ThePlayer
@beckenrandschwi zumal nicht bekannt ist auf wie vielen kernen der Takt so liegen wird.

Mein Threadripper geht auch mit 280W auf 3,8GHz all Core. Bin gespannt was der Intel kann.

Explodieren kann der Verbrauch immer wenn man die CPUs lässt, dafür sind sie Groß genug ;)
 
@Hannibal Smith wenn man es ganz genau nimmt dann stimmt das was du schreibst.
Was aber zur Zeit passiert ist ähnlich wie damals. Nur das Intel teils nicht soweit zurück liegt wie AMD damals mit Bulldozer. Trotzdem schafft es Intel AMDs Zen Architektur schon seit Jahren zu Kontern. Maximal mit der Watt Brechstange kommen sie dicht an AMD heran. Und das war es auch schon. Im Desktop und Notebook geht es ja gerade noch so. Aber bei Server und vor allem den Threadripper sieht es richtig schlecht aus.
Ich hoffe der Zustand halt sich noch 2-3 Jahre, da AMD weiterhin gut vorlegt. Aber AMD fehlt einfach noch genug Marktanteil. Deswegen hoffe ich auf zwei Konkurrenten die dann Recht ebenbürtig sind und sich zu Gunsten von uns eine richtig gute Schlacht bei Performance und Preis liefern.
 
  • Gefällt mir
Reaktionen: Hannibal Smith
JoeDoe2018 schrieb:
Die Sofware Entwickler müssten so viel weniger Zeit in die Optimierung stecken da das AMD System so viel mehr Leistungsreserven hat.
Ähm es wird aber schon bitte Software weiteroptimiert. Nur weil man mehr Rechenleistung hat sollte man keinen langsam rotz schreiben. :)
 
JoeDoe2018 schrieb:
Jedoch kaufen die Firmen immer noch Intel Workstation anstelle von AMD.

Hast aktuell auch kaum Auswahl in der Hinsicht. Wenn ich Ryzen/Threadripper (in Zukunft) 5000 bei Dell bekommen würde würde ich da auch keine Intel anbieten... :freak: Solange da aber die großen Hersteller nicht in die Pötte kommen bleibt mir da relativ wenig übrig.
 
die Preis sind Intel Style nicht mal gegen die Zen2 TR kommen sie an und sind schon deutlich teurer.
Wenn TR mit Zen3 kommt kann AMD die preise schön anheben ;) was meine Aktien freut es ;)
Gut Gemacht Intel
 
CCIBS schrieb:
Xeon W-337538/722,5 GHz4,0 GHz4 TB DDR4-3200270 W4.499 USD

Müssten doch 76 Threads sein.

Vielleicht hat der ja schon ein paar Atomkerne eingebaut. ^^
Zumindest benötigt der aber sicher Atomkraftenergie, um unter Vollast zu arbeiten. ;-P
 
BxBender schrieb:
Zumindest benötigt der aber sicher Atomkraftenergie, um unter Vollast zu arbeiten. ;-P
 
  • Gefällt mir
Reaktionen: floq0r
pmkrefeld schrieb:
Ich interpretiere das Zitat anders.
Für mich fällt jede Optimierung, die nicht notwendig ist unter diese Definition.
Dann ignorierst du aber das Wort "premature" in dem Zitat absichtlich. Es geht um verfrühte (premature) Optimierungen, die im Laufe der weiteren Entwicklungen ohnehin hinfällig werden oder Szenarien abdecken, die dann nie eintreten werden. Diese sind unnötig.
Auch deine zitierte Erläuterung "If there is any doubt whether an optimization is premature, then it is premature!" dreht sich um dieses Wort, was du dann aber wieder ignorierst.

Ein Beispiel dafür wäre Raytracing, alles was kein Raytracing ist, ist eine Optimierung Aufgrund dafür fehlender Leistung.
Raytracing vs kein Raytracing ist eine technologische Entscheidung, die du ja bereits viel früher treffen musst. Hier wäre "premature" wenn du Raytracing-Code optimierst, obwohl noch nicht festgelegt wurde, ob das Produkt überhaupt Raytracing einsetzt oder nicht.
 
catch 22 schrieb:
Der Fairness halber erhebe ich hier Einspruch, denn pro Kern betrachtet ist der TDP Wert sogar minimal gesunken
205 Watt / 28 Kerne = 7,3Watt/Kern
270 Watt / 38 Kerne = 7,1Watt/Kern
(wenn auch kaum ein Vergleich zum Threadripper, vor allem nicht dem mit 64 Kernen -> unterhalb von 5 Watt/Kern, wenn ich das richtig im Kopf habe)
Wobei das natürlich auch nicht ganz stimmt, weil die Kerne nur ein Teil der TDP sind.

Das ganze I/O zieht auch Strom und müsste daher vorher abgezogen werden um qualifiziert sagen zu können, ob der pro-Kern Verbrauch gesunken ist oder nicht.

Sagen wir mal, in beiden Fällen kostet I/O 50W (keine Ahnung, Gedankenspiel):
155W / 28K = 5,5W/K
220W / 38K = 5,8W/K
Es ist also durchaus plausibel, dass der pro-Kern Verbrauch weiter gestiegen ist - unter der Annahme, dass die Leistungsaufnahme des I/O stagniert ist.
 
@floq0r & @Rickmer
Ihr habt natürlich recht, wenn ihr sagt dass diese Watt pro Kern Aussage das ganze arg vereinfacht darstellt und dass es auch theoretisch möglich ist, dass die neuen Kerne an sich mehr Verbrauchen, während das neue I/O sehr viel sparsamer arbeitet.

Allerdings hat meiner Meinung nach diese vereinfachte Watt pro Kern Betrachtungsweise auch durchaus ihre Berechtigung, da alle sonstigen Komponenten in der CPU (I/O, Cache, ...) letztendlich ohne die Kerne nur wenig nutzen haben, und für die Kerne "zu arbeiten", während die reinen Kerne ohne diese Komponenten auch nicht funktionieren. Des weiteren meine ich, dass sich die benötigte Leistung des I/O, Cache, ... in Teilen auch an den Kernen orientiert, da mit veränderter Kern Zahl der maximale Bedarf an zu bewegenden Daten und somit die Energie die für diesen Vorgang maximal benötigt wird, innerhalb eines fest definierten Zeitabschnitts steigt oder sinkt.
Erst die Gesamtkonstruktion mit der entsprechenden Leistungsaufnahme ergibt das Gesamtbild (mit einer gewissen Performance)
 
Letztlich ist gerade für Server CPUs die "nutzbare" Performance / W (bzw. pro Kosteneinheit) der entscheidende Faktor, wie sich das verteilt spielt eh keine Rolle. Aber es ist für Virtualisierung unterm Strich sicher effizienter so viele Threads wie möglich in einer CPU abarbeiten zu lassen
 
Atkatla schrieb:
Dann ignorierst du aber das Wort "premature" in dem Zitat absichtlich. Es geht um verfrühte (premature) Optimierungen, die im Laufe der weiteren Entwicklungen ohnehin hinfällig werden oder Szenarien abdecken, die dann nie eintreten werden. Diese sind unnötig.
Ich ignoriere es nicht.
Vielmehr bin ich davon überzeugt, dass dieses das Prinzip nur aufweichte, da zu dem Zeitpunkt eine Software oft genug ohne Performance-Optimierung gar nicht betrieben werden konnte. Damals hätte niemand so ein Statement ohne dem "premature" Zusatz beachtet. Heute sieht es dahingehend ganz anders aus und man kann das Prinzip, um das mMn. unnötige Wort entschlaken um eine eindeutigere, bessere Version zu erhalten.

Deine weiteren Argumente kann ich nicht ganz nachvollziehen, da:

"Im Laufe der weiteren Entwicklung hinfällig" -> bedeutet gleichzeitig, dass eine zwingende Notwendigkeit besteht, ergo keine Optimierung in diesem Sinne. Sofern man überhaupt annehmen kann, so genau über die Zukunft bescheid zu wissen. Oder eine einfache Anforderung, und so eine umzusetzen kann ja wohl kaum unter "Optimierung" fallen.
"oder Szenarien die dann nie eintreten werden" -> Ob etwas eintritt oder nicht kann man nie wissen, das sind Glaskugelwissenschaften. Und wenn etwas gemacht wird was schlichtweg nicht notwendig ist, dann fällt es wohl auch kaum unter den Begriff "Optimierung", oder nicht?

Das sind keine Optimierungen, premature hin oder her, sondern einfach nur schlechtes Software Engineering :)

Ich habe gerade versucht niederzuschreiben was ein valider Fall einer Optimierung wäre, das ist nicht ganz so trivial wie ich es mir erhofft hatte, dennoch denke ich dass ich bei einer ganz guten Beschreibung gelandet bin:
  • Wird die Abstraktionsstufe einer Lösung reduziert und somit spezifischer im Kontext einer bestimmten Plattform oder Domäne mit dem Zweck die vorhandenen Ressourcen auf Kosten einer höheren Komplexität besser nutzen zu können, so spricht man von Optimierung.
  • Falls eine Optimierung nicht Aufgrund einer bekannten Performance-Anforderung oder der Verletzung einer solchen durch die Umsetzung einer Nicht-Performance-Anforderung geschieht, so spricht man von einer "premature" Optimierung
Es sollte bedacht werden, dass solche Anforderungen nur selten gerechtfertigt werden können, z.B. in Real-Time-Szenarien, in denen harte Zeitbudgets existieren (60FPS in Videospielen, 200ms Response time in User Interfaces), in Wettbewerb-Szenarien (der Kontrahent bietet die gleiche Software aber in schneller), oder schlichtweg weil die CPU-Zeit mehr Geld kostet als man sich leisten kann (IBM wink wink).

Atkatla schrieb:
Raytracing vs kein Raytracing ist eine technologische Entscheidung, die du ja bereits viel früher treffen musst. Hier wäre "premature" wenn du Raytracing-Code optimierst, obwohl noch nicht festgelegt wurde, ob das Produkt überhaupt Raytracing einsetzt oder nicht.
Nope, ist es nicht. Es gibt nur einen einzigen Vorteil kein Raytracing einzusetzen, Performance. Darauf zu verzichten bedeutet Unmengen an zusätzlicher Arbeit ohne sonstige Vorteile.
Es ist mit Abstand die einfachste Methode Belichtung im 3D Raum darzustellen.
Das wusste man schon immer, und es gab unzählige Versuche Raytracing unter anderem in Videospielen unterzubringen. Bis vor kurzen Stand es komplett außer Frage, dass ein PC genug Leistung für Echtzeit-Raytracing liefern könnte. Vor dem Erscheinen der RTX-GPUs war es auch oft die Frage, ob Raytracing jemals Rasterization sinnvoll ersetzen kann. Selbst heute ist beim Raytracing vieles noch Fake, es werden hybride Modelle mit Rasterization eingesetzt, Neuronale Netze zum Denoising verwendet und auf multiple Bounces verzichtet. Um wirklich pures, echtes Raytracing einzusetzen bräuchten wir GPU-Leistung um etwa Faktor 100-1000 größer als was uns heute zur Verfügung steht. Dann wäre die Beleuchtung in Spielen für die Entwickler praktisch "kostenlos" und beinahe "perfekt". Ein heiliger Gral der Videospielentwicklung :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zarlak
JoeDoe2018 schrieb:
Wenn dann noch der neue Threadripper auf den Markt kommt...
Der neue Threadripper PRO für Workstationen kommt erst Anfang 2022, bis es entsprechende Workstationen in ausreichender Auswahl gibt, hat Intel schon die nächste Workstation vorgestellt. Von daher ist der neue Threadripper Pro gar nicht der Gegner der aktuellen Workstation-CPUs, die hier vorgestellt werden. Nur in H1 2022 gibt es eine kurze Überschneidung. Den aktuellen Threaripper Pro gibt es auch erst seit März 2021 für Retailkunden.

https://www.computerbase.de/2021-01/amd-ryzen-threadripper-pro-retail-endkunden/
 
FrozenPie schrieb:
Puget Systems hat da ein Review zu diesen neuen W-CPUs und den aktuellen Ryzen Threadrippern der 3000er Serie gemacht...
Da hätte ich vom 38 Kerner jetzt auch mehr erwartet.
1627741836589.png
 
  • Gefällt mir
Reaktionen: PS828
@ZeroStrat der Takt ist im Vergleich zum Threadripper wahrscheinlich einfach zu gering.

Ist bei gleichem Verbrauch wohl eine Sache der Effizienz. Aber die IPC bei icelake sollte in etwa mit der von Zen 2 vergleichbar sein oder?
 
PS828 schrieb:
Ist bei gleichem Verbrauch wohl eine Sache der Effizienz. Aber die IPC bei icelake sollte in etwa mit der von Zen 2 vergleichbar sein oder?
Die IPC von Ice Lake (Sunny Cove) sollte sogar mit Zen 3 vergleichbar sein.
 
PS828 schrieb:
@beckenrandschwi zumal nicht bekannt ist auf wie vielen kernen der Takt so liegen wird.

Mein Threadripper geht auch mit 280W auf 3,8GHz all Core. Bin gespannt was der Intel kann.

Explodieren kann der Verbrauch immer wenn man die CPUs lässt, dafür sind sie Groß genug ;)
Echt bei 280 Watt sind es also beim 3970x nur 3,8 ghz.Ich bin irgendwie Entäuscht. Hatte bei wem 4 ghz testen dürfen. Heißt diese CPU wurde dann Übertaktet. Das Resultiert dann ja in 320 Watt insgesammt.
So hat also mehr Takt seinen Preis. Die Abwärme war mit 84 Grad trotz super Wasserkühlung von 480 mm anstatt die 360 Radiatoren wirklich nicht ohne. Hier sieht man das es schon langsam an seiner Grenze ist. Bei noch mehr würde dann die CPU den Takt senken um Temps und Stromverbrauch nicht zu sprengen. Ich hatte auch immer das gefühl gehabt das der Takt nicht regelmäßig die 4 ghz hatte und immer wieder auf 3,6 ghz und so eingebrochen ist. Wird wohl daran liegen das sonst die CPU sich sonst zu sehr aufheizen würde.
Und heißt dann halt auch etwas weniger Leistung.
 
@ZeroStrat dann müssen die Dinger wirklich niedrig Takten. Anders ist das schwer zu erklären.

@latiose88 im 280W Korsett ist da Schluss ja. Aber wenn es die Temperaturen zulassen geht mehr.

Ich schaff auch 4,15Ghz all Core. Dann aber mit 430W.

Hier wäre spannend wie sich die Intels steuern lassen. Evtl lässt sich da auch noch viel rausholen
 
Uff 430 Watt,mit oder ohne AVX. Weil das ist ja echt hart,das die CPU so viel frisst. Da merkt man deutlich das es auch bei den Teuerste CPUS so ist,das die letzen Mhz mehr unverhältnis mäßig viel Strom fressen. Das erklärt auch wieso es beim Testen mit dem 3970x wo ich testen durfte der Takt so hin und her gesprungen war. Da weis man halt nicht was dann der Reale Takt am Ende wirklich gewesen war,weil es halt so hin und her geschwankt ist. Dennoch ist die CPU so heiß geworden,trotz das es so hin und her gesprungen war. Ist mir nur aufgefallen weil ich mir das genauer angeschaut hatte.Dachte das es bei 4 ghz nen festen Takt behalten hätte,dem war ja nicht so.
So kann man es halt nicht so gut diese CPU testen,wenn der sich immer wieder wechselt. WIe wohl die Leistung gewesen wäre wenn man diese CPU fest auf Allcore bei 4 ghz getakert hätte.Ob diese dann am Ende vielleicht sogar heißer geworden wäre oder nicht.

Bei mir ist die Software gänzlich ohne AVX getestet worden. Mit würde die Temps weiter steigen und dann ist Schluss mit stabilen Takt weil dann die Temps zu hoch gewesen wären. Ich weis ja wie heftig die Temperaturen bei AVX steigen. Ich habe es ja sogar mit meiner CPU ausprobiert und da war dann mit AVX mindestens 10 Grad heißer geworden. Bei den Threadripper habe ich das dann nicht mehr ausprobiert,denn ich weis es ja durch die ganzen Test wie schrecklich es dann aussieht.
Bei Intel ist es da ja nicht besser.Für mich hat AVX im Verhältnis zwischen Nutzen und den Nachteilen einfach nen schlechtes Verhältnis. Wenn ich bedenke vielleicht 2 % mehr Leistung durch AVX bei 10 % mehr Stromverbrauch und 15 % mehr Abwärme und dann noch 15 % weniger Takt.Dann passt die Rechnung eben nicht mehr beim Gesamtverhältnis.

Ich weis jedoch das es auch Anwendung gibt die Nutzen aus AVX haben. Da überwiegen halt dann die Vorteile die Nachteile.So ist das wenn man alles ausprobiert dann kennt man seine Anwendung gut und dann kann man es einschätzen.

Für mich heißt es dann wenn die neuen Threadripper mit AVX 512 kommen,kann ich schon mal die angeblichen Leistungssteigerung wegstreichen weil sie eben für mich gesehen Null nutzen haben. Diese 2 % AVX geht auf AVX1 auf das Konto. AVX2 hat mir schon 0 % Mehrleistung gebracht. Und das wird auch bei AVX 512 so sein.

Ich weis auch woher die 2 % kommen,wohl durch die ganzen MMX Instruktionen.Die bauen ja im Prinzip auf die Einheiten auf,sind halt die Vorreiter von AVX. Allerdings Begeisterung sieht anders aus. Da hilft auch das Wissen nix,weil mir das die Mehrleistung nicht weiter steigern lässt.Und ich gebe zu ,die Software ist nichts besonderes. Wenn ihr wüsstet was ich so alles herausgefunden habe,dann würdet ihr wohl Enttäuscht sein oder auch gelangweilt weil man selbst es eben nicht in der Hand hat.

Und eines ist sicher,die Software hinkt der Hardware erheblich hinter her. Für die meisten Entwickler ist es halt ein zu hoher Aufwand und zu Teuer. Ich weiß wie Aufwendig ist,scheitere ja schon an den Grundkenntnis des Programmierens. Besser wird es nicht mehr,sondern halt nur noch komplizierter. Die meisten können sowas nicht und darum wird es auch immer weniger Programmierer geben,weil die meisten meinen ach das lerne ich schon. Merken aber sehr schnell, oh das ist aber Aufwendig. Und da wo ich war gibt es Fehler Tester ,da muss man die Programmiersprache sehr gut können.Und man muss auch ein Talent mitbringen,hilft halt nix es einfach nur Auswendig zu lernen,wie halt in der Schule.


Aber eines ist dennoch sicher,sobald Threadripper Zen 3 kommt,dann will ich das dennoch testen,alleine nur aus Neugier. Solch ein Monster will ich aber wegen des Testens nicht selbst kaufen,dafür ist mir diese Maschine einfach schlicht zu teuer. Es gibt zwar die Server Zen 3 zwar schon,aber mit 3,8 ghz verliert man gegenüber 4 ghz halt auch an Leistung. Das könnte halt mein Ziel alle CPUS auf 4 ghz festzustzen eben scheitern. Das will ich nicht und auch das Ergebnis will ich nicht Verwässern. Also heißt es halt abwarten.
 
Zurück
Oben