Bericht Intel Cooper Lake-SP: Skylake-Finale mit 28 Kernen, DDR4-3200 und 250 Watt

Hm ok verstehe.Ja manche Anwendung ist es egal ob genau oder ungenau.Spiele z.b können z.b auch mit 16 Bit ausgeführt werden.Ist halt zwar eigentlich in 32 bit einheiten,aber nun gut.
Soweit ich weis braucht x264 ebenfalls keine so hohe bitrate.Da darf es auch etwas ungeauer sein.Darum verstehe ich nicht warum solche sachen keine 16 bit unterstüzung kriegen.Oder weil es Mathematisch zu berechnen werden soll,das es dann genauer berechnet werden muss?
 
PS828 schrieb:
Hier geht es Intel um andere Dinge. Und da hier noch keine Konkurrenz ist können sie es sich hier erlauben
Richtig, es geht hier klar und ausschließlich um die AI Performance und da hat Intel keine Konkurrenz von AMD, wenn diese auf der CPU erfolgt. Schau mal ob Du einen Review findet bei dem EYPC mit den Cascade Lake Xeons bzgl. AI Performance verglichen werden, ich habe keinen gefunden und Cinebench Ergebnisse sagen darüber rein gar nichts aus.
Richy1981 schrieb:
Fragt sich nur warum AMD da vordringen muss, wenn sie mit 2 x 64 kernen schneller oder genauso schnell sind wie ein Intel mit möglicherweise 8 CPUs zu einem Viertel bis Hälfte des Preises?!
Beim Rendern vielleicht, aber wohl kaum bei AI, genau darauf sind diese Cooper Lake nämlich optimiert und die kaufen sich nur Firmen die damit auch AI machen. Für alle anderen kommen im zweiten Halbjahr die Ice Lake-SP.
PS828 schrieb:
Also nix was EPYC gefährlich wird da in der "real World" kaum verwendet, nicht zugänglich und unfassbar teuer.
Eben, die Cooper Lake sind sehr speziell und für einen Markt in dem AMD gar nicht antritt, daher sind die ganzen AMD Vergleiche hier aus sinnfrei.
Benji18 schrieb:
Das ist aber ein Thema das AMD mit Intel diskutieren muss, da die AVX Lizenzen für die x86 Befehlssatz erweiterung bei Intel liegen ob die in der jetzigen Situation diese weitergeben wer weiß.
Gilt denn das Patentaustauschabkommen nicht mehr oder nur für Technologie die bei Abschluss verfügbar war?

Die andere Sache ist, dass AMD sich derzeit auf Mainstream konzentriert, was Märkte und Technologie betrifft und AVX512 ist noch nicht so verbreitet, dass sie es unbedingt haben müssten. Bei Befehlserweiterungen ist AMD wohl nach dem Pleite von 3DNow vorsichtig geworden und implementiert sie erst, wenn sie etabliert sind, im Zweifel also eher eine Generation zu spät als zu früh. Außerdem sind die AVX512 Einheiten groß und brauchen viel Leistung, AMD fährt aber lieber die Schiene mit mehr Kernen und da ist es nicht hilfreich wenn ein Kern wegen der AVX512 Einheit so viel Platz einnimmt und dafür dann statt 8 nur 6 Kerne auf ein Chiplet passen oder die Chiplets so groß werden, dass statt 8 Chiplets nur 6 unter des HS des Sockels passen, denn die Rome müssten ja weiter den Sockel der Vorgänger nutzen, weil AMD dies vorher versprochen hatte.

Für AMD ist die Entscheidung bisher auf AVX512 zu verzichten also durchaus sinnvoll, zumal sie mit Zen2 ja gerade erst die AVX2 Einheiten auf 256 Bit aufgebohrt haben. Ich würde auch eher bei Zen4 als Zen3 mit AVX512 rechnen, da diese dann in 5nm gefertigt werden, womit man den zusätzlichen Platz- und Energiebedarf besser kompensieren kann.
latiose88 schrieb:
Darum verstehe ich nicht warum solche sachen keine 16 bit unterstüzung kriegen.
Keine Ahnung ob die Beispiele die Du genannt hast mit 16 Bit Genauigkeit auskommen, aber wenn, so lohnt es sich nur diese auf 16 Bit umzustellen, wenn dann auch die Performance steigt, kann die CPU aber nur genau so viele 16 Bit Operationen in der gleichen Zeit ausführen wie 32 Bit Operationen, lohnt es sich ja nicht diesem umzustellen.
 
@Holt ich hab auch nix gefunden, aber AI ist normalerweise Sache von GPUs oder? Glaub nicht dass CPUs da so viel mitspielen können
 
Zuletzt bearbeitet:
Waelder schrieb:
aber wahrscheinlich trotzdem mehr als genug Nachfrage vorhanden...
Nö, nicht wirklich. Intel versuchte die Dinger schon länger an den man zu bringen, alle Server-Hersteller haben sich bisher über einem Zeitraum von mehr als einem Jahr praktisch geweigert, diesen Quatsch zu verbauen und Boards dafür zu entwickeln. Zu teuer, zu stromhungrig und generell sinnbefreit, damit erntet man nur Spott beim Kunden.

Deswegen ist Intel irgendwann hingegangen und mußte selbst boards bei Drittfirmen beauftragen, damit man überhaupt etwas in der Hand hat. Nicht einmal ein Sockel ist es geworden, bloß BGA.

Aber ist ja auch kein Wunder; Ein 300W-Monster, was Wasserkühlung braucht, damit es nicht zur Kernschmelze kommt, was deutlich langsamer, dafür stromhungriger aber trotzdem noch teuer ist als AMD's Teile, will noch braucht kein Mensch. Und dass man bei Intel so krass verzweifelt war, Cooper-Lake sogar am Tag vor Rome's Vorstellung offiziell vorzustellen, zeigt, wie hoffnungslos die Situation ist.
Hier: https://www.semiaccurate.com/2018/08/07/intel-has-no-chance-in-servers-and-they-know-it/

… weiß TechFA
 
  • Gefällt mir
Reaktionen: Kodak
@PS828

Das AI-Feld ist zu zersplittert, als das sich da pauschale Aussagen zu treffen lassen. Für einige Workloads wie fast perfekt parallelisierbare Training- oder Inferencing-Aufgaben von neuralen Netzwerken sind GPUs i.d.R. das Mittel der Wahl, da Unmengen an einfachen Shadern vorhanden sind, die den Spaß ohne viel Memory-Access durchcrunchen können.

Werden die Modelle und einzelnen Batches größer, kann eine CPU mit VNNI-Erweiterung und entsprechender RAM-Austattung im Vorteil sein, da 1,5 TB pro Sockel im Zweifelsfall natürlich deutlich üppiger bemessen sind als die 24-48 GB, die so eine Tesla V100/A100 in die Waagschale werfen kann. Manchmal kommt es eben doch mehr auf die schiere Größe als auf die Geschwindigkeit an und große Datenmengen über die PCIe-Link aus dem Hauptspeicher in den VRAM hin- und her zu kopieren lässt die Latenzzeiten durch die Decke schießen.

Auch muss die Software natürlich mitspielen. Wenn deine Entwickler seit 20 Jahren mit der Intel MKL samt Entwicklungsökosystem unterwegs sind, stellst du nicht mal innerhalb von drei Wochen alles auf CUDA/CuDNN und Co. um.
 
  • Gefällt mir
Reaktionen: v_ossi, LamaMitHut und PS828
TechFA schrieb:
Nö, nicht wirklich. Intel versuchte die Dinger schon länger an den man zu bringen, alle Server-Hersteller haben sich bisher über einem Zeitraum von mehr als einem Jahr praktisch geweigert, diesen Quatsch zu verbauen und Boards dafür zu entwickeln.
Quatsch ist was du hier schreibst, Semiaccurate ist übrigens sowas wie die Bildzeitung der Branche. Hätten die vor fast zwei Jahren recht, wieso hat AMD dann immer noch gerade mal 7% Marktanteil?

Cooper Lake war als Nachfolger für Cascade Lake gedacht und entwickelt worden, aber dann hatte Intel endlich die Probleme der 10nm Fertigung so weit gelöst, dass die parallel entwickelten Ice Lake-SP die Rolle übernommen haben. Nur fehlt Ice Lake-SP das was Cooper Lake von Cascade Lake unterscheidet, nämlich AI Optimierungen wie Bfloat16 und daher wurde Cooper Lake nicht komplett abgeblasen, sondern kommt eben in dieser speziellen Form für die AI Kunden die genau dies brauchen. Für alle anderen Kunden kommt Ice Lake-SP.
TechFA schrieb:
Wieso 300W? Im Text steht ganz oben "bis zu 250 Watt", also weniger als der AMD EPYC 7H12 oder die Threadripper 3000er mit ihren 280W.
Simon schrieb:
lässt die Latenzzeiten durch die Decke schießen.
Da ist das Problem, die AI soll ja möglichst in Echtzeit Ergebnisse liefern, eben damit auch Anwendungen wie in Online Shops möglich werden, wo man es einsetzen möchte um jedem Kunden den Preis anzuzeigen, zu dem der Algorithmus denkt das er ihn gerade noch kaufen wird. Immer wenn geringe Latenzen oder große Datenmenge im Spiel sind, ist die Berechnung auf der CPU die bessere Wahl.
Mit dem Fokus auf AI hat Intel passend zum Start der neuen Xeon auch den Stratix 10 in einer überarbeiteten Auflage im Angebot. Der Stratix 10 NX mit seinen 15 Milliarden Transistoren soll später in diesem Jahr erscheinen und setzt auf einen komplett überarbeiteten AI-Block der die 15-fache Leistung als das bisherige Modell bieten soll
 
  • Gefällt mir
Reaktionen: KlaraElfer
TechFA schrieb:
Nö, nicht wirklich. Intel versuchte die Dinger schon länger an den man zu bringen, alle Server-Hersteller haben sich bisher über einem Zeitraum von mehr als einem Jahr praktisch geweigert, diesen Quatsch zu verbauen und Boards dafür zu entwickeln. Zu teuer, zu stromhungrig und generell sinnbefreit, damit erntet man nur Spott beim Kunden.

Deswegen ist Intel irgendwann hingegangen und mußte selbst boards bei Drittfirmen beauftragen, damit man überhaupt etwas in der Hand hat. Nicht einmal ein Sockel ist es geworden, bloß BGA.

Aber ist ja auch kein Wunder; Ein 300W-Monster, was Wasserkühlung braucht, damit es nicht zur Kernschmelze kommt, was deutlich langsamer, dafür stromhungriger aber trotzdem noch teuer ist als AMD's Teile, will noch braucht kein Mensch. Und dass man bei Intel so krass verzweifelt war, Cooper-Lake sogar am Tag vor Rome's Vorstellung offiziell vorzustellen, zeigt, wie hoffnungslos die Situation ist.
Hier: https://www.semiaccurate.com/2018/08/07/intel-has-no-chance-in-servers-and-they-know-it/

… weiß TechFA
das Problem ist nicht das Produkt, solange so viele Software Entwickler Intel die Stange halten und auch die Hersteller primär auf Intel setzen, wird sich nicht viel ändern... wenn es so einfach wäre, müsste AMD schon ein Marktanteil von 30% haben...
 
latiose88 schrieb:
Was ist wenn man nun hergeht und die Kerne breiter macht.Also sprich mehr Transistoren pro Kern.Dann gäbe es ja auch mehr Leistung und dabei gäbe es dann auch nicht mehr abwärme.
Ich denke du musst dich mal mehr einlesen, wie Rechenleistung erzeugt wird. Wikipedia-Einträge zu Prozessor-Architekturen sind da eine gute Anlaufstelle.

Die Punkte, die ich vorgeschlagen hatte, sind die typischen Möglichkeiten, mit mehr Transistoren mehr Leistung zu erzeugen: Mehr Kerne oder mehr Cache. Architekturverbesserungen im allgemeinen erhöhen auch die IPC, das hängt aber nicht zwingend mit mehr Transistoren zusammen. Es gibt sonst nichts, wofür man mehr Transistoren benutzen könnte, um die Leistung eines Kernes sinnvoll zu erhöhen, außer eben indem man spezielle Funktionen wie AVX einbaut.

Das geht sonst nur mit mehr Takt, und dafür braucht es nicht einen zusätzlichen Transistor.
 
[n]ARC schrieb:
Man kann über Intel sagen was man will, aber was sie auf 14nm auspressen ist doch schon extrem erstaunlich. Spinnen wir mal weiter, Intel landet iwann bei 7nm... das wird sicher wieder ein gutes Stück Hardware.
Wieso denkt jeder, dass Intel mit 7 nm erfolgreich sein wird. Wenn das so einfach wäre, hatten sie schon 10 nm.
 
  • Gefällt mir
Reaktionen: TechFA
Reinheitsgebot schrieb:
Wieso denkt jeder, dass Intel mit 7 nm erfolgreich sein wird. Wenn das so einfach wäre, hatten sie schon 10 nm.

Mal ganz davon abgesehen: AMD wird "relativ bald" in 3 nm herstellen lassen können, wenn da nicht alles in die Hose geht. 2022 wissen wir mehr, da soll die Produktion für Smartphonechips beginnen.

Bei 5 nm wird es jedenfalls nicht an der Fertigung scheitern, die Roadmaps für Ende '21 / Anfang '22 scheinen wie eine Eins zu stehen.
 
Waelder schrieb:
das Problem ist nicht das Produkt, solange so viele Software Entwickler Intel die Stange halten und auch die Hersteller primär auf Intel setzen, wird sich nicht viel ändern... wenn es so einfach wäre, müsste AMD schon ein Marktanteil von 30% haben...

Nee AMD könnte unmöglich auf 30% kommen. Wieso? So viele Server-Chips können sie momentan gar nicht produzieren.

Momentan ist es doch eigentlich so, dass beide Hersteller keine Probleme haben ihre Chips unters Volk zu bringen, weder AMD noch Intel. Intel kriegt dort erst Probleme, wenn AMD mehr produzieren lassen kann bei TSMC und ihre Knebelverträge auslaufen.
 
Die Brot-und Butter-Server sind ja eher die mit 2 Sockel. Ich habe lieber 4 Zwei-Sockelsysteme im ESX-Cluster als 2 Vier-Sockelsysteme, ist man einfach flexibler und wenn ein Gerät ausfällt sind nicht gleich 50% weg..Auf einem 2-Sockel-Server mit 14-18-Kern-CPUs und 512-768 GB RAM lassen wir bis zu 100 VMs laufen, Wir hätten hier nicht mal eine Anwendung für z.B. 2x Achtsockelsysteme - die kriegten wir mit unseren maximal 400 VMs pro Standort nicht ausgelastet..
 
PS828 schrieb:
Es wurde aber explizit für supercomputer beworben und der Preis wird so bei 20k bis 25k liegen.
Woher hast Du die Information? Ich kann bis jetzt keinerlei Preisangaben irgendwo entdecken.

LG
Zero
Ergänzung ()

Colindo schrieb:
Ganz abgesehen davon, dass AMD schon jetzt in den meisten Fällen mehr Leistung pro Kern liefert.
Vorsicht- IPC ist nicht gleich maximale Leistung pro Kern...
Die Unterschiede sind aber inzwischen marginal.

LG
Zero
 
Ned Flanders schrieb:
C: warum ist Leistung je Kern unter einer Server CPU News wichtig?
Weil auch die Server die Gesetze der CPU Skalierung und der Parallelisierung von Software nicht aushebeln können.

Man brauch Server ja nicht nur für "massives" Computing sondern unter Anderem z.B. auch für Terminalserver- Farmen. Und da ist Anwendungsabhängig die Leistung je Kern ein ganz entscheidendes Kriterium.

Womit wir den Kreis wieder schließen, dass sich die Hersteller je nach Anwendungsfall leistungstechnisch im Augenblick die Waage halten bzw. die Performancekrone abwechselt. Aber wir sind sehr weit davon entfernt, dass man hier davon sprechen kann, dass hier irgendein Hersteller den anderen abgehängt hätte.

Vielleicht wendet die 4000er Reihe von AMD das Blatt.

LG
Zero
 
Waelder schrieb:
solange so viele Software Entwickler Intel die Stange halten
Klar, denn wer sich die Mühe gemacht hat um seine Software auf die erste EYPC Generation und deren spezielle NUMA Eigenschaften zu optimieren, kann dies alles bei den Rome schon wieder in die Tonne treten. Intel wird von den AMD Fanboys vorgeworfen immer nur den Refresh vom Refresh zu liefern, aber genau dies bedeutet für die Softwarehersteller die Konstanz die sie brauchen um auch Geld mit ihren Entwicklungen zu verdienen und nicht ständig Optimierungen vorzunehmen die schon veraltet sind, wenn sie auf den Markt kommen. Solange dies so geht, wird sich daran auch nichts ändern, wie soll es denn ein Hersteller schaffen auf AMD zu optimieren, wenn diese Optimierungen dauernd anderes aussehen müssen?
 
  • Gefällt mir
Reaktionen: KlaraElfer, Simon und .Sentinel.
Holt schrieb:
Solange dies so geht, wird sich daran auch nichts ändern, wie soll es denn ein Hersteller schaffen auf AMD zu optimieren, wenn diese Optimierungen dauernd anderes aussehen müssen?
Der "normale" Computeruser hat eben kaum eine Vorstellung davon, wie der professionelle Markt in solchen sparten geregelt ist.
Der versucht seine Erfahrungen mit gaming- Kisten oder Videorendering da irgendwie reinzuwursten und kommt nicht auf die Idee, dass in diesem Umfeld ganz andere Faktoren eine tragende Rolle spielen.

Es hat schon seinen Grund, warum nicht von heut auf morgen alles mit Epycs vollgestopft wird und nicht alle Entwickler außer Rand und Band ihre Software umbauen.

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer, Holt und Simon
ZeroZerp schrieb:
Der "normale" Computeruser hat eben kaum eine Vorstellung davon, wie der professionelle Markt in solchen sparten geregelt ist.
Der versucht seine Erfahrungen mit gaming- Kisten oder Videorendering da irgendwie reinzuwursten und kommt nicht auf die Idee, dass in diesem Umfeld ganz andere Faktoren eine tragende Rolle spielen.
So sieht es wohl aus. Dabei werden viele Server für genau eine Anwendung gekauft und natürlich wird dann die für diese Anwendung optimale Hardware gekauft und i.d.R. gibt es Teststellungen bei denen der Kunden vorher schaut wie gut die Performance bei der speziellen Anwendung auf welchem System ist. Ohne Support vom Softwarehersteller für die Hardware läuft sowieso nichts, wer kann es sich schon leisten bei Problemen im Regen zu stehen und auch bei eigener Software wird man sich gut überlegen welchen Aufwand die Optimierung auf ein anderes System bedeutet, wie lange diese dauert und wie viel sie kostet und ob das die mögliche Einsparung beim Preis der Hardware rechtfertigt. Das bei AMD für jede Generation andere Optimierungen nötig sind, erleichtert es nicht gerade sich dafür zu entscheiden.

Außerdem bedient Intel gerade genau das was am Markt gefragt ist: AI
 
ZeroZerp schrieb:
Weil auch die Server die Gesetze der CPU Skalierung und der Parallelisierung von Software nicht aushebeln können.

Stimme ich zu. Nur wäre schon zu klären in wie weit es hier überhaupt einen Vorsprung gibt.

Die Single Thread Leistung der Mainstream Intel CPUs ist ja auch nicht höher als die der vergleichbaren AMD Architektur sondern rein die Frontend Latenz sorgt für Vorteile in sehr konkretisierbaren Anwendungen. Dieser Vorteil ist ja bei den Server Prozessoren gar nicht da, und die Anwendungen eben ganz andere wodurch der Schluss das die ST Leistung der Xeons höher ist gar nicht undbedingt richtig ist.

Anyway, DER Grund warum man sich für Intel und gegen Epyc (rein von der Leistung her betrachtet) entscheiden würde liegt aus meiner Sicht definitiv nicht beim Single Core Boost und eventuell 10% Vorsprung zu suchen, sondern im AVX512 Support. Ich sehe jedenfalls nicht das sich jemand ein 4 oder 8 Wege System mit CL-SP ordert um darauf irgendwas laufen zu lassen, bei dem ein paar Prozent Single Thread Performance ausschlaggebend wären den Aufpreis für sowas zu rechtfertigen. Das klingt konstruiert. Da gibt es wie gesagt andere und viel bessere Gründe die man da ins Feld führen kann, weswegen ich die Diskussion albern finde.
 
Zurück
Oben