News Knights Landing: Intel senkt Preise für Xeon Phi um bis zu 3.336 US-Dollar

Nun, ein paar Supercomputer scheinen Xeon Phi zu nutzen (https://www.top500.org/statistics/overtime/), derzeit 14, es waren schonmal 30. Was in den großen Rechenzentren von Microsoft, Google, NSA usw. verbaut ist, taucht in der Liste ja nicht auf.
 
Wie darf ich mir KL eigentlich vorstellen?

Eine Art "GPU" mit ganz vielen speziellen Shadern die nur auf eine bestimmte Aufgabe zugeschnitten sind?
 
Verstehe ich das richtig, dass die mit einem Kern 4 Threads gleichzeitig abarbeiten können?
Also eine art "HyperThreading * 2"?
 
daß bei den auftragsfertigern von amd gerade die produktionsstraßen heißfahren... intel möchte hier sicher nur eine überhitzung verhindern helfen... für bestehende systemlandschaften spielt der preis sicher keine soo große rolle... aber da überall geld im überfluss vorhanden ist, wird auch viel in neue systeme investiert...wenn man da die gleiche leistung/wirtschaftlichkeit für einen deutlich geringeren preis bekommt, wirkt sich das auch auf die zukunft aus, wenn erweiterungen anstehen...intel hat's schon genau so gemacht...
 
IBMs Power CPUs können sogar 8 Threads je Core abarbeiten. Das ist keine reine intel Erfindung.
 
Das ist doch nichts neues, diese Preissenkung findet bei Intel doch in dieser Produktklasse bei jeder Generation statt. Und wenn dann wirklich die nächste Generation kommt, werden noch mal verramscht :)
 
Dezor schrieb:
Nun, ein paar Supercomputer scheinen Xeon Phi zu nutzen (https://www.top500.org/statistics/overtime/), derzeit 14, es waren schonmal 30. Was in den großen Rechenzentren von Microsoft, Google, NSA usw. verbaut ist, taucht in der Liste ja nicht auf.

Google ist mit Mitglied der OpenPOWER Foundation einer der größten Abnehmer von POWER CPUs, da findest du sehr viele IBM Maschinen.

DenMCX schrieb:
Wie darf ich mir KL eigentlich vorstellen?

Eine Art "GPU" mit ganz vielen speziellen Shadern die nur auf eine bestimmte Aufgabe zugeschnitten sind?

Das ist prinzipiell eine "normale" CPU, die halt mehr parallele Threads verarbeiten kann.
Das können andere Hersteller schon länger. Sun, oder IBM zum Beispiel.

JeverPils schrieb:
Verstehe ich das richtig, dass die mit einem Kern 4 Threads gleichzeitig abarbeiten können?
Also eine art "HyperThreading * 2"?

HyperThreading ist ein Markenname. Der richtige Begriff ist dafür SMT.
 
Blöde Frage, kann man eigentlich so eine Karte in einem VM Server als zusätzliche normale CPUs verwenden? Sprich über Hyper-V, VMware, Xen..?
 
@flappes

Ja, SMT gab es schon 1968 im IBM ACS-360 und später im Alpha 21464, wie uns Wikipedia verrät. Hat irgendjemand gesagt, dass Intel das erfunden hat?

@textract

Dein Hinweis, dass andere Hersteller wie IBM oder SUN auch Prozessoren mit SMT entwickelt haben, beantwortet seine Frage nicht, denn es geht ihm darum, wie er das Konzept von PHI zu verstehen hat... und seine Frage ist berechtigt ist, denn Phi implementiert typische GPU Techniken. (Dürfte ja auch nicht allzu sehr verwundern, da Xeon Phi aus dem Larrabee-Projekt hervorgegangen ist, dem gescheiterten Versuch eine Grafikkarte zu entwickeln, bei der ein Teil der Funktionen in der Software realisiert ist.)
 
Zuletzt bearbeitet:
DenMCX schrieb:
Wie darf ich mir KL eigentlich vorstellen?

Eine Art "GPU" mit ganz vielen speziellen Shadern die nur auf eine bestimmte Aufgabe zugeschnitten sind?

Anders herum. Eine 'GPU' die eben deutlich vielseitigere Aufgaben mit ihren 'Shadern' abarbeiten kann. Halt im Endeffekt drei mal i9 mit vierfach-SMT auf einem Chip.
 
inspectah schrieb:
Server mir Virtuellen Maschinen drauf.

Nein, ganz sicher nicht. Dafür ist KNL einfach nicht gedacht und auch nicht wirklich geeignet.

Shoryuken94 schrieb:
Bei anwendungen die sich gut parallelisieren lassen und auf x86 setzen, sprich keine Grafikkarten nutzen. Solche CPUs werden in Supercomputern verwendet, die hauptsächlich zur Simulation dienen. Wetterforschung, Materialforschung, Medizin etc.

Nicht nur gut Parallelisieren, sondern auch Vektorisieren. Xeon Phi ist einzig und allein für Anwendungen gedacht, die irgendwie mit der doppelten Vektor-Einheit (AVX-512) klarkommen. Ansonsten sind die 72 Silvermont-Cores @ ~1,3 GHz reichlich langsam. Der 16 GB große MCDRAM ist halt geil.

textract schrieb:
Das ist nicht mal wirklich besonders, IBM hat Prozessoren mit 8 SMT Cores pro Core im Petto und da bekommst du bis zu 192 Cores * 8 in ein System.
Der Unterschied ist, die IBM Cores takten mit ca. 4 GHz.

Das ist prinzipiell eine "normale" CPU, die halt mehr parallele Threads verarbeiten kann.
Das können andere Hersteller schon länger. Sun, oder IBM zum Beispiel.
Falscher Vergleich. Für den Anwendungszweck, den die Xeon Phi erfüllen sollen, ist es nicht immer vom Vorteil, große NUMA-Knoten zu bauen. Sowas findet man im HPC-Bereich praktisch NIE. Von 500 gelisteten Systemen in der TOP500-Liste sind 499 Lösungen mit Knoten von maximal zwei Sockeln pro Node, beim Xeon Phi als Host-CPU sogar als Uni-Socket. Da läuft die Verteilung halt über MPI.

Große IBM E880er Boxen, die pro System auch gerne mal hoch sechsstellige Beträge kosten mit einfachen HPC-Nodes < 10.000 USD zu vergleichen, ist auch kein wirklich sinniger Vergleich.
 
Und ich wette, die verdienen immer noch gutes Geld an den Teilen, da bekommt man so ein ungefähres Gefühl dafür, wo die Marge bei Intel liegt.
 
Volker schrieb:
heubergen schrieb:
Weiss jemand worauf Intel hier reagieren musste? Es wäre mir neu wenn AMD in diesem Segment ebenfalls mitspielen würde.
Die großen hatten einfach totale Mondpreise. deshalb wurden die kleineren auch nur leicht gesenkt. Sp passt es viel besser ins Gefüge nun. AMD hat damit nix zu tun, die spielen in dem Bereich quasi nicht mit, nur Nvidia macht da ordentlich Balett.

Hm, das ist wohl eher Ansichtssache.
Wenn die (abgespeckten) 64 Kerner Phis nur so niedrig takten und die neuen EPIC-CPUs mal in etwa den doppelten Takt (2,2/3,2 vs 1,3/1,5) haben, bei halber Kernzahl, dann ist man schon mal gleichauf nach einem einfachen Dreisatz. Dann noch ein niedrigerer Verbrauch dazu, die höhere Rechenleistung von "normalen x86-Cores" wie sie AMD anbietet gegen die abgespeckten auf den Phis.
Dazu kommt noch, dass die Kerne des Epics einfach so benutzt werden können für alles, die Phis nur bei spezialisierten Einsatzzwecken in Frage kommen.
Klar, es kommt noch der Speicher dazu, der auf den Karten drauf ist. Aber der ist ja auch nur extern angebunden und nicht on Die, also auch nichts besonderes.
Der Fairness halber hab ich jetzt auch die EPIC 64-Thread-Version mit der Phi 64-Kern Version verglichen. Der Preis bei den 8 Kernen Extra zu 72-Kern-Version ist natürlich absolut lächerlich gewesen.

Es geht auch nicht mal direkt darum, dass der Epic im Milieu vom Phi wildert, es ist viel mehr so, dass er diesen quasi obsolet macht. Das Phi-Teil ist genauso tot wie Itanium, außer da kommt noch eine gewaltige Taktsteigerung, ohne den Verbrauch exorbitant zu steigern. Was ich einfach mal bezweifle.

Wenn du wirklich der Meinung bist, dass AMD nichts mit der Sache zu tun hat, Volker, dann würde ich gerne deinen Gedankengang verstehen?
 
DenMCX schrieb:
Wie darf ich mir KL eigentlich vorstellen?

Eine Art "GPU" mit ganz vielen speziellen Shadern die nur auf eine bestimmte Aufgabe zugeschnitten sind?

Im Grunde fing es an mit ganz vielen, heute sehr kleinen P54C Kernen, also den ersten Pentiums. Wahrscheinlich durch moderne Befehlssatzerweiterungen verfeinert. War so ein Projekt von einem früheren Intel Manager dem dieses Projekt auch mehr oder weniger den Kopf gekostet hat. So richtig der Riesen Renner war es nie und wirds wohl nie, aber so bringt man wohl wenigstens einen Teil der wohl enormen Entwicklungkskosten wieder rein.
 
DenMCX schrieb:
Wie darf ich mir KL eigentlich vorstellen?

Eine Art "GPU" mit ganz vielen speziellen Shadern die nur auf eine bestimmte Aufgabe zugeschnitten sind?

Jein, geplant war mal ein wirkliche GPU die auf recht primitivien Pentium1 Kernen beruht, also schlicht eine reine Rechenmaschine ohne den ganzen schnickschnack und firlefanz der die Jahre danach dazu gekommen ist. Eben weil x86 CPUs eine unterirdische FLOP-Leistung haben, wenn man sie mit spezialisierten Prozessoren vergleicht wie GPUs.
Das Projekt als Grafikkarte ist gescheitert und wurde dann in ein neues überführt, sprich Erweiterungskarten im Style eine Profi-GPU a la Tesla die keine Grafik berechnet, sondern für spezialisierte Aufgaben zuständig ist.
Auch da hat man sich bisher nicht durchgesetzt und darum auch die Preissenkung. Wozu einen Co-Prozessor reinstecken, wenn ein normaler schon die selbe oder höhere Leistung bringt.
Das System oder die Idee die Intel dahinter verfolgt hat, war eine viel langsamere Steigerung der normalen CPUs und dann als Ergänzung eine enorme Kernzahl auf einer Erweiterungskarte. Leider hat AMD das jetzt eine Strich durch die Rechnung gemacht, zudem ist die Konkurrenz in diesem Markt der spezialisierten Erweiterungskarten mit Nvidia sehr groß und der Markt vergleichbar klein. Viel Geld zwar, aber wenige Kunden. Und wenn die Mehrzahl auf Nvidia setzt, dann macht niemand der halbwegs mitdenkt den Fehler und setzt auf Intel- zu sehr hängen die Erfahrungen an den Itanium-Flop da nach.

Intel hätte da durchaus ein Chance gehabt mit Laraabee, aber war viel zu spät dran. Der Markt gehört den CUDA-Cores. Will man da mitschwimmen muss man um einiges Mehrleistung bieten und nicht nur "irgendwie" mitschwimmen. Maximal AMD hat da noch etwas Anschluss, wenn die Software auf OpenCL setzt. Bei Mining sind sie ja weit voraus.
 
Zurück
Oben