News Intel Knights Mill: Letzte Generation des Larrabee-Erben gestartet

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.298
#1
Dabei seit
Dez. 2010
Beiträge
305
#2
In der Tabelle scheint das Topmodell aber weniger Takt zu haben als der Vorgänger. Fehler?
 

v_ossi

Lt. Commander
Dabei seit
Juni 2011
Beiträge
2.044
#3
But can it run Crysis?

Spaß beiseite, weiß man, ob Intel mit den Teilen tatsächlich großartige Gewinne erwirtschaftet, oder ob man Knights Mill nur alibimäßig auf den Markt wirft um sich kein Totalversagen eingestehen zu müssen?

Und wo wird Knights Mill dann in der Realität eingesetzt? Wer benutzt die? Und in welchem Umfang?
 

yassin2605

Cadet 4th Year
Dabei seit
Jan. 2017
Beiträge
105
#4
Das war doch die Karte für Raytracing damals, oder ? Was ist eigentlich aus Raytracing geworden, früher hieß es mal, es könnte die klassische Grafik Berechnung ablösen.
 

Volker

Ost 1
Ersteller dieses Themas
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.298
#5

nf1n1ty

Lt. Junior Grade
Dabei seit
Feb. 2006
Beiträge
370
#6
@Volker

Die Namenklatur macht bereits deutlich, wie gering die Unterschiede doch zur bisherigen Generation Knights Landing ist, die als x200-Serie im Markt ist. Doch Intel gibt den neuen Modellen nicht mehr Taktspielraum, doch die TDP steigt aufgrund einer leicht angehobenen Spannung auf bis zu 320 Watt an. Doch die neuen Xeon Phi können mehr.
Ohne übermäßig pingelig sein zu wollen:
1. Nomenklatur
2. Der Absatz hat doch etwas viel doch. :D
 
Dabei seit
März 2011
Beiträge
682
#7
Solche Karten werden oft im Wissenschaftlichen Umfeld eingesetzt, es ist aber oft so das die normalen x86 Kerne auf einer CPU oft das selbe können wie die Xeon Phi Geschichten, daher lohnt es für viele nicht den Code anzupassen sondern kaufen sich einfach mehr Racks dazu.

Also am HRLS in Stuttgart nuzten sie stellenweise diese Co CPU´s aber nur für spezielle Dinge. Ansonsten stecken ganz normale Xeons drin

https://www.hlrs.de/systems/cray-xc40-hazel-hen/
 

user2357

Cadet 4th Year
Dabei seit
März 2017
Beiträge
70
#8

Waelder

Lt. Commander
Dabei seit
Juli 2012
Beiträge
1.952
#9
interessant das es eine Firma wie Intel nicht geschafft hat in dem Sektor Fuß zu fassen...

die Phi Karten wurden doch vor ein paar Jahren schon mal zum Schnäppchen angeboten - schade das man hier als Einzelperson kaum Anwendung hat...
 
Dabei seit
Dez. 2010
Beiträge
305
#10
Bei Linus gab es dazu vor ein paar Wochen mal ein Video zum Thema und etwaigen Anwendungen. Tatsächlich gibt es Aufgaben, die mit diesen Chips gut zu beackern sind.

Allerdings wären die einzige Anwendungen die mir persönlich dazu einfallen würden CPU-gebundene Sachen auf Boinc. Word community grid und so. Und selbst da wäre ich nicht sicher, ob ein EPYC mit 32 Kernen dem Intel-Gewächs nicht die Butter vom Brot zieht.
 
Zuletzt bearbeitet:
Dabei seit
Apr. 2009
Beiträge
1.402
#11
... oder ob man Knights Mill nur alibimäßig auf den Markt wirft um sich kein Totalversagen eingestehen zu müssen?

Und wo wird Knights Mill dann in der Realität eingesetzt? Wer benutzt die? Und in welchem Umfang?
Ob da Gewinne bei rausspringen, wird wohl nur Intel selbst wissen.
Der Vorgänger Knights Landing hat aber eine recht große Verbreitung erlangt. Allein 3 der Top-10 Supercomputer verwenden diesen. Die Nr. 2 verwendet noch Knights Corner (Vorgänger).

Wo der Platz für Knights Mill sein wird, wird solange unklar sein, bis man weiß, wie er sich im Deep Learning gegen NVidias GV100 schlägt.
Ein Bisschen schlechter darf er bzgl. Performance/Watt sein, da er andere in dem Umfeld nicht zu unterschätzende Vorteile bietet und flexibler ist.

Sollte er für Deep Learning deutlich schlechter sein als GV100, dann wird er sich wohl genauso positionieren wie Knights Landing. Was ja wie beschrieben nicht unbedingt schlecht sein muss.

Solche Karten werden oft im Wissenschaftlichen Umfeld eingesetzt, es ist aber oft so das die normalen x86 Kerne auf einer CPU oft das selbe können wie die Xeon Phi Geschichten, daher lohnt es für viele nicht den Code anzupassen sondern kaufen sich einfach mehr Racks dazu.
Wobei man anmerken muss:
Damit die "normalen x86er" aka Xeons in etwa auf dieselbe Peak-Rechenleistung kommen wie ein Xeon Phi, braucht man selbst bei den aktuellen Skylakes mit AVX512 und FMA ca. 3x16 Kerne. Da hat der Phi dann immernoch den direkten Vorteil bei der Leistungsaufnahme und auch den indirekten, weil man nur ein 1-Sockel-Board braucht und nicht "1,5" Dual-Sockel-Boards.
Dafür muss man aber auch die Codeanpassung für Skylakes AVX-512 machen und da diese mit den Xeon Phi binary compatible sind und die Anpassung auf AVX512 dieselbe ist, ist das praktisch ein Abwasch.
Wenn man auf moderner Hardware seinen Code also effizient ausführen will, muss man sowieso anpassen.
Für Speicherlastige Anwendungen ist der MCDRAM des Xeon Phi auch nicht zu verachten.

Andererseits sind die normalen Xeons deutlich vielseitiger. Anwendungen, die eine höhere single thread Leistung brauchen, laufen auf Xeon Phi vergleichsweise schlecht. Wenn man genügend Nodes bzw. Kerne hat, um dieselbe hohe Parallel-Leistung mit normalen Xeons zu erreichen, ist das im Schnitt über viele verschiedene Anwendungen idR eindeutig besser.

Ich persönlich gehe aufgrund der aktuellen News, die man auch kürzlich so von der SC17 gehört hat, davon aus, dass Intel die Xeon Phis einstampft und die entstandene Lücke mit MCMs aus normalen Xeons schließt. Vielleicht auch mit HBM an Bord.
Um NVidia nochmal im Bereich der Zusatz-Beschleuniger anzugreifen, hat man ja jetzt Herrn Koduri.

interessant das es eine Firma wie Intel nicht geschafft hat in dem Sektor Fuß zu fassen...
Von welchem Sektor ist denn die Rede? GPUs? Die erste veröffentlichte MIC-Generation (Knights Corner) war schon keine GPU mehr. Die zweite Generation war schon hauptsächlich nichtmal mehr eine "Karte".
Sie haben einen Versuch bei den GPUs unternommen und das hat nicht so hingehauen. Da das resultierende Produkt aber für einen anderen Bereich ganz passabel gepasst hat, hat man da halt weitergemacht. Mit diesen Produkten hat man aber eben auch schon lange nicht mehr versucht im GPU-Bereich Fuß zu fassen.
Einen neuen Anlauf zu GPUs gibt es ja dann wohl in Zukunft mit Herrn Koduri.
 
Dabei seit
Apr. 2016
Beiträge
872
#12
Es wäre echt schön gewesen Highend Grafikkarten von Intel zu sehen, dann gäbe es eventuell einen Gegenspieler zu nVidia der der nicht finanziell jeden Taler 3x umdrehen muss und durchaus auch große Investitionen hätte tätigen können

Aber Intel hat sich scheinbar nicht ganz ausmalen können wie kompliziert es sein kann eine GPU from scratch zu entwickeln :D
 
Top