News Intel stellt „Knights Corner“ als Xeon Phi vor

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.703

Voyager10

Fleet Admiral
Dabei seit
Juli 2006
Beiträge
11.336
Man könnte die News doch mal mit VergleichsZahlen ergänzen, wieviel TFlop die AMD und Nvidia und eine gewöhnliche CPU in der DP bringt...
Damit der Leser sich auch etwas darunter vorstellen kann.
 

N.t.H.

Lieutenant
Dabei seit
Mai 2012
Beiträge
780
Jop,
DP kriegt AMD offiziel fast 1 TFlop/s hin (Tahiti GhZ-edition wird die Grenze knacken)
NV etwa 0,5 Tflop/s in double precision (Mein letzter Stand von der NV-Website)

Bald kommt auch die neue FireGL mit 2 Tahiti-GPUs raus, die rechnerisch dann natürlich mehr kann.

Von daher wünsche Ich der Intel-lösung einen horrenden Stromverbrauch, sodass sich eine FireGL eher lohnt.
 
Zuletzt bearbeitet:

Bartonius

Lieutenant
Dabei seit
Okt. 2010
Beiträge
624
Jop, die AMD Radeon HD 7970 kommt auf 947 GFLOPS bei Double Precission. Also wirklich nichts spektakuläres. Wenn bald die 1GHz+ Edition von der 7970 kommt ist man auch damit locker über 1 TFLOPS.
 

dgschrei

Lt. Commander
Dabei seit
März 2009
Beiträge
1.589
Mag ja sein, dass die AMD Karten genau so schnell sind. Der Clou bei Knights Corner ist aber nach wie vor dass die Kerne x86 sind und man sich so die komplizierte Programmiererei über die GPU-APIs größtenteils sparen kann.
Und das ist für viele Anforderungen immer noch ein echtes Verkaufsargument. Ihr müsst immer bedenken, dass bisher bestehende hochkomplexe Simulationspackages entweder auf x86 oder PowerPC laufen. Nach der News heute sind gut 90% aller Großrechner x86.

Diese Packages müsste man alle feinsäuberlich auf GPUs umprogrammieren und dabei auch peinlichst darauf achten, dass mann nicht versehentlich ein Bottleneck einbaut, da die enorme theoretische Leistung der Grakas sonst komplett verpufft.
 
P

Perry S. Hilton

Gast
wenn ich so n teil in nen desktop pc stecke, habe ich dann einen normalen x86 core mehr?
 

wertewandel

Lieutenant
Dabei seit
Juni 2009
Beiträge
789
vergiss mal ganz schnell, dass die intel-karte ohne zusatzstrom auskommt.
der massive lüfter sitzt da nicht zum spaß.
 

chevydevil

Cadet 2nd Year
Dabei seit
Juli 2011
Beiträge
21
@dgschrei: Woher stammt die Info, dass es sich nach wie vor um x86 Kerne handelt? Selbst wenn, x86 Kerne sind auch nur so einfach effizient programmierbar weil sie einen vergleichsweise großen Cache mitbringen. Ich kann mir nicht vorstellen, dass auf dieser Karte wahnsinnnig viel Cache verbaut ist, schon gar nicht pro Kern. Außerdem sind mit Cuda und OpenCL zwei API's auf dem Markt, die OOP auf GPUs erlauben.
 

QDOS

Lieutenant
Dabei seit
Feb. 2009
Beiträge
633
Jop,
DP kriegt AMD offiziel fast 1 TFlop/s hin (Tahiti GhZ-edition wird die Grenze knacken)
NV etwa 0,5 Tflop/s in double precision (Mein letzter Stand von der NV-Website)
Nur haben beide Karten den Nachteil dass sie bescheiden zu programmieren sind - wer einmal mit OpenCL oder CUDA gearbeitet hat, wird verstehen, warum es ein großer Vorteil ist, dass Intel hier auf x86 setzt...
 

Bartonius

Lieutenant
Dabei seit
Okt. 2010
Beiträge
624
@dgschrei

Du glaubst doch nicht ernsthaft, dass man diese Karten einfach in bestehende Server einbaut und schwuppsdiewupps hat man 50 x86 Cores mehr, die man ohne Änderungen an der Software nutzen kann?! Klar wird es vielleicht etwas weniger Aufwand sein die x86 Software für Knights Corner zu optimieren als komplett auf GPGPU umzusteigen, allerdings muss man sich nur die Entwicklung bei GPGPU anschauen und man wird feststellen, dass man wahrscheinlich, wenn man jetzt etwas Arbeit in die Optimierung auf GPGPU vollzieht, auf lange Zeit gesehen deutlich besser dasteht, was Leistungsfähigkeit und Effizienz angeht.
 

QDOS

Lieutenant
Dabei seit
Feb. 2009
Beiträge
633
Woher stammt die Info, dass es sich nach wie vor um x86 Kerne handelt? Selbst wenn, x86 Kerne sind auch nur so einfach effizient programmierbar weil sie einen vergleichsweise großen Cache mitbringen. Ich kann mir nicht vorstellen, dass auf dieser Karte wahnsinnnig viel Cache verbaut ist, schon gar nicht pro Kern. Außerdem sind mit Cuda und OpenCL zwei API's auf dem Markt, die OOP auf GPUs erlauben.
Die Info stammt von Anfang an von Intel - das war ja der Sinn hinter MIC. Die x86 sind einfacher zu programmieren, da wir ca. 20 Jahre Erfahrung in den Tools haben, sie bei weitem eigenständiger agieren können als GPU-Kerne und es nicht notwendig machen, den Buildprozess mit 2 oder mehreren Compilern zu verpfuschen (CUDA braucht ja einen eigenen Prä-Compiler, nachdem dann der eigentliche Compiler seine Arbeit tut...)
 
Zuletzt bearbeitet:

Cool Master

Fleet Admiral
Dabei seit
Dez. 2005
Beiträge
26.523

QDOS

Lieutenant
Dabei seit
Feb. 2009
Beiträge
633
@dgschrei
wenn man jetzt etwas Arbeit in die Optimierung auf GPGPU vollzieht, auf lange Zeit gesehen deutlich besser dasteht.
In vielen Bereichen macht GPGPU gar keinen Sinn, da die GPU-Kerne nur Datenparallel arbeiten können und daher sofort serialisieren, wenn man einen Branch im Code hat - und der lässt sich nicht in jeder Anwendungsdomäne verhindern.

Nebenbei, hat Intel selbst schon gezeigt wie simpel man Code auf die Intel MIC auslagern kann...
 

hpvd

Cadet 2nd Year
Dabei seit
Mai 2010
Beiträge
21
Intel: XEON Phi Prokarte 1000GFLOPS bei Double Precission
AMD: 7970 Consumer Karte bei 947 GFLOPS bei Double Precission (ohne ECC)
AMD: Firepro W9000 ca 1000 GFLOPS bei Double Precission (mit ECC)
Nvidia: Tesla Professionalkarte 500GFLOPS bei Double Precission (Consumer Karten stark beschnitten)

und wo liegen andere Prozessoren (CPU) bei bei Double Precission?
Intel XEON E5 mit 8 Kernen (16HT)?
AMD OPTERON 6200 mit 16 Kernen?
 
Zuletzt bearbeitet:
Top