News Intel stellt „Knights Corner“ als Xeon Phi vor

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.362
Für den kleinen Platz sprich 1 PCIe Slot und 1 MFlop/s ist es recht gut finde ich.
 
Man könnte die News doch mal mit VergleichsZahlen ergänzen, wieviel TFlop die AMD und Nvidia und eine gewöhnliche CPU in der DP bringt...
Damit der Leser sich auch etwas darunter vorstellen kann.
 
22nm und ein Chip der wohl locker die 400mm² knacken wird... je nach Corezahl. Die Daten sind etwas spärlich, Vergleichswerte wären gut.
 
Jop,
DP kriegt AMD offiziel fast 1 TFlop/s hin (Tahiti GhZ-edition wird die Grenze knacken)
NV etwa 0,5 Tflop/s in double precision (Mein letzter Stand von der NV-Website)

Bald kommt auch die neue FireGL mit 2 Tahiti-GPUs raus, die rechnerisch dann natürlich mehr kann.

Von daher wünsche Ich der Intel-lösung einen horrenden Stromverbrauch, sodass sich eine FireGL eher lohnt.
 
Zuletzt bearbeitet:
Jop, die AMD Radeon HD 7970 kommt auf 947 GFLOPS bei Double Precission. Also wirklich nichts spektakuläres. Wenn bald die 1GHz+ Edition von der 7970 kommt ist man auch damit locker über 1 TFLOPS.
 
Ich könnte mich täuschen aber die Intel Karte brauch kein extra Saft sprich PCIe 6 oder 8 Pin.
 
Mag ja sein, dass die AMD Karten genau so schnell sind. Der Clou bei Knights Corner ist aber nach wie vor dass die Kerne x86 sind und man sich so die komplizierte Programmiererei über die GPU-APIs größtenteils sparen kann.
Und das ist für viele Anforderungen immer noch ein echtes Verkaufsargument. Ihr müsst immer bedenken, dass bisher bestehende hochkomplexe Simulationspackages entweder auf x86 oder PowerPC laufen. Nach der News heute sind gut 90% aller Großrechner x86.

Diese Packages müsste man alle feinsäuberlich auf GPUs umprogrammieren und dabei auch peinlichst darauf achten, dass mann nicht versehentlich ein Bottleneck einbaut, da die enorme theoretische Leistung der Grakas sonst komplett verpufft.
 
wenn ich so n teil in nen desktop pc stecke, habe ich dann einen normalen x86 core mehr?
 
vergiss mal ganz schnell, dass die intel-karte ohne zusatzstrom auskommt.
der massive lüfter sitzt da nicht zum spaß.
 
@dgschrei: Woher stammt die Info, dass es sich nach wie vor um x86 Kerne handelt? Selbst wenn, x86 Kerne sind auch nur so einfach effizient programmierbar weil sie einen vergleichsweise großen Cache mitbringen. Ich kann mir nicht vorstellen, dass auf dieser Karte wahnsinnnig viel Cache verbaut ist, schon gar nicht pro Kern. Außerdem sind mit Cuda und OpenCL zwei API's auf dem Markt, die OOP auf GPUs erlauben.
 
N.t.H. schrieb:
Jop,
DP kriegt AMD offiziel fast 1 TFlop/s hin (Tahiti GhZ-edition wird die Grenze knacken)
NV etwa 0,5 Tflop/s in double precision (Mein letzter Stand von der NV-Website)
Nur haben beide Karten den Nachteil dass sie bescheiden zu programmieren sind - wer einmal mit OpenCL oder CUDA gearbeitet hat, wird verstehen, warum es ein großer Vorteil ist, dass Intel hier auf x86 setzt...
 
@dgschrei

Du glaubst doch nicht ernsthaft, dass man diese Karten einfach in bestehende Server einbaut und schwuppsdiewupps hat man 50 x86 Cores mehr, die man ohne Änderungen an der Software nutzen kann?! Klar wird es vielleicht etwas weniger Aufwand sein die x86 Software für Knights Corner zu optimieren als komplett auf GPGPU umzusteigen, allerdings muss man sich nur die Entwicklung bei GPGPU anschauen und man wird feststellen, dass man wahrscheinlich, wenn man jetzt etwas Arbeit in die Optimierung auf GPGPU vollzieht, auf lange Zeit gesehen deutlich besser dasteht, was Leistungsfähigkeit und Effizienz angeht.
 
chevydevil schrieb:
Woher stammt die Info, dass es sich nach wie vor um x86 Kerne handelt? Selbst wenn, x86 Kerne sind auch nur so einfach effizient programmierbar weil sie einen vergleichsweise großen Cache mitbringen. Ich kann mir nicht vorstellen, dass auf dieser Karte wahnsinnnig viel Cache verbaut ist, schon gar nicht pro Kern. Außerdem sind mit Cuda und OpenCL zwei API's auf dem Markt, die OOP auf GPUs erlauben.

Die Info stammt von Anfang an von Intel - das war ja der Sinn hinter MIC. Die x86 sind einfacher zu programmieren, da wir ca. 20 Jahre Erfahrung in den Tools haben, sie bei weitem eigenständiger agieren können als GPU-Kerne und es nicht notwendig machen, den Buildprozess mit 2 oder mehreren Compilern zu verpfuschen (CUDA braucht ja einen eigenen Prä-Compiler, nachdem dann der eigentliche Compiler seine Arbeit tut...)
 
Zuletzt bearbeitet:
wertewandel schrieb:
vergiss mal ganz schnell, dass die intel-karte ohne zusatzstrom auskommt.
der massive lüfter sitzt da nicht zum spaß.

Eben gesehen, 1x8 und 1x6 Pin sind dran.
 
Bartonius schrieb:
@dgschrei
wenn man jetzt etwas Arbeit in die Optimierung auf GPGPU vollzieht, auf lange Zeit gesehen deutlich besser dasteht.
In vielen Bereichen macht GPGPU gar keinen Sinn, da die GPU-Kerne nur Datenparallel arbeiten können und daher sofort serialisieren, wenn man einen Branch im Code hat - und der lässt sich nicht in jeder Anwendungsdomäne verhindern.

Nebenbei, hat Intel selbst schon gezeigt wie simpel man Code auf die Intel MIC auslagern kann...
 
Intel: XEON Phi Prokarte 1000GFLOPS bei Double Precission
AMD: 7970 Consumer Karte bei 947 GFLOPS bei Double Precission (ohne ECC)
AMD: Firepro W9000 ca 1000 GFLOPS bei Double Precission (mit ECC)
Nvidia: Tesla Professionalkarte 500GFLOPS bei Double Precission (Consumer Karten stark beschnitten)

und wo liegen andere Prozessoren (CPU) bei bei Double Precission?
Intel XEON E5 mit 8 Kernen (16HT)?
AMD OPTERON 6200 mit 16 Kernen?
 
Zuletzt bearbeitet:
Zurück
Oben