News Hybrid-Supercomputer mit Tegra-SoCs und GPUs von Nvidia

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.857
Und das obwohl Nvidia Grafikkarten nicht für ihre Stromsparsamkeit bekannt sind.
beachtlich !
 
Keloth schrieb:
Und das obwohl Nvidia Grafikkarten nicht für ihre Stromsparsamkeit bekannt sind.
beachtlich !

Im Vergleich zu der für die gleichen Rechenleistung benötigten Menge an CPUs SIND Nvidia-GPUs stromsparend ;) .

@Computerbase: Es werden wohl eher Tesla-Grafikkarten sein. Quadros sind für CAD-Anwendungen, etc. gedacht.
 
Interessant. Für klassische Supercomputer-Aufgaben wird die Maschine aber wohl eher ungeeignet sein... die Tegras werden nur dazu dienen, die Teslas mit Daten zu versorgen. Denn nicht vergessen, selbst ein für ARM brachial schneller Tegra3 ist eigentlich ein Quadcore, auf dem hochoptimierte Software läuft. Jeder Einzelkern hat da Mühe, mit der Rechenleistung eines Intel Atom gleichzuziehen. Mit sowas lässt sich nicht wirklich arbeiten.

Das Effizienzwunder wird also wohl nur in Anwendungsfällen mit sehr hohem Parallelisierungsgrad wirklich einschlagen.
 
CPU verbrauchen den "Löwenanteil" !? Wohl eher die Grafikkarten. Mein i5 2500k zieht bei Messungen höchstens um die 70W. Meine Grafikkarte dagegen 120W.
 
MrChillout: In "Supercomputern" ist das Verhältnis zwischen CPU / GPU allerdings andersherum. Man beginnt ja jetzt erst die Rechenleistung auf GPU-Architekturen zu verlagen und weg von den relativ ineffizienten klassischen CPU's.
 
MrChiLLouT schrieb:
CPU verbrauchen den "Löwenanteil" !? Wohl eher die Grafikkarten. Mein i5 2500k zieht bei Messungen höchstens um die 70W. Meine Grafikkarte dagegen 120W.

Dafür schafft deine Grafikkarte auch ein Vielfaches der Rechenleistung der CPU. Zumindest bei massiv parallelisierbaren Aufgaben wie sie im Supercomputer-Bereich üblich sind. Die Leistung einer Tesla-Grafikkarte dürfte gleich mehrere deiner CPUs locker ersetzen - und dann siehts schon wieder ganz anders aus mit der Energiebilanz.
 
Eine Grafikkarte hat wenn man die Peak-Performance (also die maximal ausführbaren Operationen pro Zeiteinheit) vergleicht, bis zu ca. 20x mehr Leistung als eine CPU.
Ich denke da ist doppelter Stromverbrauch schon egal.

Sicher ist die Leistung der GPU schwieriger zu nutzen, aber aus eigener Erfahrung kann ich sagen, es geht ;)
 
Als Graka kommt wohl eine GF119 basierende Lösung zum Einsatz.
http://blogs.nvidia.com/2011/11/world’s-first-arm-based-supercomputer-to-launch-in-barcelona/

CUDA-ARM-Development-Kit.jpg
 
Man beginnt ja jetzt erst die Rechenleistung auf GPU-Architekturen zu verlagen und weg von den relativ ineffizienten klassischen CPU's.

Naja... die "klassischen" CPUs sind auf geringe Latenz hin optimiert, die GPUs auf Durchsatz.

Mal schauen, wie das mit den zukünftigen "Hybrid"-CPUs wird, die einen guten Kompromiss zwischen Latenz/Durchsatz und universeller Einsetzbarkeit darstellen sollen.
 
CB_KeinNameFrei schrieb:
Interessant. Für klassische Supercomputer-Aufgaben wird die Maschine aber wohl eher ungeeignet sein...
...
Jeder Einzelkern hat da Mühe, mit der Rechenleistung eines Intel Atom gleichzuziehen. Mit sowas lässt sich nicht wirklich arbeiten.
...
Das Effizienzwunder wird also wohl nur in Anwendungsfällen mit sehr hohem Parallelisierungsgrad wirklich einschlagen.
Du gibst dir doch selbst die Antwort. Die Tegras sind nur dazu da die Aufgaben auf die GPUs zu verteilen wozu sollen die dann eine Mega Rechenleistung haben? Hauptsache die erledigen ihre Aufgabe effizient.
Und was sind denn bei dir klassische Supercomputer-Aufgaben?
Meinst du nicht das man bei dem momentan schnellsten Supercomputer mit 705024 Kernen musst du nicht parallelisieren?
Die Nummer 2, 4 und 5 der TOP 10 arbeiten übrigens genauso mit Nvidia GPUs.
 
GPGPU @ its best. Bin begeistert wie sie da vorsprechen und Intel das Leben schwer machen. Von solchen Projekten träumt AMD und Intel. Vor allem verdienen die schon richtig Kohle mit, während AMD erst mit der HD 7000 groß durchstarten will. Intel Larrabee ist ja gnadenlos gefloppt. Mehr green IT geht nicht. Dafür wurde Fermi entwickelt...

Hab mir schon immer gedacht das die ARM CPUs bzw. der Anreiz überhaupt CPUs haben zu wollen mit GPGPU zusammen hängt. Massive GPU Power auf der einen Seite, eine kleine CPU für den unbedeutenden Rest.
 
Zuletzt bearbeitet:
@Kasmopaya

"Intel Larrabee ist ja gnadenlos gefloppt."

Ja, total gefloppt. Deswegen wird das TACC mit dem Larrabee-Nachfolger auch einen Supercomputer mit 8 Petaflop bauen.
 
Für manche Anwendungen sicherlich ganz brauchbar.
Jedoch ist Effizienz auch abhängig von den Aufgaben und diverse Supercomputer Anwendungsgebiete lassen sich deutlich effizienter auf CPUs durchführen wobei die endlose FP Leistung der GPUs einfach nur nutzlos vor sich hin schläft.

Es wird eine neue Architektur die einen Typ Supercomputer ergibt der für manche Aufgaben deutlich effizienter wird aber es wird eben ein spezialisierter Supercomputer.
 
Ja, total gefloppt. Deswegen wird das TACC mit dem Larrabee-Nachfolger auch einen Supercomputer mit 8 Petaflop bauen.
Wers glaubt. :rolleyes:

Das will ich erst mal getestet sehen das Teil. Intel hat sich Itanium/P4 auch immer schön geredet, wird man ja dann bei den Finanzen sehen ob Larrabee II/III ein Erfolg war oder ob man ihn subventionieren musste...

Ab Maxwell hat Intel dann sowieso keine Chance mehr, bin mir sicher das NV da was ganz großes in der Pipeline hat. AMDs 7000er ist wohl auch ein heißer Kandidat, wohl alle besser als Intel. Soviel zu meiner Glaskugel.
jedoch ist Effizienz auch abhängig von den Aufgaben und diverse Supercomputer Anwendungsgebiete lassen sich deutlich effizienter auf CPUs durchführen wobei die endlose FP Leistung der GPUs einfach nur nutzlos vor sich hin schläft.
Genau das wird wohl Maxwell angehen, immer CPU ähnlicher, aber die GPU Power bleibt. Das Ziel ist ein Ultra effizienter Allrounder und natürlich Intel Marktanteile abnehmen. Fusion Stufe 2/3 geht in die selbe Richtung.
 
Zuletzt bearbeitet:
Und es gibt wahrscheinlich immer noch Leute, die NV kurz vor dem Untergang sehen. Die Firma wird strategisch absolut top geführt. Respekt.
 
@Kasmopaya

Was meinst du mit "wers glaubt"?

Der Supercomputer wird von Dell und Intel gebaut.

Und übrigens... wenn ich über solche Dinge spreche, dann geht es mir um die Tatsachen und die Technik. Ich habe keine emotionale Bindung zu Intel, AMD, Nvidia.

Bei dir habe ich das Gefühl, dass dem nicht so ist. Jede dieser Techniken hat ihre Vor- und Nachteile. Ein Vorteil von Intels MIC-Architektur ist der einfache und schnelle Umstieg, wie sich bei den Testmodellen an den verschiedenen Instituten gezeigt, da es die (fast) gleichen Entwicklungswerkzeuge wie für die Xeons sind.

Zum Thema CPU/GPU... schau dir einmal an, was Intels AVX und AVX2 ist. Zum Glück hat AMD AVX implementiert und wird hoffentlich bei AVX2 nachziehen.

Der Supercomputer hier von Nvidia ist eine sehr interessante Sache. Aber du solltest das alles etwas klarer und differenzierter betrachten.
 
Zuletzt bearbeitet:
ich sollte mir bald mal ein paar nvidia aktien kaufen. da ist was im anmarsch, wenn jetzt schon alles aus einer hand von der ehemaligen "spieleschmiede" kommt

mal sehen, ob nvidia bald in einem atemzug mit ibm und intel erwähnt wird.
 
Zurück
Oben