News Intel Polaris: 80 Kerne, 1 Teraflop bei 62 Watt

Frank

Chefredakteur
Teammitglied
Registriert
März 2001
Beiträge
8.787
Intels Forschungsabteilung hat mit dem Ziel die Rechenleistung eines Supercomputers auf einen Chip zu packen einen Prozessor mit insgesamt 80 Rechenkernen mit dem Codenamen Polaris entwickelt. Er erreicht eine Rechenleistung von einer Billion Fließkommaoperationen pro Sekunde (Teraflops).

Zur News: Intel Polaris: 80 Kerne, 1 Teraflop bei 62 Watt
 

Anhänge

  • ISSCC_Polaris-Paper.zip
    306,9 KB · Aufrufe: 768
Zuletzt bearbeitet:
Zuletzt bearbeitet:
weiß jemand mit mit welchem prozess (65nm?) der gebaut wurde ?

ansonsten erinnert mich das ganze ein wenig an intels zukünftige Graka : gleitkomma und haufenweise kerne, auch wenn die leistung im endeffekt nur knapp das doppelte einer 8800gtx übersteigt.
 
geile sache. das geht mal eindeutig in die richtige richtung ;)
bin mal auf die intel grakas und zukunftigen prozessoren gespannt.

@realsmasher: woher weißt du das die intel graka doppelt so schnell ist wie ne 8800gtx? hab ich etwa einen artikel hier übersehen;)
 
Kille schrieb:
Soll das die gesamte Schaltung für den Sockel sein?

Ist die Testplatine um den Sockel anzusteuern, mit Strom zu versorgen und Daten rein und raus zu kriegen. Wird man so nie im Laden sehen

Realsmasher schrieb:
weiß jemand mit mit welchem prozess (65nm?) der gebaut wurde ?

Ich denke P1264, da P1265 eher im Chipsatzbereich zum Einsatz kommt.
 
Es ist schon beachtlich, was sich in den Jahren so getan hat, besonders auch auf dem Sektor des Strombedarfs. Ich hoffe, dass diese Erkenntnisse auch schnell in den Desktop Markt Einzug erhalten. Der Strombedarf ist ja vorblidlich bei 80 Kernen, auch wenn nicht alle gleichzeitig liefen.
 
Und es geht ja doch noch kleiner und Platz sparender. Die heutigen Supercomputer werden wohl zukünftig in Brotkasten großen Behältern platz finden und für fast jeden erschwinglich sein. Wie lange das wohl noch so weiter gehen wird?
 
Zuletzt bearbeitet:
Da das ein Forschungsprojekt ist, geht vielmehr nicht um die reine Rechenleistung die momentan daraus resultiert. Vielmehr geht es um das intelligente verknüpfen mehrerer Cores auf einem Die. Der hier beschriebene 80 Core Przessor wird ja auch nie erscheinen. Die Aufgabe des Forschungsprojektes ist es vielmehr für zukünftige Prozessoren eine Matrix zu erschaffen, die es schafft sinnvolle, stromsparende, und intelligent verknüfte Cores auf einem Die zu ermöglichen.

Dieses Jahr wird Intel warscheinlich noch seinen ersten 8 Kern Prozessor veröffentlichen. Die nächste logische Steigerung wäre demnach der 16 Kern Prozessor. In der Zukunft werden sich warscheinlich die Anzahl der Kerne vervielfachen. Da aber die Software momentan noch selbst einzelne Cores ansteuern muss, ist das meiner Meinung nach noch nicht die intelligenteste Methode Multicore CPU´s effektiv zu nutzen. (stell sich einer mal vor, er rüstet vom 16 Kern Modell auf das neue 32 Kern Modell um und muss sich dann wieder neue Software kaufen, um auch alle seine 32 Cores zu nutzen)

Besser wäre es, wenn die CPU selbst die Steuerung für die zu berechnenden Aufgaben übernimmt und auf die einzelnen Cores aufteilt.
 
WTF? anstatt sich mehr dranzusetzten NUR einen KERN EFFEKTIVER und LEISTUNGSSTÄRKER zu bauen stecken sie den größten in die ANZAHL der Kerne rein...evtl. nur für Großrechneranlagen sinnvoll. (sogenannte "Supercomputer")

In welcher Art von Flop handelt es sich hier? Und unter welchem Test wurden die "Gleitkommaoperationen" gemessen?
Peak FLOPS ?
Actual FLOPS?
Finde da fehlt noch einiges.

Aber schön zu sehen wie es sich mit der Entwicklungs der Prozessoren vorrantreibt. Hoffe Barcelona überrumpelt Intel, so das Intel 'noch' intensiver forschen muss und dann wida AMD überrumpelt (ihr wisst schon was ich meine!) ^^
 
Zuletzt bearbeitet:
Das ist doch für uns Desktop User alles uninteressant!
Für die parallele Nutzung von 80 Kernen ist Windows (selbst Vista) ohnehin mehr als ungeeignet.
Davon abgesehen glaube ich mal nicht das es sich hierbei um 80 vollständige CPUs wie z.B. ein Kern mit der Funktionalität eines Core2 handelt sondern vielmehr um 80 FPU Einheiten mit etwas drucm herum für die I/O's. Also mit derzeitigen Desktop CPUs nicht vergleichbar.
 
danko71 steht doch auch alles inder news es sind kleine "basic" cpus

es ist ehr ein experimental cpu für das MESH netzwerk on die um die verkünfpung der cores unter einander zu verbesseren bzw zu optimieren
 
"Bei 3,16 GHz und 0,95 Volt erreicht er so eine Leistung von 1,01 Teraflops. Bei 5,7 GHz erzielt Intel eine Leistung von 1,81 Teraflops, wobei allerdings auch die Leistungsaufnahme auf 265 Watt (bei 1,35 Volt) steigt."

Also ein 2 Ghz Dualcore hat ja 2 Kerne mit jeweils 2 Ghz (4 Ghz), hat der Prozessor dann 80 Kerne mit jeweils 3,16/5,7 Ghz (252,8/456 Ghz)???
 
Ich less gerade auf tecchannel.de
""Zum Vergleich: Intels Core 2 Extreme X6800 mit Dual-Core-Technologie erreichte im tecCHANNEL-Testlabor eine Rechenleistung von 13,7 GFlops.""

Also ist der Polaris 72,9 mal schneller und das im selben 65nm CMOS Prozess? Da stimmt doch was nicht, das ist doch Spuk! Das ist als ob unsere aktuellen PC Prozesoren schon mit angezogener Handbremse entworfen wurden!
 
Zuletzt bearbeitet:
Supercomputer werden niemals für die Allgemeinheit erschwinglich sein, für mich wäre es dann jedenfalls kein Supercomputer mehr.
Supercomputer bedeutet für mich das maximale an Leistung, die sich aktuell aufbauen lässt. Das wird in Zukunft sicher kein einzelner Chip sein, sondern immer mehrere.

Es ist genauso wie beim Cell, er hat eine Menge Gleitkommaleistung, aber es sind eben andere Kerne wie man sie heute kennt. Schaut mal hin, der Cache fehlt, der Integerteil ist recht klein. Ich vermute mal das Ding hat nichtmal SSE ähnliche Erweiterungen. Unter Windows wäre das Ding sicher relativ langsam.
 
Zuletzt bearbeitet:
@AshS
Du verstehst den Unterschied nicht zwischen einem x86 Prozessor für Universalaufgaben und einer reinen FPU aus der News (Chip ist für reine Gleitkommaoperationen) .
 
Nur blöd daß das keine x86 CPU ist und so für die Meisten von uns wertlos ist.
 
Ich finde es wesentlich interessanter wie eine neue CPU entwickelt wird oder die Technologie weiterentwickelt wird, als immer nur das Endprodukt zu sehen.
Also, TOP NEWS CB :)
@ Kritiker: Man muss auch andere Wege erforschen und nicht immer die bereits bekannten :p
 
AshS schrieb:
Also ist der Polaris 72,9 mal schneller und das im selben 65nm CMOS Prozess? Da stimmt doch was nicht, das ist doch Spuk! Das ist als ob unsere aktuellen PC Prozesoren schon mit angezogener Handbremse entworfen wurden!

Polaris kann nur eins: SGleitkommazahlen einfacher Genauigkeit berechen. Er nutzt einen eingeschränkten Befehlssatz und Windows läuft da selbstständlich nicht mit darf. Das Deshalb können sämtliche Angaben nicht miteinander vergleichen werden.

Der IBM Cell soll theoretich auch 256 Gigaflops (also 1/4 Teraflops) erreichen. Das sind aber theoretische Werte. Siehe hier https://www.computerbase.de/2005-02/cell-zehnmal-schneller-als-heutige-cpus/

Wird Polaris auf eine simple zweidimenionale Fourier-Transformation (FFT) losgelassen, kommen von den 1 Teraflop nur noch 2 Prozent, also 20 Gigaflops am Ende an.
 

Anhänge

  • Unbenannt-1.png
    Unbenannt-1.png
    30,8 KB · Aufrufe: 681
Eagle-PsyX- schrieb:
Also ein 2 Ghz Dualcore hat ja 2 Kerne mit jeweils 2 Ghz (4 Ghz), hat der Prozessor dann 80 Kerne mit jeweils 3,16/5,7 Ghz (252,8/456 Ghz)???

Du DARFST nicht einfach die Frequenz zusammenzählen, bzw. multiplizieren.
Simple nicht ganz passendes Beispiel:
Ich hab eine Box hier laufen mit 50 db Musik, und 2 meter nebendran noch eine mit 50 db Musik, beträgt die Musik dann ingesammt 100 db... :D

Zudem wissen wir doch das Frequenz (Hz) bei weitem nicht die Aussage des CPU's ist.
 
Zuletzt bearbeitet: (Für mein Denglisch, Musik nicht Music^^ kommt vom progen.)
Zurück
Oben