News Intel Polaris: 80 Kerne, 1 Teraflop bei 62 Watt

@a r e s !
Was genau hat das mit der News zu tun ?
 
Es geht um die Entwicklung der Leistungsfähigkeit der Prozessoren.

Während man früher noch dachte, es kommt in der Zukunft (also ca. diesem Jahr) der 10 GHz Prozessor (mit nur einem Kern...), ist man in der Gegenwart, wie man anhand der Meldung sieht, auf einem anderen Weg. Ich finde es interessant mal so alte Nachrichten zu vergleichen.

Außerdem hatte ich die Meldungen gerade eh schon parat :king:
 
Glaubst du also das dieses Mehrkern-experiment von Intel völlig unrealistisch ist ja !? Das willst du doch damit aussagen ?
 
Noch als kleine Info:
Intel plant den 80 Kern Prozessor in fünf Jahren zur Marktreife gebracht zu haben.
Um aber den "Hunger" des Prozessors zu stillen ist eine neue Technik im Sinne der Datenein Ein- und Ausgabe von Nöten. Wird Heutzutage noch gerne Kupfer genommen, da es einfach und billig in der Handhabe ist, so wird für die 80-Core-CPU eine optische Dateneinweitergabe erforderlich sein. Aber auch dies konnte schon in Ansätzen realisiert werden. So haben Intel und die University of California einen ersten elektrisch gepunpten Hybrid Silizium-Laser entwickelt. Bei 25 solcher Laser wäre eine Datenübertragung von 1 Terabit/s möglich.

Quelle: Physik Journal, November 2006, Seite 16
 
Voyager10 schrieb:
Glaubst du also das dieses Mehrkern-experiment von Intel völlig unrealistisch ist ja !? Das willst du doch damit aussagen ?
Nein, das nicht.

Mein Posting hat die Aussage, dass man sich selber eine bilden kann, wenn man die alten News liest. Und das diese alten Meldungen nun überhaupt nicht zum Thema hier passen, finde ich nicht.
 
Jungs wieso macht ihr euch eigentlich sorgen um den FSB und sonst welche Sachen, diese CPU wird eh nie in eurem Rechner werckeln... allein schon deshalb weil es keine x86er ist also nix mit windoof...
und die 100 Transis sind ja auch logisch zu erklären bei 80cores...
heute chips sind seeeeehr komplex aufgebaut, weil sie vieles Leisten müssen/sollten...
und so ne "billige" reine gleitkomma cpu hat halt einfach 80 "einfache" cores.. ohne "schwere" logik (obwohl trotzdem mehr als 1mille auf nen core kommt:freaky: )...
 
A4-Freund schrieb:
Skynet ist nicht mehr weit entfernt !!! :evillol:


Darauf hatte ich eingentlich auch gewartet, dass das einer schreibt!

Ich finde es interessant, wohin uns die Entwicklung noch führen wird.
Gerade solche Experimente tragen dazu bei, dass wir in Jahren auch noch Top Rechner mit einer Leistungssteigerung im vergleich zum "alten" Rechner haben werden!
 
Bleibt wieder die Frage der Useability, Cell lässt grüßen.

100 Mio. auf 275 mm² bei 65nm Prozesstechnologie?! Auf DIE-Size ist der Polaris aber nicht optimiert.
 
Eagle-PsyX- schrieb:
In welcher Art von Flop handelt es sich hier? Und unter welchem Test wurden die "Gleitkommaoperationen" gemessen?
Peak FLOPS ?
Actual FLOPS?
Finde da fehlt noch einiges.
Das sind rein errechnete Angaben.
Jeder der 80 Kerne kann vier Gleitkomma-Operationen pro Taktzyklus durchführen:

80 * 4 * 3,16 GHz = ~ 1,01 TFLOP

Schönes Projekt. Kann ich mir jetzt schon gut als Co-Prozessor vorstellen.

mfg Simon
 
Ein G80 hat ca. 250 Millionen Transistoren.....entfällt aber einiges an den Cache...ist ja bekannterweise auch aus Transistoren.

Ein 1 GB Ram Modul hat ca. 8000 Millionen Transitoren, oder mehr.

Was sind schon 275mm2 Fläche?
16,5x16,5 mm.voll RIESIG!
 
Ich bin mal gespannt ob der Trend zu immer mehr Cores wirklich anhält.
Auch in anderen Bereichen wurde auf Parallelität gesetzt und mittlerweile gehts doch wieder Richtung seriell (z.B. IDE<=>SATA)

Parallelität hat halt leider auch seine Nachteile, für viele Probleme müssen ganz neue Algorithmen entwickelt werden um Multicores effizient auszunutzen, das geht nicht von heute auf morgen...
Die erste 8-Kern CPU für normale PCs kommt wohl nicht vor 2009/2010 denk ich mal.


Gruß
Christian
 
Die erste 8 Core Plattform kommt heuer, oder gibts schon.
Ob die Cores auf einem oder auf 2,4,8 Sockeln sind ist egal.

Dual QX6700 ist derzeit das schnellste für daheim.
Auch wenn es kaum eine Software ansprechen kann die für die Zielgruppe dieses Forums von bedeutung wäre.
 
Toll, jetzt müssen Intel's Leute die Schulbank drücken und Netzwerktechniken bügeln. Ich stell mir gerade vor, wie jedem Core eine IP vergeben wird. Vielleicht wird man Subnetze einrichten können.

Auf alle Fälle wird in naher und ferner Zukunft die reine Entwicklung von Cores mehr in den Hintergrund gedrückt. Wichtiger wird sein die Vernetzung dieser Cores. Dann müssen Algorithmen entwickelt werden. Vielleicht wird die ganze Parallelrechner-Geschichte neu aufgerollt.

Schon genial, was in den Forschungslabors dieser Welt so alles erzielt wird. Der Strombedarf ist ja nichts im Vergleich zu aktuellen Prozessoren mit 2 Kernen. Ob die Angaben wirklich stimmen! Und wie konnten sie wohl 5 GHz stabil testen. Die Proficlocker schaffen das knapp mit 2 Kernen.
 
Das sind ja auch recht einfache Kerne, ohne Cache usw.
5Ghz ist da nichts besonderes.

Im (Mobil)Funkbereich arbeiten CPUs mit mehreren 100 Ghz.
Ist aber etwas völlig anderes.
Man kann ja auch keine Nähmaschine mit einem Schmiedehammer in der Taktrate vergleichen.
 
also ich hätte gerne auch einen aber ich denke dass das son in 7jahren schon Standard wird :D hoffe ich mal aber was hat im Moment Amd für einen Superchip? aber seit mal ehrlich mir kommt es so Intel demoliert Amd :evillol:

mfg Cope2
 
MaxDaten schrieb:
@Eagle-PsyX- : Irgendwann lohnt sich das nicht mehr, sprich der Kosten-Nutzen-Faktor ist einfach zu schlecht. Was bringt das, wenn die Entwickler 3 Jahre eine CPU "effektiver" machen, und der Leistungsgewinn eher bei den 2% pro Mhz liegt. Ok momentan wäre da noch mehr raus zu holen, aber die "neue" Technik (sprich Multicore) verspricht eben mehr Erfolg, bei weniger Nachteilen.

Der Trend geht sicherlich hin zu mehreren Cores, jeder spezialisiert auf ein oder mehrere Berechnungen, diese Parallelität ist nur schwer mit Singlecores zu erreichen und parallel ist nunmal besser als seriell, selbst wenn jeder einzelne Core schlechter in der Performance sein sollte als ein Singlecore.

Einfaches Beispiel: Angenommen du schreibst eine DIN A4 Seite in 10 Minuten mit Fließtext voll => Nun könntest du üben und trainieren und es vielleicht in 8 Minuten schaffen.
Oder du speziallisierst jede einzelne Hand auf das Schreiben einer DIN A4 Seite (du kannst nun also mit beiden Händen seperat eine DIN A4 Seite voll schreiben) Da du dich nun mehr "konzentrieren" musst, brauchst du vielleicht für eine Seite 11 Minuten, dafür hast du aber auch in 11 Minuten 2 Seiten anstatt in 16 Min 2, als wenn du mit einer Hand schreiben willst.
So sieht das ungefähr bei aktuellen DualCores aus (gaaaanz grobe)... nun kannst du aber davon ausgehen, dass man bei zukünftigen Multicores sicherlich einige Cores auf immer wiederkehrende Spezialfälle speziallisiert, während die Anderen die nötigen Daten berechnen. Also Spezialisiert man 2 von seinen 10 Händen darauf, nur Seiten parallel zu beschreiben, effektiv in 5 Minuten / 2 Seiten.

Vielleicht beginnt ja eine neue Ära der reinen CISC-Architekturen

Meno, ich sag doch nicht das ich Gegen Multicore allgemein bin, im Gegenteil! Ich programmiere und besitze hier einen DualCore, mir ist schon klar was der für Vorteile hat. Dennoch geht die Entwicklung VIEL zu stark in richtung "Mehr KERNE! MEEEEHR!" was am Ende dämlich ist, höchstens nach QuadCore wird es kaum Software geben die man im Altag gebrauchen wird die einen Vorteil davon haben. Na toll, dann laufen alle Anwendungen (8 stück) gleichzeitig, aber jedes genauso schnell wie vor 4 Jahren. Sehr Sinnvoll. Nein, mir auch klar das sie mehr Leistung bringen, dennoch wird meiner Meinung nach zu viel in den Kernen gesteckt.
Da find ich sogar die Anfertigungsgröße zu verkleinern Sinnvoll, obwohl es zu Problemen in der Struktur findet (bzw. neu überarbeitet werden muss) spart es am Ende Strom (und somit Bares Geld) und Hitze. :D
 
Zuletzt bearbeitet:
Ist schon eine beachtliche Leistung. Naja, Intel ist ja auch ziemlich gigantisch, die können sowas eh mal nebenbei erforschen/entwickeln. :D
Doch bis wir solche CPUs unser Eigen nennen können, wird noch einige Zeit vergehen und der/die Markt/Technik wird sich dabei noch sehr wandeln.

Ich hoffe ja, dass es auch bald mal mit GPGPU weiter geht, denn eine 8800GTX zBsp. hat eine Rechenleistung von 518 GigaFlops. Damit hätte man im SLI ebenfalls so viel Rechenleistung wie dieser Polaris + den zusätzlichen Grafik-RAM der Karte und das schon heute. Es liegt also am Ende nur an der Software ;)
 
Zurück
Oben