Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Intels lange Zeit als Grafikkarten-Herausforderer für AMD und Nvidia gehandeltes aber aufgrund diverser Probleme letztlich zum Forschungsprojekt degradiertes „Larrabee“-Projekt wird im Supercomputerbereich einen Nachfolger finden. Dies gab Intel auf der International Supercomputing Conference (ISC) in Hamburg bekannt.
Bin mal gespannt was schneller wissenschaftliche Probleme brechnet, GPGPU oder das Monstrum da.
Aber wenn 50 Kerne eine Billion Berechnungen pro Sekunde schaffen, dann wären das 20 Milliarden Berechnungen pro Kern. Wären das nicht theoretische 20 Ghz pro Kern O.O
(wo is da mein Denkfehler)
Solange sie nicht mal einen Larrabee rausbringen, sind ihre Versprechungen nichts Wert.
Und auch wenn sie es schaffen, einen GPU für GPGPU konkurrenzfähig zu entwickeln, dann fressen sie nur ihren eigenen Server-Markt ab, wo sie beim Top500 80% der Server haben.
Und auch wenn sie es schaffen, einen GPU für GPGPU konkurrenzfähig zu entwickeln, dann fressen sie nur ihren eigenen Server-Markt ab, wo sie beim Top500 80% der Server haben.
ja das stimmt wohl, aber unter den 10 schnellsten supercomputern der welt sind mein ich nur ungefähr 20% von intel, und das ist glaub ich immernoch die gewinnbringendste sparte, wenn man auf ein schlag 10.000 CPU's verkauft
Aber wenn 50 Kerne eine Billion Berechnungen pro Sekunde schaffen, dann wären das 20 Milliarden Berechnungen pro Kern. Wären das nicht theoretische 20 Ghz pro Kern O.O
(wo is da mein Denkfehler)
Parallelisierung heist doch nur, dass komplizierte Berechnungen in Teilberechnungen auf Tilkerne ausgelagert werden, dennoch bleibt die einfachste mögliche Berechnung (die Addition von Eins) ein Takt.
wozu brauchst du bei ner CPU Milliarden von Transistoren wenn sie Pro Takt dennoch nur eine berechnung schaffen?
ein Intel 8086 brauchte 3-5 Takte um eine Berechnung durchzuführen (jeh nach Befehlsart)
Ich denke eine Moderne CPU ist da etwas Leistungsfähiger als ein 32 Jahre alter Prozessor
Ein prozessor schafft mehrere berechnungen pro Sekunde, keine Frage...
Aber eine teileinheit, z.B. FPU schafft im besten Fall trotzdem nur eine Berechnung pro Sekunde! Dafür gibt es halt mehrere dieser Einheiten auf der CPU ...
Aber wenn 50 Kerne eine Billion Berechnungen pro Sekunde schaffen, dann wären das 20 Milliarden Berechnungen pro Kern. Wären das nicht theoretische 20 Ghz pro Kern O.O
(wo is da mein Denkfehler)
Advanced Vector Extensions: Damit werden sich in Zukunft zunächst 8 (256Bit), später je nach Ausbaustufe bis zu 32 (1024Bit) Fließkommaberechnungen parallel von einem einzelnen Kern ausführen lassen. Larabee hat eine 512Bit SIMD-Einheit (4x so viel wie SSE).
Angegeben werden natürlich die theoretischen Maximalwerte.
Ok, auch wenns etwas OT wird, die einfachste Berechnung ist doch das binäre Hochzählen, also das Ändern von "0" auf "1", oder?
Die Änderrung von "0" auf "1" ist ein Takt, ergo ist die kleinste mögliche Berechnung ein Takt. Ein Takt pro Sekunde = ein Hz
Diese kleinste mögliche Berechnung ist soetwas wie die Elementarladung der Informatik, sie ist nicht weiter reduzierbar und alle größeren Berechnungen sind nur ein Vielfaches dieser kleinsten Berechnung. Ergo kann sie nur von einem Kern berechnet werden.
Also hat diese CPU entweder 20 Ghz oder 20 Mhz O.o
Wobei, wenn man die 20 Ghz durch 8 teilt (bit und byte) käme man auf 2,5 Ghz, was realistisch wäre. Dann hätte Intel aber ne ziemliche Milchmädchenrechnung abgeliefert.
Berechnung != Takt. Ich gehe mal davon aus, hier sind FLOPS gemeint, also Gleitkomma Operationen pro Sekunde. Kurzes Rechenbeispiel, Larrabee hatte pro Kern eine 512-bit SIMD/MIMD Pipeline, die 16 (512/32) Elemente einfacher Genauigkeit pro Takt aufnehmen kann. Mittels FMA lassen sich so 32 (2*16) Operationen pro Takt ausführen. Mit einem Kern auf 2 GHz sind das 64 GFLOPS, mit 50 Kernen 3,2 TFLOPS. Zum Vergleich, eine HD 5970 liefert heute schon 4,64 TFLOPS. Mit einer GPU in 22 nm wird ATI diese Leistungsdaten wohl mindestens vervierfachen.
Und da muss man sich schon wieder fragen, warum Intel so an ihrer x86 Mikroarchitektur festhält. IMO ist damit kein effizientes und leistungsfähiges hoch parallelisiertes Design zu machen. MIC scheint auf den ersten Blick wieder ein Rohrkrepierer wie Larrabee zu werden.
Ein prozessor schafft mehrere berechnungen pro Sekunde, keine Frage...
Aber eine teileinheit, z.B. FPU schafft im besten Fall trotzdem nur eine Berechnung pro Sekunde! Dafür gibt es halt mehrere dieser Einheiten auf der CPU ...
Natuerlich nicht, eine Vektoreinheit wie z.B. eine SSE oder AVX Einheit macht mehrere Operationen pro TAKT, pro Sekunde sind es natuerlich Milliarden...
Der einzige Vorteil, den Intel mit MIC haben wird, ist die Kompatibiliät zu bestehenden x86-Programmen. Das darf man nicht außer Acht lassen. Die Leistung ist im Vergleich zu ATI/Nvidia aber schlecht.
ja das stimmt wohl, aber unter den 10 schnellsten supercomputern der welt sind mein ich nur ungefähr 20% von intel, und das ist glaub ich immernoch die gewinnbringendste sparte, wenn man auf ein schlag 10.000 CPU's verkauft
Nö, das große Geld macht Intel vorallem im 1P Markt
Bis Nehalem konnte man sagen, Intel war im 1P-Markt überlegen und AMD wegen integrierten IMC im 4P-Markt, weil der Itanium schwächelte.
Mit Nehalem greift Intel konkurrenzfähig im 4P-Markt an, hingegen wird AMD mit Bulldozer im 1P-Markt angreifen.
Auch Nvidia verdient im Profisionellen-Markt als Quadro viel mehr Geld als bei HPC (=Supercomputer).
Die Masse überwiegt noch, statt ein wenige Großaufträge