News Larrabee-Erbe für Hochleistungsrechner

Bin mal gespannt was schneller wissenschaftliche Probleme brechnet, GPGPU oder das Monstrum da.

Aber wenn 50 Kerne eine Billion Berechnungen pro Sekunde schaffen, dann wären das 20 Milliarden Berechnungen pro Kern. Wären das nicht theoretische 20 Ghz pro Kern O.O
(wo is da mein Denkfehler)
 
Aber die Testsamples werden noch nicht 22 nm ausgeliefert ? Das geht aus der News nicht hervor.
 
@Damien White das könnte ein Übersetzungsfehler sein billion = Milliarde
 
Dacht ich auch zuerst, aber eine Milliarde Berechnungen pro CPU sind 20 Millionen pro Kern, das sind ~20 Mhz, da hat mein Taschenrechner mehr.
 
Solange sie nicht mal einen Larrabee rausbringen, sind ihre Versprechungen nichts Wert.

Und auch wenn sie es schaffen, einen GPU für GPGPU konkurrenzfähig zu entwickeln, dann fressen sie nur ihren eigenen Server-Markt ab, wo sie beim Top500 80% der Server haben.

Das sind keine rosigen Aussichten.
 
Und auch wenn sie es schaffen, einen GPU für GPGPU konkurrenzfähig zu entwickeln, dann fressen sie nur ihren eigenen Server-Markt ab, wo sie beim Top500 80% der Server haben.

ja das stimmt wohl, aber unter den 10 schnellsten supercomputern der welt sind mein ich nur ungefähr 20% von intel, und das ist glaub ich immernoch die gewinnbringendste sparte, wenn man auf ein schlag 10.000 CPU's verkauft ;)
 
Damien White schrieb:
Aber wenn 50 Kerne eine Billion Berechnungen pro Sekunde schaffen, dann wären das 20 Milliarden Berechnungen pro Kern. Wären das nicht theoretische 20 Ghz pro Kern O.O
(wo is da mein Denkfehler)

wer sagt denn das Pro Taktzyklus nur eine Berechnung Stattfinden kann?
Stichwort: Parallelisierung
 
Öhm, ein Takt = eine Berechnung O.o

1+1=2 = ein Takt und nicht ein dreiachtel Takt.

Parallelisierung heist doch nur, dass komplizierte Berechnungen in Teilberechnungen auf Tilkerne ausgelagert werden, dennoch bleibt die einfachste mögliche Berechnung (die Addition von Eins) ein Takt.
 
wozu brauchst du bei ner CPU Milliarden von Transistoren wenn sie Pro Takt dennoch nur eine berechnung schaffen?

ein Intel 8086 brauchte 3-5 Takte um eine Berechnung durchzuführen (jeh nach Befehlsart)
Ich denke eine Moderne CPU ist da etwas Leistungsfähiger als ein 32 Jahre alter Prozessor ;)
 
Ein prozessor schafft mehrere berechnungen pro Sekunde, keine Frage...
Aber eine teileinheit, z.B. FPU schafft im besten Fall trotzdem nur eine Berechnung pro Sekunde! Dafür gibt es halt mehrere dieser Einheiten auf der CPU ...
 
NoObStYlE schrieb:
Aber eine teileinheit, z.B. FPU schafft im besten Fall trotzdem nur eine Berechnung pro Sekunde
Pro Sekunde :o



Damien White schrieb:
Aber wenn 50 Kerne eine Billion Berechnungen pro Sekunde schaffen, dann wären das 20 Milliarden Berechnungen pro Kern. Wären das nicht theoretische 20 Ghz pro Kern O.O
(wo is da mein Denkfehler)

Da liegt dein Denkfehler:
CB-News schrieb:
Mit dem Chip ausgerüstete Systeme sollen beim parallelen Rechnen Billionen Berechnungen pro Sekunde ausführen können,
 
Advanced Vector Extensions: Damit werden sich in Zukunft zunächst 8 (256Bit), später je nach Ausbaustufe bis zu 32 (1024Bit) Fließkommaberechnungen parallel von einem einzelnen Kern ausführen lassen. Larabee hat eine 512Bit SIMD-Einheit (4x so viel wie SSE).

Angegeben werden natürlich die theoretischen Maximalwerte.
 
Auf der ISC präsentierte Intel mit dem Prototyp die Leistungsfähigkeit der kommenden Architektur. Mehr als 500 GFlops schaffte die Karte.

500 GFlops schafft wohl kein aktueller GPGPU.

// Ja, Karte. Genauer PCIe-Karte.
 
Ok, auch wenns etwas OT wird, die einfachste Berechnung ist doch das binäre Hochzählen, also das Ändern von "0" auf "1", oder?

Die Änderrung von "0" auf "1" ist ein Takt, ergo ist die kleinste mögliche Berechnung ein Takt. Ein Takt pro Sekunde = ein Hz

Diese kleinste mögliche Berechnung ist soetwas wie die Elementarladung der Informatik, sie ist nicht weiter reduzierbar und alle größeren Berechnungen sind nur ein Vielfaches dieser kleinsten Berechnung. Ergo kann sie nur von einem Kern berechnet werden.

Also hat diese CPU entweder 20 Ghz oder 20 Mhz O.o



Wobei, wenn man die 20 Ghz durch 8 teilt (bit und byte) käme man auf 2,5 Ghz, was realistisch wäre. Dann hätte Intel aber ne ziemliche Milchmädchenrechnung abgeliefert.
 
hier ist die rede von Parallelisierten Aufgaben.
und du vergleichst das ganze mit ner Einzelnen Aufgabe.
--> gibt natürlich keinen Sinn.
 
Damien White schrieb:
Dacht ich auch zuerst, aber eine Milliarde Berechnungen pro CPU sind 20 Millionen pro Kern, das sind ~20 Mhz, da hat mein Taschenrechner mehr.
Berechnung != Takt. Ich gehe mal davon aus, hier sind FLOPS gemeint, also Gleitkomma Operationen pro Sekunde. Kurzes Rechenbeispiel, Larrabee hatte pro Kern eine 512-bit SIMD/MIMD Pipeline, die 16 (512/32) Elemente einfacher Genauigkeit pro Takt aufnehmen kann. Mittels FMA lassen sich so 32 (2*16) Operationen pro Takt ausführen. Mit einem Kern auf 2 GHz sind das 64 GFLOPS, mit 50 Kernen 3,2 TFLOPS. Zum Vergleich, eine HD 5970 liefert heute schon 4,64 TFLOPS. Mit einer GPU in 22 nm wird ATI diese Leistungsdaten wohl mindestens vervierfachen.
Und da muss man sich schon wieder fragen, warum Intel so an ihrer x86 Mikroarchitektur festhält. IMO ist damit kein effizientes und leistungsfähiges hoch parallelisiertes Design zu machen. MIC scheint auf den ersten Blick wieder ein Rohrkrepierer wie Larrabee zu werden.
 
NoObStYlE schrieb:
Ein prozessor schafft mehrere berechnungen pro Sekunde, keine Frage...
Aber eine teileinheit, z.B. FPU schafft im besten Fall trotzdem nur eine Berechnung pro Sekunde! Dafür gibt es halt mehrere dieser Einheiten auf der CPU ...
Natuerlich nicht, eine Vektoreinheit wie z.B. eine SSE oder AVX Einheit macht mehrere Operationen pro TAKT, pro Sekunde sind es natuerlich Milliarden...
Ergänzung ()

DasBoeseLebt schrieb:
500 GFlops schafft wohl kein aktueller GPGPU.

// Ja, Karte. Genauer PCIe-Karte.


Natuerlich... Fermi und ATI 58XX haben > 500 Gflops double Precision,
ATI hat >2 Tflops single Precision.
 
Der einzige Vorteil, den Intel mit MIC haben wird, ist die Kompatibiliät zu bestehenden x86-Programmen. Das darf man nicht außer Acht lassen. Die Leistung ist im Vergleich zu ATI/Nvidia aber schlecht.

@leboh: Willkommen im Forum!
 
anonymous_user schrieb:
ja das stimmt wohl, aber unter den 10 schnellsten supercomputern der welt sind mein ich nur ungefähr 20% von intel, und das ist glaub ich immernoch die gewinnbringendste sparte, wenn man auf ein schlag 10.000 CPU's verkauft ;)
Nö, das große Geld macht Intel vorallem im 1P Markt

Bis Nehalem konnte man sagen, Intel war im 1P-Markt überlegen und AMD wegen integrierten IMC im 4P-Markt, weil der Itanium schwächelte.
Mit Nehalem greift Intel konkurrenzfähig im 4P-Markt an, hingegen wird AMD mit Bulldozer im 1P-Markt angreifen.

Auch Nvidia verdient im Profisionellen-Markt als Quadro viel mehr Geld als bei HPC (=Supercomputer).
Die Masse überwiegt noch, statt ein wenige Großaufträge
 
Zuletzt bearbeitet:
Zurück
Oben