1668mib schrieb:
Naja ich mag die FLOP/s-Angaben irgendwie nicht, die sind eigentlich so ziemlich nichtssagend...
Nichtssagend würde ich nicht sagen, aber zumindest recht theoretisch. nVidias Flops Leistung setzt sich zB momentan aus 1xADD und 2xMUL pro Takt zusammen. Wenn die Anforderungen der Berechnungen hingegen einem Verhältnis von 2 zu 1 (ADD zu MUL) entsprechen, kann diese theoretische Leistung in der Praxis schnell mal nur noch die Hälfte wert sein.
SC6 schrieb:
Ich kann die genannten Zahlen nicht nachvollziehen, geschweigen denn mir vorstellen.
8.544 Nehalem Kerne sollen 192 TFLOPs leisten, soweit so gut.
Aber im Verhältnis dazu sollen 96 GT200 103 TFLOPs Rechenleistung bringen?
Also entweder unterschätze ich die Leistung dieser GPUs massiv, oder aber die Zahlen stimmen nicht. Mal ganz ab gesehen von dem bereits oben angebrachten Einwand:
96 GT200 zu je 1,01 GFLOPs = 103 TFLOPs
so what? Bitte kann mir das jemand erklären?
Erstmal sollte man sagen, dass offiziell wohl gar keine konkrete Hardware genannt wurde. So findet man zumindest die Infos bei Bull (
generalist computing nodes Intel, specialist 512-core GPU nodes). Nehalem und GT200 sind daher vermutlich reine Spekulation. Ansonsten sind die Zahlen schon nicht unrealistisch. Allerdings hat TG Daily hier etwas durcheinander gebracht, die 103 TFlops beziehen sich auf die CPUs, die 192 TFlops auf die GPUs. Das wäre recht viel für die GPUs, ziemlich genau 2 TFlops pro GPU. Der RV770 hat zB 1 TFlops bei der HD 4870. Die CPUs hingegen werfen einige Fragen auf. 103 TFlops bei 8544 Kernen (8x1068) ist nicht gerade viel. Das macht ~12 GFlops pro Kern. Ziemlich exakt die Leistung, die Intel beim QX9650 angibt (48 GFlops gesamt). Also entweder hat Nehalem nicht mehr Leistung oder es kommen deutlich niedriger getaktete Modelle zum Einsatz. Penryn kann es eigentlich nicht mehr sein, da hier maximal ein 6-Kerner geplant ist (Dunnington).
thenebu schrieb:
ABER warum hat der GT200 50mal(!) soviele FLOPs wie ein neuer Nehalem ????
Bitte um Klärung!
Wie gesagt, welche Hardware letztendlich eingesetzt wird, bleibt offen. Dass eine GPU aber deutlich leistungsfähiger ist, ist kein Wunder. GP CPU Kerne, in dem Fall x86, Itanium kann ich mir nicht wirklich vorstellen, haben idR ganz wenige FPU Einheiten. Der Core2 hat afaik jeweils eine 128 Bit ADD und MUL Einheit. Und die können maximal einen entsprechend grossen Vektor bearbeiten. SSE ist eine 128 Bit Pipeline, d.h. also zB 4 Single Precision (32 Bit) oder 2 Double Precision (64 Bit) Berechnungen. Im Gegensatz dazu schau dir mal GPUs an. Der RV770 hat insgesamt 480 (!) Streamprozessoren, welche pro Takt jeweils eine ADD und eine MUL Berechnung durchführen können. Bezogen auf einen 4-fach Vektor ein Unterschied von Faktor 120 gegenüber einem CPU Kern. Wenn man die 4 Kerne eines Quadcores und Taktraten von 3 GHz bei der CPU gegenüber 1 GHz bei den Streamprozessoren einbezieht, bleibt immer noch ein Faktor von 10 übrig.
Gepi87 schrieb:
Wie kann man eigentlich feststellen wieviel FLOPs eine GPU und CPU schafft?
Bei x86 CPUs ist das nicht so einfach beantwortbar. Da spielen Präzision oder die verwendete Pipeline (x87, 3dnow, SSE) eine Rolle. Bei aktuellen GPUs wird es wie folgt errechnet: Berechnungen pro Takt (ADD, MUL) * Streamprozessoren pro Shader * Anzahl Shader * Taktfrequenz der Shader (Hz) = Flops.