News Nvidia und die „Power of 3“

und was soll dir das bringen ?

wenn mehrere Berechnungszyklen hintereinander notwendig sind, dann müssen auch jeden zyklus die Daten per broadcast verteilt werden.

Dafür ist die gpu architektur aber nicht vorgesehen.


Also nimmt man entweder eine extrem stark einbrechende Leistung in Kauf(die unter jener eine cpu liegen kann), falls es zu Kettenreaktionen kommt oder man verzichtet darauf und klärt diese Situationen erst im späteren Verlauf, was zu Fehlern führt.

Eine Alternative gibt es nicht.
 
Ich frage mich ja immernoch, was dich so sicher bei deinen Prognosen macht ...

Naja, die Zukunft wird letztendlich zeigen, was da geht. Und ich bin mir ziemlich sicher, daß GPU-Computing in der Zukunft eine sehr große Rolle spielen wird ... wahrscheinlich werden Grafikkarten auch irgendwann in diese Richtung optimiert werden um etwaige Flaschenhälse auszumertzen/einzudämmen.
 
Realsmasher schrieb:
Ich würde die sequentielle Leistung einer cpu derzeit wenigstens beim 5-fachen ansetzen, je mehr Objekte berechnet werden, umso höher der Komm-Aufwand und umso mehr bricht die GPU ein..

Also Intel ist überzeugt, dass Larrabee verflochtene Parallelisierung effizient berechnen kann, mit gemischter Daten- und Task-Parallelisierung und mit sequentiellem Code. Siehe Folie von Intel:
http://www.hardware-infos.com/berichte.php?bericht=40&seite=6

Eine Many-Coore-CPU, bzw. Grafikkarte oder Physikberechnungskarte, die wie Larrabee aufgebaut wäre, wäre somit sowohl einer klassischen CPU mit wenigen Kernen als auch einer klassischen GPU überlegen und damit der richtige Weg.

Ihr "streitet" euch ja hier, was quasie besser wäre, CPU oder GPU. Die Lösung liegt genau in der Mitte und genau da setzt Larrabee und vielleicht auch andere HPC-Architekturen an!
 
Zuletzt bearbeitet:
dem kann ich nur zustimmen, für einen general purpose chip ist der Ansatz über eine kurze pipeline und kleine, schnelle caches wirklich besser.

Insbesondere wenn die einzelnen Einheiten auch noch hoch getaktet werden und die Befehle direkt in hardware verdrahtet sind -> das kann was werden.

Diesen letzten Schritt führt intel leider nicht durch, man behält die x86 mikroprogrammwerke.

Auch die Kommunikation ist weiterhin ein Schwachpunkt : ein Ring-Netzwerk mit Durchmesser 8 (16 einheiten und dual-ring) ist völlig ungeeignet für einen broadcast.


Aber der Weg ist jedenfalls richtig. Wenn es irgentwann mal eine vernünftigte gitter oder gar omega Struktur gibt und die Befehle wirklich hochgetaktet und fest verdrahtet (pur RISC) ausgeführt werden, dann lassen sich auch solche Algorithmen im Vergleich zu einer cpu signifikant beschleunigen.

In jedem Fall ist aber Larabee der richtige und erste Schritt dahin.


Ich frage mich ja immernoch, was dich so sicher bei deinen Prognosen macht

Prognosen gebe ich keine ab.

Ich sage nur das die heutige GPU Struktur für eine derartige Aufgabe völlig ungeeignet ist und das manche Aufgaben sich garnicht parallelisieren lassen.


Ich bin mir aber sicher das ich mit diesem Wissen nicht alleine dastehe, wäre auch ziemlich seltsam.

Die Frage ist eben immer nach dem Aufwand und dem Nutzen.

Einen hochkommunikativen Chip, der auch schnell sequentiell arbeiten kann, zu entwerfen ist eine Sache, aber das mit einer klassischen gpu zu verknüpfen, welche beides nicht braucht, ist eine andere.

Wenn sich die technik in die Richtung entwickelt, dann kann ich das nur begrüßen. Die Menge an parallelisierbarer Software würde sich sprungartig vergrößern.
 
Zurück
Oben