GPGPU auf Polaris/Pascal + libraries?

ascer

Captain
Registriert
Juni 2008
Beiträge
3.818
Huhu Leute,


mich würde die Hardware- und Softsareseite der kommenden AMD/NVIDIA-Karten mal interessieren. Leider bin ich gerade zu doof, die Präsentationen (wieder) zu finden, aber gefühlt hat NVIDIA mal mehrere dazu abgehalten, dass Pascal mixed-precision units bekommen soll und damit nicht nur in der SP-Leistung neue Maßstäbe definiert, sondern auch wieder deutlich mehr DP-Leistung bietet (die war ja besonders bei Maxwell unterirdisch).
Zumindest grob erinnere ich mich auch noch daran, dass AMD für Polaris ebenfalls mal von deutlichen Performancegewinnen für GPGPU gesprochen hat.

Gibt es dazu mittlerweile neue Informationen?
Weiß man *ungefähr*, wie es mit der SP/DP-Leistung bei Polaris/Pascal aussieht?


Soviel zu der Hardware. Noch interessanter für mich wäre die Softwareseite. Ich arbeite hauptsächlich im Bereich Machine Learning und Artificial Intelligence.


Vor einiger Zeit habe ich mal in OpenCL auf AMD-Karten reingeschnuppert, aber ich fand es deutlich komplizierter als mit CUDA was zu bauen, vor allem weil AMD einfach deutlich weniger libraries bietet - hat sich da was getan oder wurde da überhaupt etwas geplant?

Ich weiß, dass mittlerweile komplette BLAS und FFT libraries von AMD existieren. Das ist schön, aber ja erst der Anfang.

Meistens, muss ich gestehen, mache ich mir auch nicht die Mühe so hardwarenah zu arbeiten und nutze z.B. Theano oder TensorFlow als APIs. Auf einer NVIDIA-Karte geht das mit CUDA wunderbar und es gibt zahlreiche "sub-libraries" für jeden erdenklichen Andwendungszweck.

Beispielsweise cuDNN für deep neural networks, cuSPARSE für sparse matrix Operationen usw. usf.
Sowas fehlt bei AMD imho immer noch komplett?!

Es ist, gerade bei größeren Projekten, schon definitiv schön beispielsweise sowas wie Theano oder TensorFlow als API zu nutzen. Man kann halt einfach *viel* schneller auf der Meta-Ebene beschreiben, wie seine Architektur auszusehen hat und muss nicht erst lange in CUDA alles "selbst" bauen.
Für TensorFlow und für Theano gibt es zwar Motivation, entsprechende OpenCL-Wrapper zu bauen, damit das auch auf AMD-Karten läuft, aber bis vor kurzem hieß es da immer noch relativ oft: sobald AMD ebenfalls erweiterte libraries für OpenCL anbietet.

Die Problematik ist da natürlich auch: man könnte schön z.B. deep neural networks in OpenCL bauen, aber cuDNN liefert beispielsweise bei fast allen mathematischen Operationen bis zu 50% mehr Performance im Vergleich zu "mal eben so selbst implementierten" Lösungen - das ist halt hochoptimierter Kram.

Deshalb bau ich eigentlich nur noch was selbst (in CUDA auf low-level Ebene), wenn ich dort "proof-of-concept" Sachen für ML/AI-Projekte auf low-level Basis haben möchte. Für alle größeren Geschichten nutze ich mittlerweile fast ausschließlich APIs die mir die Funktionalität sinnvoll wrappen.


Weiß hier jemand eventuell, wie da die "Reisepläne" für NVIDIA, und besonders für AMD, aussehen?



viele Grüße

ascer
 
Zuletzt bearbeitet:
ascer schrieb:
Weiß hier jemand eventuell, wie da die "Reisepläne" für NVIDIA, und besonders für AMD, aussehen?

hi wenn das irgendjemand könnte dann würde er wohl entsprechende aktien kaufen. HArdware ist und bleibt immer ne spekulative sache und selbst nach release bleiben überraschungen nichtaus, siehe gtx970. alles was du jetzt denkst zu planen wird eh am ende nicht so werden. vergess es am besten iwelche spekulationen zu starten
 
da musst du wohl warten bis die vorgestellt werden .. dauert ja nicht mehr lang.
 
Zurück
Oben