News Nvidia CUDA für alle – auch AMD und Intel

Ich kann mir nicht vorstellen, das Amd so mal eben Cuda supporten könnte. Der Nvidia Fermi Chip ist ja schon eine sehr eigen, teilweise CPU-Artige Entwicklung mit speziellen Recheneinheiten die von Cuda angesprochen werden. AMD müsste diese ja dann zeitaufwendig simulieren. Wenn überhaupt dann beträfe das doch eine zukünftige AMD Karten Generation.
 
doesntmatter schrieb:
Dass MW sehr "großzügig" Punkte verteilt, scheint sich nicht geändert zu haben.
Meines Wissens beruht der Vorteil von ATI/AMD-Karten bei MW auf der (ausschließlichen) Nutzung des Features ´double precision´, die bei Nvidia-Karten in der Tat :( schlechtere Leistungsergebnisse hat, weil in Hardware schlechter unterstützt. Eine Entscheidung von Nvidia, die ´double precision´ nicht für den consumer market, sondern für deren professionelle Karten bewirbt.
Mein Fazit: es gibt 1 (ein) Projekt, in dem ATI/AMD durch ein hardwarespezifisches Feature, auf welches per zunächst Optimierung (Entwickler "Gipsel") und später per (teilweiser) Übernahme von Optimierungscode in den offiziellen Applikationscode ein Berechnungsvorteil in Form von Leistungssteigerung gepaart mit großzügiger Punktewertung von Workunits ein überragender Punktevorteil gg. Nvidia-Karten herauskommt. [...]
Offene Frage:
Ist das ein singuläres Phänomen oder der neue Trend in der DC-Welt ?

Naja, vielleicht sollte man erst mal lesen, bevor man schreibt...
Hier wurden noch einige weitere Projekte genannt, das sind aber nicht alle.
Die optimierte MW App von Gipsel wurde leider komplett eingestampft, dadurch ist MW auf AMD Karten inzwischen deutlich langsamer (etwa halb so schnell, die CPU Last ist auch merklich gestiegen).
MW ist aber nicht die einzige Anwendung. In Collatz (nur Single Precision) sind die AMD Karten schneller, in DNETC (leider inzwischen eingestellt, auch SP) waren sie deutlich schneller (das gab auch viel mehr Punkte als Milkyway), in Moo Wraper sind sie schneller...alle Projekte bieten entweder OpenCL oder Cuda Support. Bin mal gespannt, wie es sich bei POEM@Home entwickeln wird, da wird wohl nur OpenCL angeboten werden (für beide Hersteller; die schreiben aber noch an der Schnittstelle zum Client).

Und dein gebashe über die Punktevergabe von Milkyway ist besonders lustig, wenn man sich mal die Vergabe bei so NVidia-freundlichen Projekten wie Primegrid anschaut...da ist Milkyway ja geradezu ausgeglichen und spart mit Punkten...
Von Folding@home (war schon immer eigenständig und noch nie in BOINC) rede ich mal lieber gar nicht, denn schließlich muss Stanford ja irgendwie Werbung für ihren Sponsor NVidia machen (Stanford ist ja schließlich Cuda Center of Excellence und bekommt dafür Sponsorgelder). Anders kann man sich nicht erklären, warum Folding auf einer ATI HD Karte (in meinem Fall HD3870, HD4890) langsamer lief, als auf einer eigentlich erheblich langsameren X1950XT. Das weiß nur inzwischen keiner mehr, weil die X1950er App ja ziemlich schnell eingestellt wurde, damit das dann nicht so leicht auffällt...die X1950er war damals etwa so schnell wie die 8800GTS und damit noch schneller als eine HD4890er. Dass Folding alles andere als fair agiert, war ja auch immer schön an den Servern zu sehen. Da gab's einen Server für das ATI Projekt und +10 Server für NVidia...

Und dass NVidia ihre Desktop Karten beschneidet, dafür kann ATI/AMD auch nichts, genauso wenig wie die Leute von Milkyway. Die brauchen nun mal die DoublePrecision, weil die Berechnungen sonst nicht klappen. Aber es gibt ja noch genügend andere GPGPU Projekte, und inzwischen tendiert man wohl dazu, bei den neuen generell auf OpenCL zu setzen (siehe POEM), was für NVidia wohl auch kein Vorteil ist (weil die ja immer noch an ihrem Cuda festhalten und entsprechend wenig für OpenCL optimieren).
 
Ameisenmann schrieb:
Ich hab zwar Nvidiakarten und auch ATI aber CUDA braucht kein Mensch, ist echt unwichtig bzw. spielt im Alltag für die meisten Leute keine Rolle.
Als DC Member gibt es genügend Projekte für ATI Karten, die jede CUDA Anwendung in den Schatten stellt.

Solche Kleinkariertheit und Horizonlosigkeit ist exquisit für dieses Forum. Bravo! Und Dein beschränkter Horizont hat nun Allgemeingültigkeit?

derGrimm schrieb:
Es gibt schon länger eine einheitliche GPU-Beschleunigung
=>OpenCL(OpenSource)/DirectCompute(Windowsbeschränkt) Schade

Korrektur: OpenCL ist ein offener Standard! Nicht notwendigerweise damit quelloffen. Quelloffen werden möglicherweise durch nVidias Schritt die Bibliotheken, die es erlauben sollen, das ABI der GPU nun plattformübergreifend nutzbar machen zu können.

Die Entwicklung ist eindeutig. Jedes Betriebssystem mit HPC Ambitionen benötigt eine plattformübergreifende (Plattform = GPU/CPU Diversitäten) Lösung. MIcrosoft kann sich aufgrund seiner Marktmacht und Quasimonopolstellung erlauben, einen eigenen verschlossenen Standard zu bringen, ob dieser allerdings außerhalb der Spielzeugwelt jemals Anklang finden wird, ist fraglich. Ich hoffe persönlich jedenfalls, daß es nicht dazu kommt.

nVidia hat mit CUDA seit einer ganzen Weile nun eine gut gepflegte Entwicklungsumgebung und wirklich nutzbare Plattform vorgelegt. Darin ist viel Geld und Zeit investiert worden. nVidias Marktmacht im Bereich HPC ist ungebrochen, zur Zeit führt nichts an nVidia und CUDA vorbei, wenn man auf fertig konfektionierte Lösungen zur Bewältigung rechenintensiver Aufgaben zielt.

Allerdings ist nach erfolgreicher Pionierarbeit die Konkurrenz nicht weit. Intel schickt sich nun als größter Prozessorhersteller weltweit mit einer schier unglaublichen Masse an integrierter GPUs und mit Vorzug auf OpenCL ebenfalls den HPC Markt zu betreten. Evaluierungssysteme wie "Nights Corner" deuten an, wohin der Karren gezogen wird.

AMD, der "Underdog" in Sachen HPC, hat eingesehen, daß der eingeschlagene Weg hinsichtlich GPU Design und Softwareplattform in einer Sackgasse enden muß und schwenkt nun um. Die neue GCN Architektur ist der nVidias zum Verwechseln ähnlich und OpenCL wird auf dieser Plattform nativ unterstützt.

Innovationsmotor auf einer viel höher und breiter angesetzten Eben ist allerdings Apple, das Unternehmen, daß aus der Innovationstreiber-Riege DEC, SUN und Apple als einziges überlebt hat. Nicht auf eine Architektur festlegen, weiter und innovativ denken und nicht der Engstirnigkeit Microsofts und nVidia/AMD folgen. Hinter OpenCL steht Apple als Zugpferd, LLVM als intelligente Ablöse der verkorksten Compilertechniken heutzutage, die mit PGI, Intel, Pathscale, CAPS und anderen verschlossene Monopolbilder hervorgebracht haben und mit dem nur noch schwer zu pflegenden Elephanten GNU gcc ist ebenfalls Apple zu verdanken und ich sehe hierin ein ungeheueres Potential für die Gesamtheit und GPU Hersteller.

nVidias Schritt muß im Kontext zum Tage zuvor bereits beschrittenen Schritt AMDs gesehen werden. AMD hat die IL seiner OpenCL-Implementation offengelegt und erlaubt es damit den Compilerbauern, quelloffene Codegeneratoren zu bauen, vorzugsweise über LLVM. In Kürze werden wir also neben CLANG auch OpenCL Frontends haben, die LLVM IL muß dann lediglich noch in GPU-verständlichen Binärcode gebracht werden. Taktisch war also AMD schon einen ganzen Schritt weiter als nVidia! Daß nVidia nun den nvcc offenlegt, ist ein erzwungener Schritt zur Entwicklungssicherung - das wurde schon mehrfach von vernünftigen Menschen im Forum erwähnt.

ich sehe über kurz oder lang eine Entwicklung hin zu OpenCL. CUDA ist die Basis des OpenCL-Standards, nur beherrscht CUDA zur Zeit variationsreichere Datentypen und diverse Konstrukte, die ein Monopolhersteller viel schneller implementieren kann als ein träges Konsortium wie dies zur Definition von OpenCL nötig ist. OpenCL wird eventuell noch eine Weile CUDA hinterhängen, aber vielleicht werden CUDA und OpenCL 2.0 bereits so ähnlich sein, daß nVidia sich entscheided, CUDA komplett in OpenCL aufgehen zu lassen. Damit wäre die ganze Infrastruktur und Investitionsgrundlage nVidias und deren Kunden nicht gefährdet.

Nochmals, dieser Schritt ist erzwungen und dennoch für alle von Vorteil. Und ein gesunder Wettstreit soll nach Aristoteles nur das Beste aus den Besten schöpfen ...

Ameisenmann schrieb:
z.B. Milkyway@home

Sicher doch. Spielzeuganwendungen fürs Kinderzimmer.
 
Oberst08 schrieb:
Von Folding@home (war schon immer eigenständig und noch nie in BOINC) ...

Nein, es kam nie über das Beta-Stadium über BOINC hinaus. Wie später viele Clients kaum Beta verlassen haben und direkt in neue Beta-Clients übergingen. Man sollte nicht unterschlagen, wie schnell und fundamental der BONC-Manager in den letzten Jahren weiterentwickelt wurde.
http://www.rechenkraft.net/wiki/index.php?title=Folding@home/Boinc_Beta_Test

Oberst08 schrieb:
Naja, vielleicht sollte man erst mal lesen, bevor man schreibt...
...
Und dein gebashe über ...
...
Anders kann man sich nicht erklären, warum Folding auf einer ATI HD Karte (in meinem Fall HD3870, HD4890) langsamer lief, als auf einer eigentlich erheblich langsameren X1950XT. Das weiß nur inzwischen keiner mehr, weil ...

Hm, das wissen vermutlich tatsächlich nur die mit einer X1950, ich mit meiner X1900 hab´s im Moment als ich schrieb, einfach "vergessen", dass ich den GPU-Client installiert hatte, monatelang Workunits abgelieferte und das GPU1-Projekt eingestampft wurde. ;)

Du hast wahrscheinlich recht, ich sollte erst mal lesen. Was ich z.B. früher über DC und folding@home hier auf CB geschrieben habe. Oder warum die Rechenergebnisse von GPU1/ATI verworfen wurden oder warum ATI/AMD auf GPU2 weniger Punkte machte als GPU2 mit Nvidia-Karten. Die Fakten dazu finden sich im folding-Forum, der FAQ auf der Projektseite und z.T. auf dem typepad-Blog von Vijay Pande. Verlinken brauche ich ja nicht, die Quellen kennst du offensichtlich besser als ich. Mea culpa.
 
@Eisenfaust

was ist daran kleinkariert oder beschränkt? D Computing ist seit 10 Jahren ein Nischenprodukt und CUDA hat dort die größte Bedeutung, ansonsten gibt es nur sehr spezielle Anwendungen die man an einer Hand abzählen kann. CUDA kann man mit PhysX in einen Sack stecken und vergessen.
ION ist doch genauso gefloppt, dabei wäre es prinzipiell ne feine Sache.
 
Eisenfaust schrieb:
Solche Kleinkariertheit und Horizonlosigkeit ist exquisit für dieses Forum. Bravo! Und Dein beschränkter Horizont hat nun Allgemeingültigkeit?

Als wenn GPGPU eine breite Anwenderschaft hätte...:rolleyes:
Da geht es nich um begrenzten Horizont.
 
Niemand hat etwas zu verschenken, besonders nicht Großkonzerne wie Nvidia. Vor einigen Jahren haben die für viel Geld Aegia gekauft und in der Zwischenzeit einige Millionen in die Entwicklung von CUDA investiert. So etwas verschenkt man nicht eben so, besonders nicht an die Konkurrenz.
 
Zurück
Oben