Folding@Home-Client bald auch für Nvidia-GPUs

Simon Knappe
90 Kommentare

Nachdem vor wenigen Wochen bereits die Besitzer einer AMD Radeon HD 2xxx/3xxx einen kleinen Grund zum feiern hatten, können nun auch die Besitzer von Nvidia-Grafikkarten jubeln. Im Rahmen einer Präsentation zeigte Vijay Pande, der Mann hinter dem Folding@Home-Projekt, erste Details zu einem F@H-GPU-Client für Nvidia-Grafikkarten.

Bereits in der ersten fotografierten Folie wird deutlich, wie viel Rechenleistung dem Projekt durch den Mangel an Unterstützung für Nvidia-GPUs verloren geht. Würden lediglich 0,1% aller Nvidia-GPUs mit einer durchschnittlichen Rechenleistung von 100 GFLOP/s an dem Projekt arbeiten, würde sich die verfügbare Rechenleistung um satte sieben PetaFLOP/s (Mega, Giga, Tera, Peta,...) erhöhen. Aktuell besitzen alle aktiven Clients zusammen eine Leistung von etwa 1,85 PetaFLOP/s.

Folding@Home-Nvidia-GPU-Client

Die letzte Folie gibt zudem Aufschluss über die zu erwartende Performance der (neuen) Nvidia-Grafikkarten. Entsprechend der Grafik geht das Modell aus der Nvidia GT-200-Serie rund dreimal so schnell zu Werke wie eine aktuelle AMD Radeon HD 3870. Die Werte einer normalen CPU wirken hingegen geradezu lächerlich und auch die Playstation 3 kann trotz Cell-Broadband-Engine nur einen Blick auf die Rücklichter der GT200-Grafikbeschleuniger werfen. Wann und für welche Grafikkarten der neue GPU-Client für Nvidia-GPUs erscheinen soll, ist bislang noch nicht bekannt. Es ist jedoch durchaus möglich, dass Nvidia einen zusätzlichen Kaufanreiz für ihre neue GT200-Generation geben möchte, indem der GPU-Client lediglich Grafikchips aus der neuen Generation unterstützt und sämtliche aktuelle Lösungen auf Basis des G8x oder G9x außen vor bleiben.

  90 Kommentare
Themen:
  • Simon Knappe E-Mail
    … hat von Juni 2003 bis März 2010 Artikel für ComputerBase verfasst.
Quelle: PC Perspective

Ergänzungen aus der Community

  • Dark Thoughts 23.05.2008 19:01
    Schöne Leistung aber der Stromverbrauch wird sicherlich auch nicht ohne sein. Mir wäre wirklich lieber das man weiter dahingehend entwickelt und nicht nur auf Leistung setzt. Ich denke das ich später wirklich lieber auf Energiesparende Modelle mit genug Leistung setzen werde als mir weiter solche Stromfresser an zu tun, bei den Strompreisen heutzutage ist das kaum noch haltbar.
  • Realsmasher 23.05.2008 19:16
    viele scheinen nicht zu realisieren das F@H linear funktioniert, spiele aber nicht.

    In einem Spiel bekommt man nicht 10% mehr leistung wenn man den Shadertakt alleine um 10% anhebt, bei F@H schon.

    Genauso verhält es sich auch bei mehreren Karten. 2 karten = doppeltes F@H, aber eher selten doppelte fps.


    demzufolge sagt die statistik garnix über die spiele-leistung aus, da braucht ihr erst garnicht spekulieren.


    Wenn ich mir aber überlege für was manches f@h eingesetzt wird, wie das suchen von außerirdischer Intelligenz, dann halte ich 200Watt oder gar noch mehr(mit cpu) für ein bischen blödsinnig, vorallem im 24/7 Betrieb.
  • doesntmatter 24.05.2008 06:27
    Die Unterstützung für nVidia-GPUs war lange in der Diskussion im folding-Forum, weil viele Beteiligte nicht nur ihre CPU sondern auch diese Grafikkarten einsetzen wollten, neben den ATI-Karten, bei denen der Support ja schon länger lief.

    Wenn jetzt angekündigt wird "in wenigen Wochen" einen lauffähigen Client für nVidia zu veröffentlichen, ist das nach bisheriger Erfahrung durchaus realistisch. Ob der Client jemals den Beta-Status verläßt, bezweifle ich zwar (bei ATI war das heute so). Für die wissenschaftliche Arbeit wird das bedeutungslos bleiben, weil die Ergebnisse selbst unter Beta-Produktion allesamt brauchbar waren. Insofern kann man sich auf die Aussagen der Pandegroup "verlassen".

    Auch wenn hier nVidia in ein günstigeres Licht gerückt wird, weil sie endlich die Grundlagen für Programmierbarkeit im wissenschaftlichen Kontext offengelegt haben (CUDA war und ist kommerziell, folding@home war immer nicht-kommerziell), darf man ATI´s Vorreiterrolle hier nicht unter den Tisch fallen lassen. Meine Sympathien bleiben bei ATI/AMD in dieser Angelegenheit, die Aussagen zu deren Spieleleistung, Treiberunterstützung sollten - weiterhin wie zuvor - getrennt von dem Nebeneffekt DC getroffen werden.

    Grafikkarten werden nicht für DC produziert, sondern um Bildsignale und gewisse 3D-Effekte zu erzeugen, das ist der Maßstab. Aber warum ein interessantes Feature ungenutzt brach liegen lassen.