News Besserer GPU-Client für Folding@Home ist da

Endlich, hab lange genug darauf gewartet.
Allerdings hatte ich Folding@home seit meiner letzetn Neuinstallation vor einigen Wochen eh nicht mehr drauf. wird also langsam Zeit.
Für alle die noch nichts über Folding@home wissen; damit wird die Faltung von Proteinen simuliert, was wichtig ist, um neue Kenntnisse im bereich der Biologie und Medizin zu erlangen.
Wer´s bei sich laufen lässt tut also der Menschheit was gutes.
 
Hallo

Also bei Folding@Home geht es um die Berechnung von Proteinen und deren Faltung. Da die Uni nicht über genügend Rechenleistung verfügt, gibt sie die Aufgaben in kleinen Happen an interessierte ab, die das dann zu hause erledigen.

Diese Berechnungen laufen ja mit Boinc und für Boinc gibt es noch diverse andere "Arbeiten". Einige von euch werden wohl Seti@home kennen. Dort geht es um die Suche nach Ausserirdischen.

Der Unterschied ist einfach, dass Seti die CPU zur Berechnung verwendet und nicht die GPU.

Es gibt Boinc-Clients welche "CUDA" verwenden und somit auf entsprechenden Nvidia GPU's laufen.
 
Zuletzt bearbeitet:
captain carot schrieb:
...
Wer´s bei sich laufen lässt tut also der Menschheit was gutes.

Wirklich, inwiefern? Gibt es den schon Entwicklungen die auf den Ergebnissen der Rechnerei basieren, werden diese für die Menschheit günstiger angeboten, wie sieht es mit Kosten(Energieverbrauch) und den damit verbundenen negativen Auswirkungen im Gegensatz zu den erzieltem Ergebniss aus?
Das es für die Firmen/Universitäten ein Vorteil ist, das sehe ich ja direkt ein. Aber was es dem Rest der Menschheit(also auch mir) bringt, das kann ich noch nicht so wirklich nachvollziehen :rolleyes:
 
@vander:
Gut, dann hören wir eben ab sofort mit dem Forschen an Hochschulen auf. Bringt ja nix. Hey - Internet wär ja nich so wichtig.
 
vander schrieb:
Aber was es dem Rest der Menschheit(also auch mir) bringt, das kann ich noch nicht so wirklich nachvollziehen :rolleyes:


Na, zumindest auch den Stromerzeugern bringt es klingelnde Kassen, gerade bei ATI-Karten.

Es hat schon etwas paradoxes an sich, dass von ATI Usern immer wieder der der geringe Idle-Verbrauch der Karten gelobt wird und sie dann die Karten aber mit solchem Quatsch wie Folding@Home dauerhaft stressen.
 
Genau - ich finde auch, dass der Quatsch gestoppt gehört. Was interessieen mich die Gründe für Parkinson ua. Krankheiten (und deren mögliche Heilung/Milderung)?

Da fahr ich doch lieber mit "Brot" um Tank - das schont die Umwelt.
 
Pl@yer_1 schrieb:
Wieso nicht für nvidia? So schließen die doch schon eine rießige Schicht an Nutzern aus.

ich meine mal vor einiger zeit gehört zu haben, das ATI ein tool bereitsstellte um solche GPU berechnungen besser programmieren zu können, oder war es ein treiberfeature? weis nicht mehr genau, hab von nvidia in dem bereich noch nichts mitbekommen.
 
Child schrieb:
Gut, dann hören wir eben ab sofort mit dem Forschen an Hochschulen auf. Bringt ja nix. Hey - Internet wär ja nich so wichtig.

Was hat ernsthafte Forschung, die ja von den Schulen über Gebühren, Steuern usw. finanziert wird, mit einer Kosten/Nutzen Analyse von Distributed Computing zu tun?
Falls du es nicht verstanden haben solltest, mir geht es darum das man erst einmal abschätzen sollte ob automatisierte Projekte wie Folding at Home den Aufwand wert sind, oder doch besser komplett an einer Uni durchgeführt werden sollten, von entsprechend qualifiziertem Personal. Ich sehe hier die allgemeine Tendenz, entlassen von Fachkräften und die Kernarbeit von einer größeren Menge wenig qualifizierter erledigen lassen. Das spart erstmal Personalkosten, nutzt am Ende aber meist wenig wenns um Qualität geht. Das es die jeweilligen Unis kaum etwas kostet, fordert die Verschwendung von Resourcen(Energie) ja geradezu heraus.
Wie effektiv ist den diese Art der Forschung, kann das jmd beantworten?
 
@vander

die forschung wird auch weiter von qualifiziertem Personal durchgeführt. Nur kommt hier nicht mehr ein großer cluster in einer uni zum einsatz, denen meistens eh das geld für sowas fehlt, sondern die ungenutzte rechenzeit privater computer.
Der Anwender muß da nix machen oder rechnen... ;-)
 
Eben, der Anwender hat keinerlei Einfluß, ob er nun struntzdoof oder ein Genie ist, das Ergebnis ist immer gleich. Hier wird ein Problem mit Brute Force angegangen und meine Frage ist einfach. "Können das Spezialisten die das Problem logisch angehen nicht viel effektiver lösen?" Die müssen evtl. nicht alle Möglichkeiten abchecken, so wie die Software das macht, das ist schließlich ihre kostbare Arbeitszeit. Andersherum, wenn interessiert es ob der Client nen Tag länger rechnet, die Uni kostets ja nix?
Wird hier lediglich Arbeit ausgelagert, da Spezialisten teuer sind. Oder ist das Problem wirklich nur so lösbar? Ich durchschaue die Motivation seitens der Macher dieses Projekts nicht, das macht mich mißtrauisch.
 
@vander
ist doch ganz einfach:
die forschen an verschiedensten ansätzen zur lösung des problems. das machen die eben nicht per "brute force" sondern gucken ob ihr lösungsansatz auch nur im entferntesten eine hoffnung verspricht das problem zu lösen.
sie kenn die lösung des problems eben nicht!

nur weil sie "spezialisten" sind können die ja auch nicht alles wissen, deswegen nennt man es ja "forschung" und nicht "wissen und kein bock haben spezialisten dafür einzustellen" wenn es wirklich spezies dafür gäbe würde es das problem doch garnicht mehr geben, oder?

du hilfst den jungs an der front im kampf gegen verdammt dreckige krankheiten dabei eine eventuelle lösung zu finden. dazu braucht man halt rechenpower.

das einzige was du machen musst ist den kram aufn rechner zu ballern, die priorität auf "niedrig" zu stellen und fertig.es wird dich nicht stören!
aber vielleicht wird in dem moment wenn du dir grade ein brötchen schmieren gehst und dein rechner im idle ein bissel rechnet genau das protein gefunden das der schlüssel für die heilung vieler menschen auf der welt bedeutet.
und es kostet dich nix außer ein paar klicks!

und nein, auch kein storm! wenn die priorität auf niedrig ist kommt der rechner nichtmal aus dem stromsparmechanismus!

nochn nachtrag: unis haben nie zuviel geld, außer die privaten die die kohle für schwachsinn in die welt blasen.
 
Zuletzt bearbeitet: (hä?)
(Blasphemie! :evillol:)
und nein, auch kein storm! wenn die priorität auf niedrig ist kommt der rechner nichtmal aus dem stromsparmechanismus!

Na, das ist leider alles andere als korrekt. Natürlich wird das Programm auch auf niedriger Priorität die Grafikkarte entsprechend auslasten, jedoch sind ihm sämtliche anderen Prozesse mit Priorität "Normal" übergeordnet, weshalb z.B. eine gestartete 3D-Anwendung sofort alleiniges Nutzungsrecht der GPU zugeteilt bekommt und der Folding-Client warten muss.

Jedoch ist der Mehrverbrauch an Stromkosten für Viele sicherlich zu verkraften. Nicht wenige lassen ihren Rechner Tag und Nacht laufen, sei es zum Spaß, zum Filesharing oder sonstigem. Die Grafikkarte wird bei Folding-Belastung keine maximale Energieaufnahme erreichen. Geht man von einer Mehrbelastung von ca. 50 Watt aus und rechnet dies auf 24/7 für 365 Tage rauf (was in der Realität sicher nie eintreffen würde), erhält man zusätzliche Stromkosten von ca. 87,60 Euro (gerechnet bei 20c pro kW/h). Bei monatlicher Abrechnung sind das 7,30 Euro zusätzlich.

In meinen Augen ist das kein Beinbruch für Jedermann, obgleich ich als Azubi dreimal auf´s Geld achten muss und deshalb sogar meinen Laptop sofort ausschalte, wenn ich ihn nicht innerhalb der nächsten 10 Minuten wieder benötige.

Cya, Mäxl (aktuell ca. 16,5kw/h am Tag mit 3 Personen *würg*)
 
vander:

Ich hab zwar (scheinbar so wie du) auch keine Ahnung, was genau sie da rechnen wollen, aber ich hab das Gefühl, dass es Dinge sind, die nicht einfach von einpaar Genies, die sich wirklich die Mühe machen wollen und sich schweren Herzens an den Tisch setzen, Papier und Bleistift in die Hand nehmen, gelöst werden können.
Ich schätze mal es geht um die physikalische Simulation vom Verhalten der Moleküle, um Sachen, die man noch nicht genau weiss wie sie funktionieren, um Grundlagenforschung, da kann man kein Abi-Chemiebuch aus dem Regal nehmen und schauen, wie das funktioniert - genau das muss man halt rausfinden.

Dass das am PC simuliert billiger und ressourcenschonender ist als reale Experimente kann ich mir gut vorstellen. Also denke ich, dass du mit deinen Berechnungen von Personal- und Stromkosten an der falschen Stelle suchst.
 
Nur mal so zum besseren Verständnis dessen, was bei Folding@Home gemacht wird:

Es geht um das Thema "Molekularbiologie". Innerhalb dieses sehr weiten Feldes geht es um das "Proteom", also den Teil der Molekularbiologie, der sich mit Eiweißen (Proteinen), deren Aufbau, Entstehehungsweise und Wirkung befasst.

Eiweiß ist so ziemlich überall involviert, wo es für den menschen und sein leben wichtig wird: Gehirn, Muskeln, Genom (DNA), Fortpflanzung etc. pp.

Beispiel: ein einziger Defekt (EIN falsches Atom am falschen Platz) im Molekül einer DNA-Transkriptase z.B. reicht aus, damit diese nicht -wie es sein soll- eine DNA-Helix (das sind "die Gene") korrekt kopiert, sondern in einem teil davon nur noch Datenschrott. Oder den teil gar nicht mehr kopiert. Dieses "kaputte" Stück der DNA sorgt dann z.B. dafür, dass ein Eiweiß FALSCH produziert wird, das vielleicht an der Bildung von Synapsen ("Gehirnzellen") beteiligt ist. Stattdessen lagert sich dieses "Schrott-Eiweiß" dann im gehirn ab und führt zu ... Alzheimer vielleicht.

Folding@Home untersucht einfach gesagt, wie sich Proteine räumlich (also quasi in 3D) "zurechtbiegen", damit Sie ihre Aufgaben erfüllen können und welche Auswirkungen ein solcher Effekt von vielleicht nur EINEM Atom an einer anderen Stelle hat oder haben kann.

Wenn man das weiß, dann kann man verdammt viel damit anfangen.
 
nochmal nen report und future talk

habe den cpu clienten vorher mal ausprobiert @ q6600 mit 4*3600Mhz
das war richtig lahmarschig.
kann mich auch nicht mehr erinnern, aber die berechnung sollte mehrere tage dauern!!!!

dieser gpu client @ 3870 ist mit 80 min. echt flott dagegen.
temp dank wakü <50

ok, stanford hat schon einen cluster, und die haben auch nen raum mit einigen PS3´s.
fakt ist, wenn man die forschung unterstützen möchte, kann man das gerne tun,
wenn nicht so, dann macht doch euren professor in molekulardingsda und erfindet selber ein heilmittel gegen Alzheimer, BSE, CJD (Creutzfeldt-Jakob-Krankheit), ALS (Amyotrophe Lateralsklerose) oder Parkinson.



but the big problem is?

we are infected by problem after problem syndrome.

*hmm, vielleicht wird aber mit meinem rechner die falte gefaltet die mir durch forschung anderer mal in der zukunft weiter helfen wird :D

*will auch noch ein Seti@Home client, damit ich schneller außererdische signale finden kann wie bis jetzt...
wenn es den gibt, dann gibt es bestimmt auch die 4870x2.

eine 3870x2 oder mal 2 schafft/en mehr als 1TFlop
eine 4870x2 wird mehr schaffen und dann?

also, ihr habt dann entweder ganz viele FPS beim zocken
oder ihr schaut und rechnet was für ein supercomputer das wäre:
Intel5400gx 2*xeon xxxx 4* 4870x2 RAM ???

dann nochmal schauen, rechnen und vergleichen
http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats

wenn das mal die forschung nicht ne ecke weiter bringt, dann weiß ich auch nicht....


schöne grüße, EspE


300 watt pc unter last seti@cpu / folding@gpu = ~40€ / monat

ich steig aus läute ;)
 
Zuletzt bearbeitet von einem Moderator: (Wiederhergestellt)
Zurück
Oben