News Gemeinsam gegen das Virus: Folding@Home startet Projekt gegen COVID-19

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
@Herbynator @CrunchTheNumber

Die Frage wurde weiter oben schon beantwortet. K.a. was sich der Taskmanager da machmal zusammen reimt aber die Werte stimmen in den aller seltensten Fällen.

Wenn ihr genau Werte wollt, dann ladet euch GPU-Z von TechPowerUp herunter. Ist kostenlos und Werbefrei. In GPU-Z kann man dann unter "Sensors" die Daten der Karte genau auslesen. Auslastung, Lüfterdrehzahl, Temp und und und...
 
HWInfo ist auch ein gutes Tool für die leistungsüberwachung, das liest alles aus. Und da ist bei mir in der Tat immer bei allen WUs 100% auslastung. Ich lass aber auch auf High laufen
 
  • Gefällt mir
Reaktionen: iron-man
Hast Recht. Ich habe gerade mit HWINFO nachgesehen: GPU Core Load so um die 98%, Taskmanager zeigt weniger als 50% GPU-Auslastung an.

Gruß,
CTN
 
  • Gefällt mir
Reaktionen: PS828
Hm heute den ganzen Tag brav gerödelt, jetzt hängt der aber seit Stunden ohne Aufgabe fest und wartet, bzw. "WARNING:WU00:FS00:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration". Scheinen gerade recht viele zu haben.
 
Turrican101 schrieb:
Scheinen gerade recht viele zu haben.

Gibt halt mehr Ressourcen als Arbeit dafür ... IRGENDWO ja auch ein gutes Zeichen, oder?
 
Keine Aufgaben sind bei solchen Projekten immer gut! Wenn dann wieder was anfällt sind genügend Leute verfügbar.
 
  • Gefällt mir
Reaktionen: B.XP
zEtTlAh schrieb:
@Knut Grimsrud @Ozmog

Wir sind ja mit den Meinungen gar nicht so weit auseinander und ich wollte keinen angreifen. Die Zahlen und Fakten solltet ihr dennoch prüfen wenn ihr euch so weit aus dem Fenster lehnt. Hier geht es nicht darum, ob Word eine Sekunde oder drei Sekunden zum starten braucht. Hier gehts um WU´s. Ich hatte schon zu genüge WU´s die selbst auf dem (nicht sonderlich effizienten) 9900k ganze 18 Stunden rechnen (Singlecore). Deadline 72 Stunden. Verglichen mit der Singlecore Leistung eines Atom (ich nenne bewusst kein AMD Beispiel) einfach nicht machbar.
Die 18 Stunden auf einem 9900K bei einer Deadline von 72 Stunden zweifle ich an. Was für ein Projekt war es denn angeblich? Aber selbst wenn das aufgetreten sein sollte, dann dürfte das entweder ein Ausreißer gewesen sein oder deine CPU war noch mit anderen Dingen beschäftigt, z.B. ein Virenscan oder ein Spiel. Und ich nehme an – hier lehne ich mich tatsächlich mal ein Stück weit aus dem Fenster – dass WUs entsprechend des eingesetzten Systems zugeteilt werden. Sprich: Ein Atom hat kein AVX … also bekommt er auch keine entsprechende WU die nur unter Verwendung von AVX in annehmbarer Zeit lösbar ist.

zEtTlAh schrieb:
Zum Thema Effizient (Leistung pro Watt) gibt es auch zu genüge Webseiten. Hier mal 2 als Beispiel, auch wenn es nicht die beliebtesten Quellen sein dürften. Der zweite Link ist auch nur drin, weil dort die ganzen low power CPU´s mit aufgeführt sind. Vergleicht man die Tabellen kann man ganz gut interpolieren.

Seltsamerweise taucht kein Atom, kein NUC und keine Notebook CPU an der Spitze auf. So viel zum Thema Effizienz. Die sollen wenig Strom verbrauchen, bzw. bei Laptops lange auf Akku laufen. Nicht mehr und nicht weniger.

https://www.pcgameshardware.de/CPU-...Der-Effizienz-Index-fuer-Prozessoren-1341682/

https://www.cpubenchmark.net/power_performance.html
Unter dem ersten Link werden nur CPUs mit 65 Watt aufwärts gelistet, was deine Behauptung kein Stück untermauert. Und mit dem zweiten Link – mal davon abgesehen wie sinnvoll es ist, die offizielle TDP-Angabe statt den realen Verbrauch oder zumindest die Sensorausgabe heranzuziehen – hast du dir ein Eigentor geschossen, denn welche CPUs stehen in der Tabelle ganz oben? Richtig, Notebookprozessoren aus den Familien Core M (4,5 W) & U (15-28 W), dazwischen ein niedrig taktendes 12-Kern-Desktopmodell. Darauf folgen noch ein paar Ms und Us, ein „verirrter“ Ryzen 7 3700, ein Atom, niedrig taktende Xeons ….

zEtTlAh schrieb:
Und zum Thema ARM... Auf das Thema steige ich ein, wenn die CB Community anfängt sich ARM Rechner zuhause hin zu stellen und zu folden... So viel zum Thema Äpfel mit Birnen
Ich sprach nicht von Heimrechnern auf ARM-Basis, sondern von Servern. Und ich denke doch, dass die Leute, die so etwas entwickeln – wenn vielleicht auch der Markt aufgrund mangelnden Softwareangebots noch nicht so weit sein mag – durchaus eher in der Lage sind, dies einzuschätzen, als du und ich.

B.XP schrieb:
Gibt halt mehr Ressourcen als Arbeit dafür ... IRGENDWO ja auch ein gutes Zeichen, oder?
Joa, mein Rechner hat seit Freitag gerade einmal zwei Pakete (für die Grafikkarte) zugewiesen bekommen, obwohl der Rechner fast dauerhaft lief. Die anderthalb Wochen davor (seit der ersten Meldung auf CB) gab es nur selten Leerlauf. Da bei dem ganze Run jetzt also die meiste Zeit nichts los ist, kann sich der Rechner ruhig mehr Zeit lassen und lieber effizienter rechnen, wie das hier manche auch schon machen. Zum einen habe ich BOINC wieder alle Threads zur Verfügung gestellt (steht ein wenig in Konflikt mit F@H), zum anderen habe ich das Powerlimit meiner RX 5700 halbiert. Mal schauen, was für Taktraten sie dann erreicht.

Theobald93 schrieb:
@Knut Grimsrud
Ich rechne normalerweise GPU-only: Einstein@Home und Milkyway@Home -> also Astronomie-Kram
Warum? Weil es auf BIONC kaum gute GPU-Projekte gibt und bei F@H kann man sich nicht die WU-Größe aussuchen, die WUs sind teilw zu groß und könnten ablaufen, bevor ich sie fertig gerechnet habe, da es nicht 24/7 sondern nur sporadisch läuft.
Zurzeit aber Rosetta@Home (CPU), aber die scheinen auch gerade Probleme zu haben.
Ja, seitdem ich mal wieder eine aktuelle Grafikkarte habe (jahrelang noch mit einer HD 5750 rumgegurkt), wollte ich auch gern GPU-Tasks unter BOINC ausführen, aber die Auswahl an Projekten, die dafür WUs bieten, ist nicht recht nach meinem Geschmack. So etwas wie Einstein- & Milkyway@Home sind mir zu wenig wichtig für die Menschheit hier und jetzt, von den Matheprojekte ganz zu schweigen (zumindest meiner Einschätzung nach). Mit LHC@Home ringe ich immer noch. Ich habe da früher ab und an mal mitgemacht, aber hatte seit der Zusammenführung der drei Unterprojekte (ATLAS, LHC & vLHC) immer wieder Probleme mit den WUs, dementsprechend schrecke ich davor zurück. Daher war ich ganz glücklich, dass jetzt mal ein auch in meinen Augen sinnvolles Projekt um die Ecke kam.

Und wenn du sagst, du rechnest normalerweise GPU-only. Wie kann man das noch gleich für ein Projekt einstellen? Da ja der Kampf gegen das Coronavirus heillos überlaufen ist, überlege ich doch wieder, ob ich nicht doch wieder bei der Auswertung des Large Hadron Colliders unterstützen soll. Ich finde die Forschung in dem Bereich schon ziemlich faszinierend. Vielleicht erlebe ich ja doch noch, wie die Quantenmechanik irgendwann ad acta gelegt wird … und Einstein mit seiner Weltformel Recht behält.
 
Zuletzt bearbeitet:
@Knut Grimsrud
Mit einer NVIDIA Karte könntest du auch bei GPUGRID crunchen.

Für GPU-only:
Man geht auf die Projektseite in die Projekteinstellungen und wählt dort CPU ab.
Bspw: https://milkyway.cs.rpi.edu/milkyway/prefs.php?subset=project
1584565685821.png
 
  • Gefällt mir
Reaktionen: Knut Grimsrud
@Knut Grimsrud
Jup... wie ich schrieb, es sind beide Listen weder aktuell noch vertrauenswürdig. Bemerkenswert ist aber dennoch, dass die "hardcore CPU´s" bewusst heruntergetaktet wurden um ein gutes Mittel zwischen Leistung und Verbrauch zu erreichen.

Die von dir (richtig erkannten) Notebook und was auch immer stromsparer liefen jedoch auf Anschlag wärend andere CPU´s mit niedrigeren Taktraten in die Tabelle eingeflossen sind.

By the way... habe meinen 9900k auch nur noch auf 4,3Ghz laufen weil er dann Allcore nur noch 60 Watt zieht. Wohlgemerkt bei 6xRosetta (BOINC) und 1xF@H GPU. Auf 5Ghz Allcore wären es 220Watt.

Wo wir wieder an dem Punkt sind, dass wir nicht so verschieden denken. Nur von der Richtung her jeder in sein "Extrem". Ich wollte nur warnen, dass man effizient arbeiten sollte, du wolltest nur warnen, dass "eigentlich" schon vieles (das Meiste) Effizient ist.

Ich hoffe, das ist eine Antwort zur Güte und trifft unser beider Vorstellungen, ohne den Rest der Community zu nerven oder zu amysieren.
 
soggi schrieb:
Das folgende ist ein Minimalpost zu diesem Thema, um die Antwort hier möglichst kurz zu halten. Mit einer vollständigeren Antwort würde der Rahmen hier whs. bei weitem gesprengt werden.

------------------------------------



Vielleicht solltest du mal hier (unten gibt's übrigens noch "Older posts") alles durchlesen und verstehen. Wenn du es nicht verstehst, ist das kein Problem, dann solltest du aber auch nicht solche Aussagen treffen. Übrigens geht es bei Folding@home nicht darum, dass "die Unternehmen" "konkret von F@H profitieren". Du hast Wissenschaft und deren Sinn einfach mal komplett missverstanden. Und nochmal: FAH betreibt mMn absolute Grundlagenforschung, ergo ist das Ergebnis kein fertiges Medikament sondern Wissen, welches andere nutzen und worauf sie aufbauen können.

Da gibt es übrigens noch sehr viel mehr Antworten, aber ich habe jetzt echt keinen Bock, dir die Arbeit abzunehmen und hier Unmengen an Links zu posten!

Nochmal:
Das hier ist ein Minimalpost, da ich u.a. nicht einsehe, anderen die Lesearbeit abzunehmen, die ich u.a. selbst in den letzten 15 Jahren investiert habe, um mit diesem Projekt (FAH) und anderen Projekten "d'accord" zu gehen...und ich prüfe schon ziemlich gut, wem ich Rechenleistung spende.

Viele Grüße
soggi

Tatsächlich ein Minimalpost, der weder die gestellte Frage beantwortet noch das Offensichtliche zugeben möchte, da "kein Bock",
aber vielleicht auch ein Schuß Wehleidigkeit. Das ist nicht schlimm, niemand muss sein Hobby rechtfertigen (schon gar nicht
mir gegenüber), aber es ist halt kein sachliches Argument erkennbar, auf das ich eingehen müsste. Für eine sinnvolle Schlußfolgerung
muss ich auch keine 233 wissenschaftliche Publikationen studieren, schon gar nicht, wenn selbst die einzigen offiziellen Antworten durchaus zu meiner Schlußfolgerung passen:
Hier werden Mosaikstückchen produziert, die mal nützlich sind, mal nicht, aber in der Vergangenheit war keins dabei, das für ein erfolgreich entwickeltes Mittel von dritter Seite unverzichtbar oder von gravierender Bedeutung war. Das gilt auch für das Rechennetzwerk selbst (für Fremdforschung).
Die Erkenntnis, dass F@H Grundlagenforschung betreibt und das wiederum nicht so recht zu dem überall verbreitetem pompösen Aufruf "Helft mit, ein Mittel gegen Corona zu entwickeln!!!" passt, ist allerdings auch einem, der "keine Ahnung von der Wissenschaft" hat wie mir offensichtlich. Sicher ist nur, daß die Stiftung der Stanford Uni letztendlich davon 100% profitiert, sei es durchs Renommee oder (in)direkte Spenden. Vielleicht ist es auch für manche interessant, zu wissen, dass es hier nicht einfach nur um "altruistische Wissenschaft" geht: Die Stiftung investiert im Stile eines Hedge-Fonds und hat in den letzten 14 Jahren jährlich mehr als 1 Mrd $ dazugewonnen (im Schnitt). Auch da gäbe es noch so einiges zu sagen, aber das muss alles ja keinen daran hindern, Proteine für die Forschung mitzufalten. Die moralische "Erhabenheit" dahinter kann ich persönlich zwar nicht nachvollziehen (Ebola war die Werbetrommel offenbar nicht wert), aber wem das irgendwie hilft...soll mir Recht sein.
 
  • Gefällt mir
Reaktionen: chartmix
habs auf light:
CPU max 11,2%, GPU max. 7%
 
daivdon schrieb:
Vielleicht ist es auch für manche interessant, zu wissen, dass es hier nicht einfach nur um "altruistische Wissenschaft" geht: Die Stiftung investiert im Stile eines Hedge-Fonds und hat in den letzten 14 Jahren jährlich mehr als 1 Mrd $ dazugewonnen (im Schnitt). Auch da gäbe es noch so einiges zu sagen, aber das muss alles ja keinen daran hindern, Proteine für die Forschung mitzufalten. Die moralische "Erhabenheit" dahinter kann ich persönlich zwar nicht nachvollziehen (Ebola war die Werbetrommel offenbar nicht wert), aber wem das irgendwie hilft...soll mir Recht sein.
Es ist nichts persönliches oder etwas gegen deiner Aussage aber...
Bitte bei so etwas auch mit Quellen Angaben belegen das dieser Hedgefonds sich auf F@H bezieht und nicht evtl auf der ganzen Universität. Ich google jetzt aus Prinzip nicht danach sondern verlasse mich jetzt drauf das du uns die Quellen angibst.

Zu der Sache mit Ebola muss ich dir aber zu stimmen. Hat uns alle kaum interessiert da es nicht bei uns war. Doppelmoral lässt grüßen.
 
Ich kann bestätigen, das Rosetta@Home über den BOINC Client SARS-COV2 WUs verteilt.

1584607860064.png


Genauso Folding@Home

1584612396024.png
 
Zuletzt bearbeitet:
Für einen Überblick:
https://pande.stanford.edu/people/
https://exhibits.stanford.edu/data/browse/folding-home
Die Eigenaussage von F@H:
Folding@home is run by an academic institution (specifically the Pande Group, at Stanford University’s Chemistry Department),
Das Institut hat natürlich selbst nichts direkt mit den Hedge Fonds Investitionen zu tun, es gibt ja auch keinen Grund dazu. Die Uni als Ganzes (inklusive allen Instituten und den 2 Kliniken) wird von der entsprechenden Stiftung betrieben, die ein Vermögen von aktuell 30Mrd$ besitzt. Die finanzielle Verwaltung obliegt einer eigenen Abteilung namens Stanford financial management. Und diese ist es auch, die recht frei
und auch im Hedge-Fond-Stil investiert. Dass die Uni sowohl von der Popularität als auch der Spendenbereitschaft
für ihre einzelnen Institute profitiert, ist hoffentlich klar.
das dieser Hedgefonds sich auf F@H bezieht und nicht evtl auf der ganzen Universität.
Das habe ich so nicht gesagt. Pandelabs wird vermutlich als Institut mit einem jährlichem Budget, dessen Höhe
sicher auch von deren Bedeutung für die Uni abhängt - aber F@H an sich ist (bisher) sowohl aus wissenschaftlicher als auch an wirschaftlicher Bedeutung nur ein kleiner Fisch unter den ganzen anderen Uni-eigenen Instituten.
Meine Aussage ist dahingehend zu verstehen, dass bei aller wissenschaftlicher Zielsetzung gerade diese Uni sehr bekannt dafür ist, dass ihre Studenten sehr schnell unternehmerisch aktiv werden und dass das durchaus "der Plan" ist:
https://news.stanford.edu/news/2012/october/innovation-economic-impact-102412.html
Das gilt natürlich auch für medizinische Erkenntnisse, auch wenn die Forschungsergebnisse von F@H mindestens
in Teilen öffentlich publiziert werden (hier drückt sich F@H nicht ganz eindeutig aus, bitte selbst nachlesen).
Das Ganze muss man leider (unabhängig von F@H!) auch vor dem Hintergrund betrachten, dass Medikamente
ein lukratives Geschäft sind und nicht von Instituten entwickelt oder hergestellt werden im Normalfall.
 
  • Gefällt mir
Reaktionen: karl_laschnikow
daivdon schrieb:
Das Ganze muss man leider (unabhängig von F@H!) auch vor dem Hintergrund betrachten, dass Medikamente ein lukratives Geschäft sind und nicht von Instituten entwickelt oder hergestellt werden im Normalfall.
Schon richtig, aber in der aktuellen Situation würden die gesamtgesellschaftlichen Verluste die möglichen Gewinne eines Pharmaunternehmens um mehrere Größenordnungen übersteigen, wenn Corona nicht gestoppt wird.

Als Regierung (oder alle Regierungen der Industrienationen zusammen) würde ich sogar soweit gehen, demjenigen Unternehmen 100 Milliarden Euro zu garantieren, das als ersten ein nachweisbar wirksames Medikament oder einen nachweisbar wirksamen Impfstoff gegeg Covid-19 entwickelt.

Gruß,
CTN
 
Ned Flanders schrieb:
Ich kann bestätigen, das Rosetta@Home über den BOINC Client SARS-COV2 WUs verteilt.

Anhang anzeigen 889704

Genauso Folding@Home

Anhang anzeigen 889725
Kann ich ebenfalls bestätigen, hatte auch schon mehrere COVID-19 WU's abgerechnet.

@SV3N : Wäre vielleicht nicht verkehrt die News mit einem Update zu versehen oder eine eigene News/Notiz für Rosetta@Home zu erstellen?

Für Rosetta@Home kann man mit BOINC auf der CPU ebenfalls der COVID-19 Forschung helfen.

Eine Anleitung wie man mitrechnen kann, wurde auf der Twitter Projektseite gepostet ;-)

Quellen dafür wären:
twitter Account von Rosetta@Home der zum mit crunshen aufruft.
IPD WU Artikel mit Infos was bisher an Erkenntnissen gewonnen wurden -von Februar!-.
Übersetzter ipd Artikel bei SETI.Germany

Rechnet nicht das CB-Team eh auch schon bei Rosetta@Home mit?
 
Welches ist denn das richtige CB Team bei Boinc ? Gibt ja zwei, beide nicht sonderlich aktiv...
 
Turrican101 schrieb:
Auch die Webansicht spinnt rum und lädt sich alle 2s neu, unten steht auch immer "warten auf 127.0.0.1". Ist da irgendwas mit der 127.0.0.1 falsch eingestellt? In der Hostsdatei bei mir steht jedenfalls nix drin und ne Firewall hab ich nicht, außer dem was bei Win10 dabei ist.

Das Problem habe ich auch gerade. Einmal hat er durchgerechnet, dann kam dieser Fehler. Was ist falsch?

Update:

Sorry. Hab den Browser gewechselt. Hatte erst Chrome. Mit Edge geht es jetzt.
 
Zuletzt bearbeitet:
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben