FightAIDS@Home

noch eine Frage, wieviel an Daten wird eigentlich übertragen, während man Boinc ausführt?
Hintergrund ist, ich habe einen Mobilen Internetzugang, welcher auf 5GB Monatlich begrenzt ist. Diese 5GB habe ich bereits jetzt, mitte des Monats überschritten.
 
Das hängt vom BOINC-Projekt ab, die Unterschiede sind riesig, gelinde gesagt. Starte ein Project und beobachte. Der BOINC-Manager zeigt es dir in Echtzeit an.

Oder nutze die externen Listen, im DSL-Router bzw. den online Service deines Providers, dort sollten tagesaktuelle Werte zu finden sein.

Es kann in so einem Falle sinnvoll sein, Workunits zu wählen, die eine längere Berechnung erfordern bzw. seltener neue Workunits beötigen. Blick daher auf die Meldezeit der Workunit (dead line) richten. Extremfall Climate Prediction, Große WUs, die über langen Zeitraum offline gerechnet werden können, ersparen die ständige Internetverbindung. Den Netzwerk-Zugang (egal welche Schnittstelle) kann man übrigens im BOINC-Manager gezielt einstellen. D.h. du kannst z.B. ein halbes Jahr crunchen, ohne ein einziges Mal Verbindung zum Projektserver aufnehmen zu müssen.

Für Notebooks interessant ist (bei entsprechend vorhandener Hardware) das Quake Catcher Network, benötigt fast Null CPU-Last, kann aber den in manchen Modellen eingebauten "Erschütterungssensor" nutzen, um die Erdbeben-Kartierung zu unterstützen. Dazu wird eine sagen wir fiktive Workunit geladen (mit der man BOINC-Punkte sammelt), aber in Grunde wird lediglich der Sensor abgefragt und entsprechende Ausschläge zurückgemeldet.

Ach, die Vielfalt an BOINC-Forschung ist schon aufregend. :cool_alt:
 
doesntmatter schrieb:
Für Notebooks interessant ist (bei entsprechend vorhandener Hardware) das Quake Catcher Network, benötigt fast Null CPU-Last, kann aber den in manchen Modellen eingebauten "Erschütterungssensor" nutzen, um die Erdbeben-Kartierung zu unterstützen. Dazu wird eine sagen wir fiktive Workunit geladen (mit der man BOINC-Punkte sammelt), aber in Grunde wird lediglich der Sensor abgefragt und entsprechende Ausschläge zurückgemeldet.

Wie rechnet man denn da die gigantischen Fehldaten raus, z.B. durch draußen vorbeifahrende Lastwagen, Baustellen, Wärmepumpen, die vielleicht im Keller laufen etc?

Und wie genau ist so ein Erschütterungssensor überhaupt?

Kann mir grad irgendwie nicht vorstellen, dass das auch nur annähernd präzise ist. Vielleicht kann man dann mit einer unglaublich schlechten Auflösung grobe Tendenzen einer Region bestimmen, wenn genügend Laptops in dem Sektor mitmachen, aber dann stellt sich natürlich die Frage, was das Projekt bringt, wenn es professionelle Seismographen sicher deutlich genauer detektieren können.
 
Wie ich gerade der "Rangliste" entnehme habe ich mich schon auf die vordersten Plätze gerechnet. Wie kann das sein? Rechnen von den 182 in der Liste eingetragen Personen nur 5-10 Mann oder warum ist das so?

Diese Frage habe ich zuletzt am 27.08.2009 gestellt und vielleicht hat sich ja zwischenzeitlich was geändert?
Gibt es endlich eine Möglichkeit die enorme Rechenkraft von ATI Karten für WCG zu nutzen?
 
welchen Namen hast du denn in der Liste?
 
(auf die Details zum QCN wollte ich gar nicht eingehen, noch diskutieren, weil hier off topic, aber falls es interessiert ...)

DrToxic schrieb:
Wie rechnet man denn da die gigantischen Fehldaten raus, z.B. durch draußen vorbeifahrende Lastwagen, Baustellen, Wärmepumpen, die vielleicht im Keller laufen etc?

Natürlich ist die Montage fehlerträchtig, sie würde m.W. von der Kalibrierungssoftware bzw. im Verbund der Sensoren fehlerbereinigt. D.h. im Vorfeld werden die von dir postulierten "Fehldaten" herausgefiltert. Kurz gesagt: ein einzelner Sensor reicht nicht aus, ein Erdbeben festzustellen, es ist der Verbund an Sensoren, der die Forscher interessiert. Am sinnvollsten ist eine feste Montage an einer Wand, noch besser Kellerwand.

DrToxic schrieb:
Und wie genau ist so ein Erschütterungssensor überhaupt?

Kenne nur die Version aus Deutschland, siehe Bezugsquelle, ursprünglich zweckentfremdet wird mittlerweile eine spezielle Version angeboten. Die nach wie vor per Software für eigene Zwecke programmierbar bzw. deren Daten auswertbar sind. Sehr detailierte, mehrseitige Dokumentation unter:
http://www.codemercs.com/index.php?id=58&L=0

DrToxic schrieb:
Kann mir grad irgendwie nicht vorstellen, dass das auch nur annähernd präzise ist. Vielleicht kann man dann mit einer unglaublich schlechten Auflösung grobe Tendenzen einer Region bestimmen, wenn genügend Laptops in dem Sektor mitmachen, aber dann stellt sich natürlich die Frage, was das Projekt bringt, wenn es professionelle Seismographen sicher deutlich genauer detektieren können.

Du kannst gerne recherchieren zu dem Thema, es gibt viele Artikel zu dem Thema. Ein Beispiel, das die praktische Anwendung beschreibt, Zitat unten ist der letzte Abschnitt:
http://www.livescience.com/8133-ordinary-laptops-act-earthquake-detectors.html

  • An affordable quake detector
    What the network lacks in sensitivity, it makes up for in price. Traditional seismic sensors cost $5,000 to $10,000 apiece. Laptop sensors are free, and desktop computers can be converted in less than 10 minutes with a $50 USB accelerometer.

    Thousands more computers will be necessary before the network could be used to alert outlying areas of incoming earthquakes, but Quake-Catcher already provides data that other methods can't, said Paul Davis, a UCLA geophysicist who is not involved with the project.

    "Traditional seismic stations are 10 to 20 kilometers [6 to 12 miles] apart," Davis said. "That makes it very difficult to look at fine details, both caused by the earthquake itself as well as by the ground shaking."

    Hundreds or thousands of laptop sensors spread throughout urban areas could help engineers design better earthquake-resistant buildings and give geophysicists more information on how earthquake waves travel through the ground, Davis said.

    Cochran hopes to bring 10,000 more volunteers onto the network in the next few years. Her team has already deployed 100 USB sensors in Chile to record aftershocks.

    "Any data we collect, we basically just add that to the data we have on any particular earthquake," she said. "Every station is really important."

Die Menge macht es also, wie bei jedem BOINC-Projekt, viele kleine, für sich "ineffektive" Teile schaffen zusammen eine respektable Leistung/Aussagekraft. Diese einfachen USB-Sensoren waren niemals gedacht, professionelle Gerätschaften zu ersetzen, wie auch ? :lol: Sie füllen eher Lücken, nutzen vorhandene Hardware/Sensoren, die speziellen USB-Sensoren kamen später, kosten in D in der Sammelbestellung um die 35 Euro, ich kenne BOINCer, die mehrere gleichzeitig einsetzen. Derzeit ist das Projekt in der Teilnahme weltweit relativ übersichtlich, siehe boincstats:
http://de.boincstats.com/stats/project_graph.php?pr=qcnalpha

Eine Kartenansicht über Europa, die Aktualität hinkt manchmal, aber für die Meldestellen eine gute Übersicht:
http://qcn.stanford.edu/sensor/maptrig.php?cx=50&cy=10&timeint=M
 
Ah, cool, human death, oder wieder beigetreten und du bist der schwarzer Schnee. :-) Ich bin dort noch lange nicht, noch nicht mal auf der ersten Seite... :-(
Mit was lässt du rechnen? Bei dir stehen 8 Device installations (black snow)...
 
Zuletzt bearbeitet:
noch eine Frage, wieviel an Daten wird eigentlich übertragen, während man Boinc ausführt?
Was ich so gesehen habe, dürften es ca. 1 MB pro 24 Stunden Laufzeit sein. Also fast nichts.
Mit welchem Tarif gehst Du online?


ich nix blacksnow, ich human death.
Den Namen hab ich mir in Anlehnung an das AIDS in FightAIDS@Home gegeben (als ich für das noch gerechnet habe).

Ich kenn mich zwar null aus, aber Device installations ist scheinbar ein Zähler. Der zählt alle Rechner auf denen man jemals für WCG gerechnet hat. Selbst verschiedene (alte) Programmversionen hat er bei mir extra gezählt.

Real rechnen bei nur 2 Dualcores für ein paar wenige Stunden am Tag, deshalb bin ich auch ein wenig verwundet, dass ich binnen so kurzer Zeit, so weit oben in der Liste liege. Scheinbar rechnen erheblich weniger als es die Liste einem glauben machen will. :( Mir geht es jedoch absolut nicht um Platzierungen, viel mehr möchte meinen Beitrag leisten für einen bessere Welt.

Die Frage ist mir zu wichtig, als dass ich sie untergehen lassen möchte:
Gibt es endlich eine Möglichkeit die enorme Rechenkraft von ATI Karten für WCG zu nutzen?
 
Noch 'n kleines Problemchen, habe meinen HTPC heut auch mal knechten lassen. Nur ist mir aufgefallen, dass dieser nach einer genwissen Zeit ...ca. ne Stunde die Arbeit ruhen lässt.
Was kann das sein? Faulheit?
Habe schon die Energieoptionen durgehsehen und auf Höchstleistung gestellt, keine Änderung, dann das Geräteprofil von Bionc im Netz auf Max gestellt...ohne Erfolg.
 
Och hab's nicht wirklich verstanden:
Die von IBM probieren die versch. Kombinationen oder mach ich das?
Und woher weiß dann das Prog ob es richtig ist?
Leistung wäre genug da, Zeit auch, also wenn mir jmd das Ganze ein wenig Präziser erklären
Könnte wär ich dabei!
Finde ich Nr gute Sache, tja Mama, von wegen ich Schieß am Pc nur Leute ab und töte :p
 
Z-Stern schrieb:
Die von IBM probieren die versch. Kombinationen oder mach ich das?

Die von IBM sind keine Wissenschafter, die Forschung für die
Berkeley_Open_Infrastructure_for_Network_Computing
-Anwendungen betreiben. IBM stellt nur die Plattform für ausgewähle Wissenschaftsprojekte, wie BOINC die Grundlage ist für alle möglichen Projekte. Die original Liste findet sich hier, eine kommentierte Liste des deutschen Vereins RKN hier.

Hintergrund zum Forschungsprozess von FightAIDS findet sich auf der Projektseite. Bei manchen Berechnungen kann man den Forschungsprozess im Bildschirmschoner direkt mitverfolgen, ist bei FightAIDS der Fall, siehe FAQ.

Z-Stern schrieb:
Und woher weiß dann das Prog ob es richtig ist?

Siehe Anhang zu möglichen Fehlerquellen in der Analyse "Result Status". Nur "Vaild" (Gültige Ergebnisse) hilft der Wissenschaft und erzeugt Punkte, Badges usw. Ein Rechner, der nur Fehlerergebnisse produziert, bremst den wissenschaftlichen Fortschritt, weil dann wertvolle Zeit für die Neuberechnung auf anderen Rechnern verloren geht. Das kommt meist auf stark übertakteten oder häufig abstürzenden Systemen vor. Workunits mit Checkpoints verhindern die Neuberechnung von Null an, nach Neustart startet der BOINC-Manager die Workunit ab Speicherpunkt neu. Das spart viel Zeit und Nerven. :freaky:

Jedes BOINC-Projekt hat eigene Regeln,
- was untersucht wird
- wie die Rechenergebnisse validiert werden (i.d.R. mit 1-3 facher Redundanz), siehe Stichwort JobReplication
- wie lange weitergeforscht wird
- ob und in welchen Abständen Forschungsergebnisse veröffentlicht werden. (Übersicht z.B. hier, vorbildhaft z.B. Folding@home)

Deshalb unbedingt zwischen kommerziell und nicht kommerziell unterscheiden, FightAIDS gehört zu Worldcommunitygrid (WCG), das ist für alle Unterprojekte nicht kommerziell und sogar public domain:

WCG ist ein prima Einstieg in die Welt des Distributed Computing, dort finden sich m.E. mehr ernstmeinende Cruncher als die reinen Punktejäger, die nach hoher Kennzahlen-Anerkennung schielen. Die Teilnahme an Beta-Projekten muss explizit erklärt werden, da werden nicht aus Jux und Tollerei mal ein paar Hundert absturzanfällige Workunits durchgeschleust. O.k. das kam schon vor. :p

Das zeigt sich insb. im Forum, messbar an kritischen Fragen und detailierten, transparenten Antworten. Anderweitig im BOINC-Universum geht es nicht immer ehrenhaft zu, da stemmen 17-Jährige ein Projekt aus dem Boden, passen die Punkte-Wertung nach Gutdünken an und verprellen ihre aufgeschlossenen Fans ... Genug davon. Einfach an die Projekte aus anerkanntem "Hause" halten, z.B. angegliedert an Universitäten.

Es gibt ein Gütesiegel für Projekte, ermittelt durch folgende Kriterien:

  • Zuverlässigkeit: Stabilität des Clients, Servererreichbarkeit, Sicherheit, automatische Updates, WUs nach Betreiberangabe vorhanden
  • Informationspolitik: Projektbeschreibung, Antwort auf Emails, Support im Forum, Vorankündigung von Downtimes, schnelle Hinweise bei Fehlern
  • Anleitung: Verständlichkeit, Internationalität (allein hier schwächelte WCG in der Historie mit 3 von 5 Punkten)
  • Nutzen für die Allgemeinheit: Publikationen in der Fachpresse, Öffentliche Ergebnisdatenbanken

Steht da was von Punkten ? Siehste. :smokin:

Es spricht bei Einhaltung gewisser Empfehlungen (keine Beta-Projekte, nur rennomierte Betreiber, Befolgen der Installationshinweise) überhaupts nichts gegen BOINC-Betrieb auf dem privaten Computer. Macht man das maßvoll, geht es nicht ins Geld, tunt man ggf. den PC gemäß den Ansprüchen, merkt man nicht mal etwas von dem Forschungsbeitrag im Hintergrund. So war Distributed Computing von Anfang an konzipiert, so läuft es stabil.

Probleme haben meist die (angehenden, die Profis nicht) Hardcore-Cruncher, die übertakten und alles herausholen wollen. Wie beim Spiele-Tuning .... :evillol:
 
Gibt es mittlerweile schon irgendwelche Erfolge mit diesem Folding@Home ??... dieses Projekt läuft ja nun schon längere Jahre...

Ich bin da bisschen Skeptisch ob da der PC nicht für was anderes verwendet wird. Für was auch immer...

Hätte gerne mal ein paar Berichte über Ergebnisse oder Zwischenstände.
 
Hake doch bei deiner alten Frage noch einmal nach, jener Thread ist eigentlich zuständig.

Ein Beispiel aus der Alzheimer-Forschung, die Testphase auf dem Weg zur Veröffentlichung eines neuen Medikamentes läuft bereits !

"(...)
2007 We have made some significant progress experimentally testing our computational predictions using NMR.

2008 The first of the papers has come out (see paper #58 on our Results page: "Simulating oligomerization at experimental concentrations and long timescales: A Markov state model approach").

2009 We have had some exciting results regarding new possible drug leads for Alzheimer's. We hope to be submitting these soon for publication.

2010 We have been working closely with the Nanomedicine Center for Protein Folding on pushing our lead compounds forward. They have gone from the test tube to the first round of testing beyond that (onto tissue) and we're continuing to refine the compounds based on the results obtained so far. Also, FAH researcher Dr. Yu-Shan Lin has been awarded a BioX Postdoctoral Fellowship for her proposed work on Alzheimer's Disease simulation. "
 
Zuletzt bearbeitet:
Bin auch drinn, geile Sache. :) Und Rechenleistung hab ich genug. :)
 
Ich glaub ich stell meine alte Rödelmaschine mal zur Verfügung...da rechnet zwar n alter C2Q @ 3.6 Ghz + HD4890 Toxic @ 1GHZ 'drin, aber da das teil eigentlich nur vor sich hin idlet...^^.
Is eigentlich mein Minecraft/FTP/ect.-Server
 
Zuletzt bearbeitet:
Zurück
Oben