News Was macht man mit 23 GeForce GTX 295?

Kasmopaya schrieb:
Stimmen die Stromkosten?? Hab ich mich verrechnet?

Die Stromkosten in den USA niedriger als hier. Eher um die 0.1$/kwH, macht also unterm Strich eher~8000$/Jahr.
Quelle: http://www.rechenkraft.net/phpBB/viewtopic.php?f=8&t=8364

Eine Zahl würd ich noch dazufügen: Die 17Grakas haben je 2x30 Multiprozessoren, also 1020 insgesamt. Die Kilocore-Grenze wäre also geknackt;)

(Jeder Multiprozessor hat wiederum 8 Sklalareinheiten, die aber je Takt nur den gleichen Befehl ausführen können... von dem her kann man die nicht direkt mit nem CPU-Core vergleichen).
 
@WilliTheSmith
Wahrscheinlich ist der letzte Rechner noch im Aufbau.
Soweit ich das verstanden habe werden die GTX260 und co. in anderen Rechnern eingesetzt außerhalb des Racks.

Die Grakas laufen alle mit 8 lanes und es reicht für Folding dicke aus.

Naja wer soviel Geld in solche Hardware investiert will was gutes tun und dem sind die Stromkosten ziemlich egal.
Außerdem verbrauchen die Karten sicherlich etwas weniger als bei aktuellen Spielen.
 
Außerdem verbrauchen die Karten sicherlich etwas weniger als bei aktuellen Spielen.
Glaub ich jetzt nicht, aber auf jeden Fall braucht Folding@Home weniger als die Furmark 100% Auslastungswerte die ich verwendet habe. Aber die ganze Rechnung seht ja für allgemeines GPGPU und nicht nur für Folding@Home, bei anderen Anwendungen kann die Auslastung schon mal Richtung 100% gehen.

Darum sollte ATI auch schleunigst ihre Grafikkarten mit 100% Auslastung in den Griff bekommen, sonst siehts mit GPGPU schlecht aus, bei der HD 4890 haben sie ja schon die Lüfter an die VRM Temps gekoppelt damit die nicht mehr abfackeln. Extrem laut das ganze, aber wenigstens passt es jetzt. :daumen:

MfG Kasmo
 
Naja bei Folding@Home liegen nvidia Karten zur Zeit etwa 30% vor ATI.
Das könnte sich aber mit erscheinen von OpenCL ändern.

Ja klar die Kerne werden belastet, aber es müssen keine Texturen etc. berechnet werden und ich denk schon, dass die Karten damit doch etwas weniger als zum Beispiel bei Crysis verbrauchen.
Ich sagte ja auch nicht, dass die soviel wie im 2D verbrauchen, aber dennoch weniger als bei Games. (auch wenn nicht viel weniger)
 
Was bringen diese Punkte, die man für ausgeführte Berechnungen erhält? Sind die einfach nur da, um zu zeigen, dass man schon so viel für dieses Projekt getan hat, damit man wenigstens einen kleinen "Vorteil" bzw. eine Art Belohnung dafür erhält oder haben die noch irgendeinen anderen Effekt?
 
Richtig. Die Punkte sind nicht mehr als eine clevere Methode um die Leute dazu anzupsornen soviel wie möglich zum Projekt beizutragen. Vor allem die Leaderboards bei den jeweiligen Teams sind ein richtiger Ansporn für die Community und sorgen dafür, dass die Teams versuchen, so viele Menschen wie möglich mit ins Boot zu holen um so dem eigenen Team einen Vorteil zu verschaffen. Irgendwelche Prämien ala Payback gibts da keine.
 
Aber sowas ist ja auch in Ordnung. Somit entsteht ein kleiner Konkurrenzkampf unter den Teams, und es liegt nunmal in der Natur des Menschen, dass man sich darüber freut, andere zu toppen oder zumindest in der Rangordnung aufzusteigen. Und je mehr Leute durch solche Punkte dazu verleitet werden, bei dem Projekt mitzuhelfen, desto besser, denn schließlich hat dieses Projekt ja einen bedeutenden und auch zukunftssicheren Sinn. Und letztendlich liegt es ohnehin immer noch beim einzelnen, ob er das Projekt unterstützt, oder nicht. Und wenn man an solchen Punkten bzw. an dem Projekt selbst keine Freude findet, würde man auch nicht daran teilnehmen. Die Punkte sind vielleicht der Anlass, aber letztendlich haben beide Seiten was davon.
 
Hab ja auch nichts anderes behauptet. Gehör ja selbst zu denen, die bei Folding um die Punkte kämpfen. Und nachdem hier in dem Thread der Link auftauchte, unterstütz ich damit natürlich auch das CB Team.
Top 100 wir kommen. ^^
 
Naja es wär bestimmt besser, wenn die Leute nicht um Punkte sondern um Erfolge in der Medizin kämpfen würden, aber ist auch ok so Leute kämpfen um Punkte und dabei wird im Endeffekt was dazu beigetragen.

Mit den Punkten kann man auch die ungefähre Anzahl der Berechnungen sehen.
 
Tolle Sache. Finde es klasse, dass er solch eine Monströse Leistung für die Forschung zur Verfügung stellt. Ich selbst habe 3 Rechner aus eBay Gebrauchtwaren zusammengebaut, welche 24/7 für Boinc rechnen (WorldCommunityGrid). Leider bin ich nicht aktuell. Dieses GPU-Crunshing-Thema würde mich auch sehr interessieren, da ich auch eine G80-Nvidia Grafikkarte habe. Für einen Test würde die sich sicherlich eignen. Ich glaube auch Folding@Home unterstützt diese noch.

Grüße
Roughneg
 
@chucky1954
Tut mir leid ich da habe ich dann überlesen.
Und wenn es um Forschung oder sowas ähnliches geht sind die 23x GTX 295 ganz in ordnung.
 
So hab mich jetzt auch dazu entschlossen, jetzt mal testweise dort mitzumachen. Mit der 8800 GTX trage ich zwar nicht all zu viel zum Erfolg bei, aber immerhin ein bisschen. Und das CB-Team freut sich sicherlich ^^
Dann hoffe ich mal, dass mein PC nicht überhitzt, das wäre nicht so lustig...

Brauche ich dafür eine gute Internetverbindung? Ich frage deshalb, weil ich einen Zyxel-Router habe, bei dem bei dauerhaften Datentransfer (und vor allem bei Downloads) andauernd WLAN ausgeht bzw. der Router abstürzt *gammel*
 
Zuletzt bearbeitet:
Hmm... je nach Veröffentlichungen von Hardware (DX11 Graka, endlich mal eine CPU, die wirklich besser ist als die "alten" C2Q, Win 7 (keine Hardware aber auch eines meiner Wartekriterien) werde ich in etwa einem Jahr wohl auch dem Team CB ein wenig unter die Arme greifen, denn ich nehme an, dass ich mit meinem jetzigen Pentium D 925 und der 8600GT nicht gerade viel reißen würde, gerade bei einem wesentlich potenteren System wäre es aber eine Schande, sowas mehr oder weniger stundenlang nur im Leerlauf bzw. unter 5% Belastung beim Surfen zu halten...
 
@AP Nova
Naja es kommt auf jede berechnete Einheit an ;)
Hatte damals auch mit meinem altem Athlon X2 5000+ und einer 7950GT bei Boinc mitgemacht.
Eine 8600 GT kann auch CUDA was schon Vorteile bringt. (schneller als einige Quad Cores bei Folding@Home)
 
Mit der 8800 GTX trage ich zwar nicht all zu viel zum Erfolg bei, aber immerhin ein bisschen.
Ein "bisschen" ist stark untertrieben, Nvidia Grafikkarten sind sowieso schnellere Falter. Eine ATI Grafikkarte wird dir so schnell nicht gefährlich. Um jede CPUs drehst du Kreise. Nur weil hier gleich 23x GTX 295 aufgefahren werden braucht ihr nicht glauben euer Beitrag sei weniger Wert. Die Masse machts. ;)
http://www.pcgameshardware.de/aid,6...age_id=937874&article_id=667155&page=1&show=n
* Why are the ATI x86 FLOP numbers half of the ATI native FLOP numbers?
Due to a difference in the implementation (in part due to hardware differences), the ATI code must do two force calculations where the x86, Cell, and NVIDIA hardware need only do one. This increases the overall native FLOP count for ATI hardware, but since these are not useful FLOPS in a sense, we did not include them in the x86 count.
* Why aren't the differences between native GPU and x86 FLOP counts even greater?
In the end, much of the code uses simpler operations (add, multiply, divide, etc) which counts as one FLOP under both systems. The instructions which are much more different (e.g. exp(x)) are more rare (say 1/10th the number of instructions) and thus the overall difference is closer to 2x.


Mit jedem Folding Punkt ist die Menschheit einen Schritt näher dran an der Erforschung irgend einer Krankheit. Es sind also keine 0815 Punkte nur zum Ansporn(wie zb. Tetris high Score).

Atlas Folder Hardware pro System:
AMD Phenom 9550, 2GB 1066, MSI K9A2 Platinum, Dual 750W PCP&C per shelf, cheapest HDD I can buy, only has OS on it. Rack is Middle Atlantic Products "Slim-5"

Er hat definitiv vom Fastra gespickt. Fürs Falten braucht man anscheinend auch für viele GPUs nur sehr wenig Ram 2GB ist ja gar nix! Um Kosten zu sparen nimmt er mehrere 750Watt Netzteile.

Er versucht auf jeden Fall Geld zu sparen wo er kann! Zur Zeit überlegt er ob er weiter aufrüsten, soll also weitere GTX 295 kaufen, oder auf GT300 warten soll. Meiner Schätzung nach hat der GT300 ca. 3-4GFlops und eine bei weitem bessere Watt/Performance darum wird er auch darauf warten... :rolleyes:

Atlas folder @ zum selberbauen::D
http://www.youtube.com/watch?v=mxtPksjcpQg&feature=channel_page

41TFlops Supercomputer remote control: :cool_alt:
http://www.youtube.com/watch?v=RXZj39YuxCs

I looked just now and the machine is doing 302,245 PPD. My daily average is a bit less than that. - Jason
:eek:

MfG Kasmo
 
Zuletzt bearbeitet:
Hehe ich schaffe vielleicht so 4 bis 5 Punkte am Tag... und der 302 *looooool*

Und ich warte zur Zeit auch auf den GT300. Mit meiner Karte bin ich nicht mehr zufrieden, weil einige Spiele (Crysis, GTA 4, gemoddetes Oblivion) die Karte doch ordentlich einheizen. Der GT300 deshalb, weil ich auf 40 nm umsteigen will, weil solche Karten - genau wie du schon gesagt hast - ein gutes Leistungs/Watt-Verhältnis haben. Allerdings wird die 5000er-Serie von ATI wohl auch nicht schlecht... Bin mal gespannt, wie bei beiden Serien die F@H-Leistung wird.
 
Meiner Schätzung nach hat der GT300 ca. 3-4GFlops und eine bei weitem bessere Watt/Performance

Ok, "RV870" (ich bin mal so frech den Nachfolger von RV770 so zu nennen, auch wenn es nicht sicher ist) und GT300 werden einen enormen Fortschritt darstellen, wohl vor allem durch die kleinere Struktur. In Watt/Leistung werden die wohl durch die Struktur viel besser, aber 3-4 GFlops wären das 4-fache einer heutigen GPU...

Es wird zwar hier gesagt, dass sie tatsächlich die 4-fache Leistung bei gleicher Die-Fläche haben können, aber wird das wirklich so sein? Ich denke nicht, dass NV und ATI einfach mal eben so eine 4 mal so schnelle Karte wie die HD4870/GTX285 veröffentlichen, außer für wohl um die 2000€, wobei das Ding dann wohl fast niemand kaufen würde. Ich glaube eher daran, dass die die Leistung bzw. Die-Größe mal etwas zurückschrauben, dadurch auch den Verbrauch senken, aber trotzdem ein gutes Stück Mehrleistung durchlassen...
Das ist einfacher besser, gerade jetzt achten immer mehr Leute auf den Verbrauch von so Geräten, also klingt "doppelte Leistung bei halbem Verbrauch" schonmal gut, mehr als doppelte Leistung würde man sowieso so schnell nicht brauchen. Dazu kommt, dass kleinere Dies weniger fehleranfällig sind und eine höhere Ausbeute pro Wafer haben und somit die Produktionskosten senken. GT200 war in der Hinsicht für NVidia anfangs wohl eine ziemliche Katastrophe...
 
Es wird zwar hier gesagt, dass sie tatsächlich die 4-fache Leistung bei gleicher Die-Fläche haben können, aber wird das wirklich so sein?
Wenn nicht alles schief geht was bei solchen extrem komplexen Gebilden(R600) immer sein kann ist das auf jeden Fall in Bereich des möglichen. GT 300 wird genauso einschlagen wie der G80. Erste komplett neue Architektur seit dem G80 und eins kann ich dir jetzt schon garantieren GT 300 wird massiv auf GPGPU optimiert sein. NVs neues lieblings Einsatzgebiet ihrer Grafikkarten. 4 mal höhre GPGPU Leistung -> watch it happen :D. 4 mal höhere Spieleleistung in Crysis -> schau ma mal. ;)

MfG Kasmo
 
Außerdem hat eine 4870 X2 bereits 2 TFLOPs Leistung und nicht nur einen TFLOP. Somit sind 3 TFLOPs für das kommende Topmodell mit 2 GPUs nicht unwahrscheinlich.
 
Zurück
Oben