News Nvidia ist stärkste Kraft bei Folding@Home

@Agorath
Richtig, hier ist der Fehlerteufel drin.

Siehe hier ganz aktuell:
http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats

--------------------

Generell sieht man an der richtigen Statistik, dass nur weniger als 10 % von der theoretischen Rechenleistung genutzt werden. 0,1 TFLOPS pro GPU ist ja nicht besonders erfreulich. Nach dieser Statistik fällt aber die Zahl für die CPU noch viel viel schlechter aus.

Offensichtlich hat auch der Client für ATI eine bessere Ausnutzung (0,11 TFLOPS/GPU) der theoretischen Rechenleistung laut dieser Statistik. Allerdings verstehe ich dann garnicht warum eine G80 und größer das doppelte an Credits/PPD bekommt?

Wegen dem Stromverbrauch hab ich mir auch Gedanken gemacht, rechne aber letztendlich mit 2*G92 und zwar 24/7.
Das hol ich locker wieder rein mit einem ordentlichen Fahrstil und öfter mal mitm Fahrrad einkaufen. Jeder der was andres behauptet ist entweder zu dumm und/oder zu faul. Zum Rechnen und/oder zum Radfahren.

Letztendlich muss jeder für sich entscheiden wie er sein Geld investiert. Einen Vergleich mit dem Kauf von Eis finde ich etwas debil.

Der PC wird nur in den seltensten Fällen vom Folding beeinflusst mal abgesehen durch die 50 Watt mehr Stromverbrauch.
Beim Video schauen oder bei andren Grafikanwendungen. Zwischendurch muss ja auch der Desktop gezeichnet werden und daher wird die Rechenleistung per Kernelausführung mittels CUDA auf der GPU nur in ganz bestimmten beschränkten Zeitintervallen ablaufen.

Zum Spielen würde ich den Client pausieren.
 
Zuletzt bearbeitet von einem Moderator: (Doppelpost zusammengefügt. Bitte Ändern-Button benutzen.)
nimm bitte den linh aus deinem 1. Doppelpost raus , da hat sich auch der fehlerteufel eingeschlichen ;)


Es gibt eienn EDIT Button :)
 
^^ stimmt (F5 hilft auch mir ) -> nehm ich zurueck, du hast doppelt gepostet ;)

der link geht trotzdem nicht ;)
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Klare Sache, sie haben ja extra bei der GTX Serie auf GPGPU optimiert...
Eines ihrer Hauptziele ist zur Zeit die Maximierung der Rechenleistung unter CUDA, zb. bei PhysX, ganz anders ATI die haben bis auf weiteres Close to Metal einstellt...

Hoffentlich werden die in Vergleich zu GPUs extrem langsamen CPUs weiter an Bedeutung verlieren und dadurch einen neuen Quantensprung in der Computerleistung hervorrufen. (Larabee versucht auf lange Sicht auch nichts anderes)

Da ist garnix extra optimiert. Es ist eine Erweiterung der G80 in großem Stil wie es auf der Roadmap stand.
Ein Quantensprung war es von der G71 zur G80.
Hier wurde mit den Unified Shadern eine universelle Architektur für GPGPU-Aufgaben eingeführt. Von der G80/G92 zur GT200 wurden die Streamprozessoren/Unified Shader fast verdoppelt. Dazu kommen auch mehr Register pro SP.

Und bis Larabee erscheint ist ATI und Nvidia 3 Quantensprünge voraus.
Die Grafikprozessoren von Intel waren schon immer schwachbrüstig, wir werden sehen ob sich da was ändert. Der X3100 kann ja nicht mal Antialiasing, das ist doch eine Schande.

---------------------

kreadon schrieb:
^^ stimmt (F5 hilft auch mir )

der link geht trotzdem nicht ;)

Jetzt aber, irgendwie ist das Forum buggy.
Das automatische Setzen der "" hat den Link verstümmelt. [COLOR...lion rechnen für Folding@home. Alles Idioten?
 
Zuletzt bearbeitet von einem Moderator: (Mehrfachpost zusammengefügt. Bitte Ändern-Button benutzen.)
ein doppelpost bedeutet nicht zwingend das man zweimal das gekiche postet. Sondern auch wenn man was gepostet hat, unter seinem gerade geposteten Post ( :) ) gleich wieder postet ohne den edit button zu verwenden.
 
raptorxp schrieb:
Da ist garnix extra optimiert. Es ist eine Erweiterung der G80 in großem Stil wie es auf der Roadmap stand.

Natürlich ist die GTX Serie extra optimiert worden auf GPGPU, wie gesagt fast schon der wichtigste Sektor für NV aktuell. Kein Wunder bei den Gewinnmargen im Serversegment...
Die paar Millionen extra Transistoren sind vorhanden um GPGPU so schnell wie möglich zu machen.


So werden in Zukunft diverse „CUDA-Programme“ auf den Markt kommen und darüber hinaus wurde die GT200-GPU nach eigenen Angaben erstmals (unter anderem) dafür entwickelt, dass CUDA-Anwendungen optimal laufen – die G8x-Architektur war dagegen primär für 3D-Programme ausgelegt, obwohl CUDA auf den GPUs schon ausgeführt werden kann. (Wir vermuten -> mittlerweile Fakt...), dass Nvidia einen recht beachtlichen Teil der 1,4 Milliarden Transistoren in die Optimierung für CUDA gesteckt hat.

https://www.computerbase.de/artikel....825/seite-29#abschnitt_gpucomputing_und_cuda

Ein Quantensprung war es von der G71 zur G80.

Du hast mich falsch verstanden, nicht GPU v. GPU sondern GPU v. CPU. Natürlich kann die GPU noch nicht alles was eine CPU kann, aber genau da setzt ja Larabee(x86 Befehlssätze) an...

Jede neue aktuelle GPU ist ein Quantensprung der Leistung, verglichen mit der stärksten Intel oder AMD CPU die es gibt...


Und bis Larabee erscheint ist ATI und Nvidia 3 Quantensprünge voraus.
Die Grafikprozessoren von Intel waren schon immer schwachbrüstig, wir werden sehen ob sich da was ändert. Der X3100 kann ja nicht mal Antialiasing, das ist doch eine Schande.

Naja das gleiche nochmal, natürlich ist Larabee keine ernsthafte Konkurzen im Gamingbereich für ATI und NV(schon allein aufgrund der Treiber).

Bei GPGPU bzw. x86 kompatible GPUs bin ich mir da noch nicht so sicher. Werden es ATI und NV schaffen auch 100% x86 kompatibel zu sein, wenn es Intel mit dem Larabee ist? Und wer wird schneller sein, in diesem hoch lukrativen neuen Geschäftsfeld? Das wird bestimmt knapper werden als es die meisten erwarten.

MfG Kasmo
 
Zuletzt bearbeitet:
Mein Wunsch:

Blogsystem im CB Style unter fah.computerbase.de als offizielles CB F@H Team!
Moderatoren werden sich finden (melde mich mal spontan als erster Freiwilliger ;))

Lg
FSBKiller
 
Kasmopaya schrieb:
Natürlich ist die GTX Serie extra optimiert worden auf GPGPU, wie gesagt fast schon der wichtigste Sektor für NV aktuell. Kein Wunder bei den Gewinnmargen im Serversegment...
Die paar Millionen extra Transistoren sind vorhanden um GPGPU so schnell wie möglich zu machen.

MfG Kasmo

Optimiert ist das falsche Wort. Die G80 wurde dafür "Geschaffen" und die GT200 ist die nächste logische Ausbaustufe, nach der G92. Also eine oder mehrere Erweiterungen.
Die G80 war von Anfang als General Purpose Grafic Processor Unit vorgesehen. Schon aufgrund der Fordung von DX10 nach Unified Shadern, war dieser Schritt logisch.

Aber Quantensprünge sind für mich neue schnellere und stromsparendere Architekturen. Die GT200 Serie bedient sich zu sehr am Elektronenfluss, meiner Meinung nach.

Die GPGPU Entwicklung hat in den letzten 2 Jahren wirklich einen Quantensprung gemacht, was die Softwareentwicklung angeht. Das schließt auch CUDA ein, und besonders CUDA und deren Hardwareabstraktion auf Softwareebene.

Dennoch gibt und wird es immer Einschränkungen geben, also Probleme für die eine CPU besser skaliert. Bespielsweise bringt die Berechnung von FFT's auf der GPU nur Vorteile bei besonders großen und Inplace FFT's. Ansonsten ist es sinnlos und ist nicht schneller als auf der State-of-Art-CPU.

Ich befasse mich seit geraumer Zeit mit CUDA und baue bestehende Algorithmen für CUDA um.

Ich würde jetzt auch nicht jedem Artikel den Computerbase verfasst blind vertrauen, es gibt auch andere Lektüre, näher an der Entwicklung und an der Hardware. Ein Blick in die CUDA-Programming Guide und du bist schlauer als nach dem Artikel von Computerbase.

Dein Zitat klingt wie ein Marketingspruch zugunsten der GT200, die sich ja nicht so toll verkaufen.
Ein Zugeständis ist die Unterstützung von FP64, was mit der Compute Capability 1.3 kommt und daher GT200 Karten unterstützt wird. Das stellt die Chips auf Augenhöhe der neuen Cell Prozessoren. Allerdings übertrifft die theoretische Gleitkommarechenleistung alles bisher dagewesene, aufgrund der enormen Anzahl der ALU's, also der Streamprozessoren.

Die GT200 ist freilich ein Monster. Es kommen aber bessere und vor allem stromsparendere Monster.

Falls Larabee einen CISC-Befehlssatz unterschützt, wäre das natürlich genial. Schaumer mal.
Die theoretische Rechenleistung des Intel Grafikchip's soll ja auch nicht von schlechten Eltern sein.
 
Zuletzt bearbeitet:
Zurück
Oben