Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Moderne Grafikkarten bieten eine bemerkenswerte Performance, die nicht nur bei Spielen gefragt ist. Dementsprechend ist es nicht verwunderlich, dass sowohl Nvidia als auch AMD Software-Entwicklungskits (SDK) bereitstellen, um die Shader-Prozessoren auch für wissenschaftliche Aufgaben zu nutzen.
Und das ist die Antwort, die ich schon lange predige, auf die ganzen Schlaumeier:
Für was braucht die oder die SCHWACHE Graka so viel Speicher.
z.B 8600GT mit 1GB oder andere.
Genau für SOWAS!
Und für sowas ist auch PCIE 2.0 und für PGPU.
Die Karte ist für Desktopsysteme.
Aber eben nicht für visualisierung, daher kein Monitorausgang.
Dafür ist ja PCIE2.0 da. Upstream=Downstream(von/zur CPU)
Hab mal aus Spaß die Rechenleistung einer GF8 GTX in CPU Speed umgerechnet, ist zwar totaler Quatsch, aber nur mal so theoretisch. Das wäre nach AMD Ratings ein 100.000+ geworden
CUDA wird auch in den neuen Physikberechnungen der Games angewendet, bin mal gespannt wie viel Power für die Physik übrig bleibt.
Und das ist die Antwort, die ich schon lange predige, auf die ganzen Schlaumeier:
Für was braucht die oder die SCHWACHE Graka so viel Speicher.
z.B 8600GT mit 1GB oder andere.
Genau für SOWAS!
Und für sowas ist auch PCIE 2.0 und für PGPU.
niemand benutzt eine handelsübliche 8600GT mit 1GB Speicher für solche berechnungen.
Allein deswegen weil es gar nicht funktioniert bzw. sie deutlich langsammer als eine Quadro wäre.
schade das diese Leistung in 64bit Operationen nicht so schnell bei den Gamerkarten kommt. Könnte man damit doch endlich realistisches HDR einigermaßen schnell berechnen.
ja, ich hab mir gestern die tesla auf der cebit angeschaut, der mann von nvidia/pny da konnte einem ja echt tolle sachen erzählen, vin steigerungsfaktoren um 127 war da die rede, echt spannend, neben bei hatten sie einen vregleich laufen mit 2 teslas gegen zwei 3GHz-QuadXeons...
woooow: 140FPS gegen 4FPS...
das ist echt genial und ne tesla kostet angeblich nur noch 800€.
dass AMD sowas auch hat wusste ich gar nicht.
So ein Prozessor (Graka) müsste doch ähnliche Eigenschaften aufweisen, wie ein Vektorprozessor, oder täusche ich mich da. Für spezielle Anwendungen wäre sowas doch nahezu optimal.
Kann man die parallel schalten? Mit zwei von denen hat man schon fast 1Tflop - und besonders viel fehlt da nicht mehr um Systeme wie BlueGene und ähnliche zu erreichen...
Karten mit nVidia-GPU werden mindestens siet der 5er-Generation zur Berechnung verwendet. Zumindest habe ich ein paar Abhandlungen darüber gelesen. Soweit ich mich erinnern kann ist nVidia auch vor Ati mit CUDA auf den Markt gekommen.
wenn irgentwer interesse hätte würde er mal schnell einen client für f@h basteln der auch auf nvidia karten läuft.
scheinbar ist aber keins da.
Liegt sicher auch daran, das man mit den grafikkarten so wenig Punkte bekommt.
Mit einer x1900 konnte man problemlos 3 mal soviel ausrechnen wie mit nem dualcore, hat aber afaik nur rund ~50% der Punkte des Dualcore bekommen.
Und da viele der Leute wo es wirklich lohnt(starker rechner) es nur machen um damit Punkte für irgentwelche Bestenlisten zu sammeln....
Schade !
edit : mal abgesehen davon will glaube ich niemand eine graka die unter Dauerlast steht, schon der lautstärke wegen.