News Nvidia bringt „Tesla Personal Supercomputer“

bei bild #9:

seit wann unterstützt die GTX 2xx reihe den quad SLI?

vlt. passiert es noch dass die GPU die CPU ersetzt:D

also die massive verringerung der rechenzeit ist schon heftig, daumen hoch dafür, leider sind tesla rechner unbezahlbar für uns, aber wer betreibt schon sowas wie 3D sound... also als normal user
 
Also erstens sind das Tesla-GPUs mit vor allem anderen Treibern und außerdem gehts hier ja nicht um SLI sondern um GPU-Computing.
 
hab letztens erst seine tesla in der hand gehalten. ist schon ein mächtiges teil
 
Turbo007 schrieb:
vlt. passiert es noch dass die GPU die CPU ersetzt:D

Dazu müsste man sich erstmal von x86 lösen...
Und gut so das sich das keiner hier leisten kann, da es kein Schwein braucht. Jedenfalls keine Privatperson.
 
Ein genialer Schachzug wenn ihr mich fragt. Könnte sogar sein, dass mit entsprechendem Feedback nVidia in ganz neue Dimensionen vorstoßen könnte. Finanziell wie auch technologisch.
Mich wundert nur, dass wir erst jetzt von dem Projekt hören, wo doch schon so ein Breiter Support an namhaften Firmen da ist. Vielleicht verfolge ich aber auch nur die falschen News-Seiten :evillol:

Edit: Warum is auf dem Werbebild ein Rack-Server und auf allen anderen ein langweilig aussehendes Tower-Gehäuse zu sehen? Was denn nun?
 
Zuletzt bearbeitet:
Ahjo, wenn das ma mit Mastercam funktionieren würd. Das rechnet sich mit nem aktuellem PC oft den Arsch ab.... :rolleyes:
 
Für private 3D Designer herrlich, für ~10.000 Euro nen Supercomputer in der Firma haben, ein Traum!
 
Hm, ich dachte des Teil soll bezahlbar sein?! 10.000$?! Nee Scherz. Also wenn man mal so verfolgt, wie viel Firmen für so ein großer Supercomputer bezahlen und warscheinlich nicht mal annähernd die Leistung haben haben, dann würde ich mal behaupten, dass das Teil doch recht günstig ist. Und so vom Materialverbrauch und den Stromkosten sollte er bei weitem wirtschaftlicher sein als so ein ganzes Zimmer voller Schränke...
Also für Privatpersonen wohl nutzlos, aber für Leute die Programme haben die davon profitiern können und diese auch regelmäßig nutzen, wird sich so eine Anschaffung schon lohnen.
Da hat sich nVidia ja auch noch ein drittes Standbein dazugeholt in Sachen Gewinn. Sind dann eigentlich schon die neueren 55nm GT200 Chips verbaut?
 
mh ich denk da wird amd nachziehn... die HD48xx karten wurden ja schon als "supercomputer" vermarktet
 
Das Thema dürfte noch interesannt werden was sich in Zukunft alles parallelisieren lässt und somit möglicherweise auch auf der GPU über Ati Stream oder Cuda berechnen lässt. Dann lohnt sich eine gute Grafikkarte ohne die nur fürs reine Daddeln brauchen zu müssen.
 
lol hoffentlich gibts auch nen supercomputer von amd, zb mit 16 RV780 (d.h. 8x HD4870X2):D

aber sollten AMD & nVidia nicht zusammenarbeiten gegen intel ? ist doch mühsam wenn ati stream ne andere programmiersprache hat als CUDA:rolleyes:
 
Naja ATI hat da doch diese Stream-Geschichte am Laufen
Und hat nicht einer mal nen CUDA-Treiber für die HD38xx gemacht?

Wie man sieht, kann sich heute jeder nen eigenen Supercomputer bauen... wenn man denn einen brauchen würde... wenn z.B. jemand Kernforschung zuhause betreibt :D
 
Lexxus080 schrieb:
Wie man sieht, kann sich heute jeder nen eigenen Supercomputer bauen... wenn man denn einen brauchen würde... wenn z.B. jemand Kernforschung zuhause betreibt :D

so können die iraner ihre atombombe schneller berechnen;) das gesparte geld wird in Uranium239 investiert:D
 
Bald gibt es Direct 3D 11 und damit eine direkte Schnittstelle und ein einheitlicher Standard, der CUDA und Stream ersetzen wird! Das wird es richtig rumpeln und jeder hat einen Supercomputer zu Hause! ;-)
 
@Keineahnung1234

Genau das habe ich auch gedacht, wegen 4 GFLOPS würde niemand so ein Theater machen, alleine die HD4870X2 hat ja schon (theoretische) 2 TeraFLOPS..
 
Zurück
Oben