@31-33
Wenn es , um megaparalelle Rechnungen in der/den GPU(s) geht, hat dies sehr wohl einen Sinn.
Man stelle sich mal vor, oh weih, es könnte Anwendungen/-er geben die auf FPS in gewisser Weise pfeifen (und auf eine andere Weise jedoch nicht, denn Zeit = Geld, wie wir ja alle wissen) und z. B. nur ein oder ein paar Dutzend Standbilder berechnen wollen, diese jedoch mit Milliarden und Abermilliarden Polygonen. Diese Personen werden sich auch freuen, dass ihr Job nun in 1 statt 4 Tagen, später vielleicht in einem halben Tag ode rnoch weniger gelaufen ist. Klar könnten sie ja auf die Geforce 8 warten, dumm nur well es heißt: Ich brauche das Ergebnis schnellstmöglich, für das geringste Geld und habe den Auftrag am 20.09.2005 rausgegeben. Den Auftraggeber wird es nicht jucken dass erst in ein zwei Jahren jene quasi nun geforderte Leistung auf einer Graka möglich ist.
Oder wie sehen bei euch heute Supercomputer aus? RICHTIG, es sind weitestgehend verwandte der Cluster.
Oder wartet die amerikanische Atombehörde ab, bis man die Leistung welche heute 10000 Prozessoren bietet in einen gelötet kriegt?
Ein ähnliches Konzept verfolgt man mit den RENDERFARMEN. Viele der Pixar Filme sidn auf solchen entstanden. Man nahm hunderte oder tausende Workstations und ließ sie die Filme berechnen. Und seid dem es spezielle Grafikprozessoren gibt, denke ich kaum, dass man die Berechnungen der Bilder in der CPU macht.
Das Supercomputer heute eher mehr CPU als GPU Power brauchen liegt daran, dass die Berechnungen, die dort gemacht werden, grafisch eher "simplererer" Natur sind als jene Berechnungen die die CPUs z. B. auf dem Physiksektor machen müssen. Von daher auch die PhysX Idee, welche ja viele hier verschreien.
Bei Renderfarmen sieht es aber anders aus als bei Supercomputern: Anstatt durch den Prozessor berechnen zu lassen welche Kräfte welche Beule in die Karosserie deppern, "weiß" der Quellcode genau, wie die Beuel wo auszusehen hat. Da diese aber aus weiß der Geier welchen Gründen aus Millionen von Polygionen in einem Bild mit Milliarden von Polygionen besteht, bzw. man schnellstmöglich jedoch spätestens bis zu einem gewissen Stichtag Zehntausende von Bildern gerendert haben muss (Ein 90 minütiger Film hat ja nur 162000 Brauchbilder von denen jedes einzelne gerendert und dann animiert werden muss und der Verschnitt (heruasgelassen Szenen, Probeläufe...) noch nicht mit dabei) wird man sich schon über mehr Grafikpower freuen. Und so hat man vielleicht demnächst nur noch 250 Computer, dafür mit Quad-SLi am start, nicht mehr 1000 und ist genausoschnell fertig, hat jedoch an Hardware , Strom und Platz Geld gespart.
KEINER hat gesagt, dass dieses Quad Board umedingt für den Consumer gedacht ist.
Es ist mittlerweile Gang und gebe, dass das ehemalige professionelle Workstationsegment und das Prosumer/Consumer Segment mehr udn mehr zu einem werden. SLI, Multicore, MultiCPU, RAID, alles Sache die früher der Industrie entsprangen und nun uns helfen. Und wer weiß: 2006 freuen sich Renderer über 8 Grafikprozessoren auf einem Board wie dem obigen, 2010 wir.