News Nvidia will Exaflop-Supercomputer bis 2017

Der erste PetaFLOPS Rechner ausserhalb der USA hat übrigens 2560 HD4870X2 verbaut, zusätzlich zu 6144 Xeons. Klick
 
Scheiß Rechtschreibprüfung. >_>
 
Hört sich irgendwie nach dem TRANSLATR aus Dan Browns Diabolus an :)

@Complication
Jap das sehe ich derzeit ähnlich, vor allem was den Rückzug von Nvidia bei den Chipsätzen betrifft ..
Denn die Ansage hier ..
So will man zukünftig nicht nur fünfzig Prozent des Jahresumsatzes mit den Tegra-SoC erwirtschaften
dürfte wohl nur zu schaffen sein wenn man aus anderen Bereichen Personal abzieht.
 
@Papst_Benedikt

Der Roadrunner braucht mit seinen 122.400 Rechenkernen 2.345,5 KW, BlueGene/L mit 212.992 Kernen 2329,6 KW.
 
@Papst Benedikt: Die Werte anderer Rechner kann ich dir aus´m Kopf zwar nicht sagen, aber in der VDI von meinem Vater war letztens mal eine lustige Überlegung, die Abwärme von Supercomputern und Rechenzentren könnte ja zum Beheizen eines Hallenbades oder für Fernwärme benutzt werden. Außerdem werden "alte" Supercomputer i.d.R. nach wenigen Jahren alleine schon wegen des Stromverbrauchs abgeschaltet.

Edit: JUGENE hat auch 2,2 MW, ähnlich wie über mir geposted.
 
Zuletzt bearbeitet:
Papst_Benedikt schrieb:
Hab vergessen die Baukosten für die Kühlanlagen zu erwähnen. 10MW an Abwärme abzuführen wird schon ne schwere Aufgabe, auch wenns auf ner großen Fläche verteilt sein wird.

10MW Stromverbrauch sind nicht 10MW Abwärme. Damit läge die Effizienz bei 0%. Man nennt das dann Heizung oder? :evillol:

Roadrunner verbraucht laut www.green500.org etwa 2,5MW.
 
Dafür müssen die 2010 erst mal unbeschadet überstehen, was bei den momentanen Aussichten utopisch ist.
AMD, IBM und Intel sind echt starke Konkurrenz auf dem Markt. Vor allem AMD wegen ihren GPU und CPU Produkten. Sie spielen da in einer Liga. Intel und IBM sind da ein bisschen außen vor.

Da es AMD auch von den Zahlen her langsam besser zu gehen scheint wirds schwierig.
Also abwarten und Tee trinken.
 
hauptverdiesnste im grafik sektor sind bis jetzt immer noch die billigen grafik lösungen die in grossen mengen verkauft werden. nachdem die immer mehr durch chipsatz grafik und in nicht allzu ferner zukunft sowohl bei amd als auch bei intel in die cpu integriert werden muss sich nvidia ein neues standbein suchen. chipsätze werden warscheinlich auch immer mehr integriert werden bis auch der standard arbeits pc eine System on a Chip lösung ist (für die arbeit im büro sollte das eigentlich schon heute leicht ausreichend sein und gute performance bei video oder ähnlichen ist da ja eher störend).

mit high end grafikkarten wird man in zukunft warscheinlich auch weniger geld machen können da immer mehr gaming auf die konsolen wechselt, und am pc immer mehr leute mit den integrierten grafik lösungen zufrieden sind. Konsolen bringen aber den nachteil der sehr langfristige hardwareverträge, wenn man dann einen vertrag nicht bekommt dann wirds schwer in den nächsten jahren. Ausserdem sollten konsolen chips möglichst viel elistung für möglichst wenig kosten bringen was besonders am anfang geringe gewinnspannen pro chip bedeuten dürfte.

wenn nvidia genug grosse kunden für tegra finden kann dann wäre das ein guter weg aus der abhängigkeit der cpu hersteller. Nebenbei versuchen im high performance computing sektor in dem noch viel geld zu machen ist mitzumischen ist auch keine schlechte strategie. aber da nvidia in beiden sektoren noch eher ein kleiner anfänger ist wird sich erst zeigen ob das aufgeht.
 
Kartoffel200 schrieb:
Dafür müssen die 2010 erst mal unbeschadet überstehen, was bei den momentanen Aussichten utopisch ist.

Sagte der User mit dem ATI-Logo...

Unbeschadet werden sie allerdings nicht mal das Jahr 2009 überstehen. Sollte es Fermi aber auf den Massenmarkt schaffen und auch noch die Erwartungen erfüllen, dürfte das Jahr 2010 diesen Nachteil aus dem letzten Quartal 2009 wieder kompensieren.
 
The_1st_Knight schrieb:
10MW Stromverbrauch sind nicht 10MW Abwärme. Damit läge die Effizienz bei 0%. Man nennt das dann Heizung oder? :evillol:

Roadrunner verbraucht laut www.green500.org etwa 2,5MW.



Haha! Self owned. :P

Wo soll der Strom denn hin? Rechenleistung ist keine physikalische Größe.
Die elektrische Energie kann man in kinetische Energie, chemische Energie,
Strahlungsenergie oder potentielle Energie umwandeln. Werden Chemikalien
umgewandelt? Entstehen merklich starke Strahlungen? Bewegt sich das
Rechenzentrum einen Berg hinauf? Nein. Wird die Energie gespeichert? Nein.
Die elektrische Energie von Computern kann nur in thermische Energie
umgewandelt werden. Selbst das Bisschen Luft, das bewegt wird,
wird durch Luftreibung untereinander wieder in Wärme umgewandelt.
Also gehen 99,9% des Stromverbrauchs (Wobei nicht verbraucht sondern
umgewandelt wird.) wirklich in Wärme über. Tatsächlich gilt bezogen
auf die Fläche ein Silizium-Chip als effizienteste Heizung überhaupt. :D
 
Zuletzt bearbeitet:
Weltenspinner schrieb:
Wen interessiert es? Vielleicht hat bis 2017 schon
eine Atombombe gezündet und wir rechnen wieder
mit Rechenschiebern? Wer weiß das schon...

Wie, nur eine? ;)

Ist ja LANGWEILIG
 
10MW verbrauch. Da kann man bei Wasserkühlung ja eine 10.000 EW Stadt mit der Abwärme heizen.
 
Bei heutigem technischen Stand reicht eine für so einen popeligen Planeten,
wie die Erde, locker aus. ;)
 
Ja. Alles sehr beeindruckende Zahlen. Aber was sehe ich da? 2017? Oh... und schwupps hat es ein ganz großes Stück an "beeindruckend" verloren.

Kann sich jemand an das Jahr 2001 erinnern. Vor 8 Jahren sind gerade die Flugzeuge ins WTC geflogen, Windows XP wurde gerade auf den Markt gebracht und der schnellste Computer der Welt hatte maximal 10 TFlops. (5 R800-Chips ^^)

Zieht man dann noch Moores Law in betracht, welches ja schon eine ganze Weile sehr gut funktioniert, ist es eine dicke Marketingblase.
 
Endlich mal ein Rechner womit Crysis vernünftig in ultrahohen Details perfekt flüssig läuft. Wurde auch langsam mal Zeit...
 
Weltenspinner schrieb:
Tatsächlich gilt bezogen auf die Fläche ein Silizium-Chip als effizienteste Heizung überhaupt. :D

Verdammt! :-)

Dafür kann ich einen Rechenschieber von einer Schiebelehre unterscheiden. Wenn du allerdings mit letzterem auch Rechnen kannst, bekommst du von mir das Prädikat "skilled". :D

Danke für die kurze Lehrstunde.
 
Naja solche Visionen was in 8 Jahren sein könnte sind in einer solch schnelllebigen Branche recht nichtssagend. Vielleicht hat es bis dahin in irgend einem Bereich auch einen noch nicht abzusehenden Durchbruch gegeben der die Großrechnerarchitektur der Zukunft auf eine Art beeinflusst an die wir heute noch gar nicht denken...
 
Zurück
Oben