polaroid schrieb:
Und irgendwann wird ein kleiner Chip diese Leistung erreichen...
Also ich hatte erst vor 2 Wochen eine Vorlesung zu den Thema (Fach: Simulation mit Höchstleistungsrechnern). Unser Prof meinte, dass die Leistung des letzten auf der 500er Liste (was der aktuell langsamste Höchstleistungsrechner ist) in ca. 10 Jahren in einen normalen PC steckt. Also der Leistungsvorsprung vom 500ten auf der Liste beträgt in etwa immer so 10 Jahre.
Hier die Grafik dazu:
http://www.top500.org/lists/2010/06/performance_development
Also in 10 Jahren haben wir wohl im normalen PC so 25 Teraflops!
[F]L4SH schrieb:
...
Aber ansonten kann ich Rechenleistung nur begrüßen, solange damit nicht die Einäscherung von Städten mit Atomwaffen berechnet wird! So ein einzelner Supercomputer eröffnet unglaubliche Möglichkeiten für lokale Wissenschaftler. Es sollte viel mehr mietbare Petaflop Rechner geben. So kann auch der kleine wahnsinnige und unglaublich böse Wissenschaftler von um die Ecke auch mal seine Weltherrschaftsmaschine berechnen
Du hast leider Recht. Die Haupteinsatzgebiet vieler Supercomputer ist das Militär. Es wird vermutet, dass die Höchstleistungsrechner der USA von den National Laboratorys zu 90% für die Atomwaffensimulation eingesetzt werden, da man sehr schlecht echte Versuche machen kann.
Man muss sich nur mal die in den Top 10 platzierten in USA angesiedelten HLR anschauen:
1. Oak Ridge National Laboratory: Wiki:
Es hatte damals eine genau definierte Aufgabe (Site X), nämlich die Uran-Anreicherung zur Gewinnung von spaltbarem Uran 235 für das Manhattan Project (den Atombombenbau) im Zweiten Weltkrieg.
3. Los Alamos National Laboratory: Wiki:
Los Alamos ist in erster Linie ein Kernforschungszentrum, das dadurch bekannt wurde, dass hier das Atomwaffenprogramm der US-Regierung begonnen und die erste Atombombe während des Manhattan-Projekts entwickelt wurde. [...] Heute ist das Los Alamos National Laboratory eine Forschungseinrichtung, in der neben dem Stockpile Stewardship Programm zur Erhaltung der vorhandenen Nuklearwaffen auch Grundlagenforschung auf den Gebieten Physik, Chemie, Biologie und Mathematik betrieben wird.
8. Lawrence Livermore National Laboratory: Wiki:
Es wurde 1952 (als Lawrence Livermore Laboratory) errichtet, um im Rahmen des nationalen Verteidigungsprogramms an der Planung und Entwicklung von Kernwaffen mitzuwirken. Insbesondere während der Zeit des kalten Krieges trug das Zentrum wesentlich zur Sicherheit und Zuverlässigkeit der Waffen bei.
9. Argonne National Laboratory: Wiki:
Vor der Gründung war das metallurgische Labor (Met Lab) der University of Chicago am Manhattan-Projekt beteiligt, das die erste Atombombe baute. [...] Nationale Sicherheit: die Bedeutung hat in den letzten Jahren zugenommen um Gefahren des Terrorismus abzuwehren.
Selbst bei den Supercomputern von Frankreich wird spekuliert, dass diese damit Atomwaffen simulieren.
Hingegen sind die Höchstleistungsrechner in Jülich ausschließlich zur Forschung da.
Einige Supercomputer (vor allem in den USA) wurden nunmal zur Atomwaffensimulation angeschafft und machen dies wohl immernoch zum größeren Teil.
Ich hoffe aber mal, dass dies immer weniger wird und dafür sinnvolle Sachen simuliert werden.