News Supercomputer laufen zu 97 Prozent mit Linux

Nicht unbedingt verwunderlich.

Welche Windows Versionen kommen denn für sowas überhaupt infrage? Gibt es das spezielle HPC Versionen, oder wird das einfach mit Windows Server gemacht?
 
"Supercomputer laufen zu 97 Prozent mit Linux" ist so sinnvoll wie "Die Sonne ist heiß" verstehe die Meldung nicht. Mit was solls denn sonst laufen?
 
Autokiller677 schrieb:
Welche Windows Versionen kommen denn für sowas überhaupt infrage? Gibt es das spezielle HPC Versionen, oder wird das einfach mit Windows Server gemacht?

Würde mich auch mal interessieren, hatte sich Microsoft nicht vom HPC Markt zurückgezogen?
Azure?
 
Das ist halt der Flexibilität und Skalierbarkeit von Linux geschuldet. Es gibt wohl kaum ein anderes OS welches man an jedwede Bedürfnisse anpassen kann.
 
Das sind speziell angepasst Versionen des Betriebssystem für die jeweilige Supercomputer-Architektur. Mit Ubuntu und Co. hat das nur noch sehr wenig zu tun.
 
Was für Distributionen werden verwendet? Oder sind das alles Home-Made Distributionen?
 
Es bereitet denen Sorgen, daß die Geschwindigkeit sich nicht mehr in dem Maße steigert?

Das ist wieder mal typisch. Der Mensch kriegt wieder mal seinen Hals nicht voll...
 
Wolfsrabe schrieb:
Es bereitet denen Sorgen, daß die Geschwindigkeit sich nicht mehr in dem Maße steigert?

Das ist wieder mal typisch. Der Mensch kriegt wieder mal seinen Hals nicht voll...

Was für Ziele hat der Mensch denn, wenn er anfängt zu kapitulieren? ;)
 
confuso schrieb:
Was für Distributionen werden verwendet? Oder sind das alles Home-Made Distributionen?

Was mir bekannt ist wird viel mit centOS und Scientific Linux gearbeitet. Teilweise auch kommerzielle Versionen wie z.B. RHEL oder SLES. Kleinere Systeme in Forschungsinstituten und Co. laufen auch schonmal mit OpenSUSE oder Debian.


MFG

Edit: Von gesonderten bzw. größeren Forschungseinrichtungen gibs dann auch eigene Distributionen, speziell für den Eigenbedarf.
 
Wer sich einmal die Lizenzbestimmungen von Windows Server angesehen hat kennt den Grund. Wer bei einer Software pro verbauten Kern abkassieren möchte, der sollte sich nicht wundern, dass seine Software in quasi keinem Supercomputer verbaut ist. :rolleyes:
 
cirrussc schrieb:
Was hat langsamer Wachsen denn mit Kapitulieren gemein?
Nach langsamen wachsen kommt stagnieren usw ;)

cirrussc schrieb:
Und wieso bedeutet, im Umkehrschluss, wucherartiges endlos-wachsen prinzipiell gewinnen?

Supercomputer (haben hier in der Firma selbst einen stehen, bin also evtl nicht ganz neutral ;) ) können dabei helfen Sachen zu verbessern.
Auszurechnen ob ein weiteres vertiefen der Elbe der Umwelt schadet, das Wetter berechnen um evtl. Warnungen an die Bevölkerung raus zu geben oder einfach um die DNA zu entschlüsseln.

Umso Fortschrittlicher die Supercomputer desto besser und detalierter kann man so etwas berechnen und umso Strom Sparender sind auch die Supercomputer.
Bei uns z.B. ist die Berechnung wahrscheinlich im Vergleich zur Berechnung in der Zukunft sehr Oberflächlich.
Vieles muss vereinfacht gesehen werden, weil die detallierten Berechnungen ewig brauchen würden.

Ich muss ehrlich gestehen, dass ich nicht weiß was an langsamen Super-Computern schlecht sein soll.
Klar kann man damit auch "Böses" berechnen, aber wenn es danach geht sollte der Staat veranlassen, dass alle jeweils in eine GummiZelle gesperrt werden, denn nur so kann man verhindern das Menschen mit Sachen böse Dinge anstellen ;)
 
Zuletzt bearbeitet:
Wolfsrabe schrieb:
Es bereitet denen Sorgen, daß die Geschwindigkeit sich nicht mehr in dem Maße steigert?

Das ist wieder mal typisch. Der Mensch kriegt wieder mal seinen Hals nicht voll...

Wieso ist ein schnelles Wachstum von Rechenleistung verwerflich? Gerade bei Supercomputern und dessen Anwendungsgebieten wie z.b Computersimulationen vom Klima/Wetter, Forschung, Verkehr oder sonst was kann man sicherlich nie genug Leistung haben. Ich begrüße (sinnvollen) technsichen Fortschritt.
 
Suxxess schrieb:
Wer sich einmal die Lizenzbestimmungen von Windows Server angesehen hat kennt den Grund. Wer bei einer Software pro verbauten Kern abkassieren möchte, der sollte sich nicht wundern, dass seine Software in quasi keinem Supercomputer verbaut ist. :rolleyes:

ich glaub die Performance von Windows Server ist da eher ausschlaggebend, die meisten Supercomputer werden sowieso subventioniert oder gehören einer Regierung und da sind Finanzierungen eher das kleinere Problem.
 
Die Ursache könnte auch schlichtweg darin liegen, dass die Programme die auf solchen Systemen ausgeführt werden eher aus dem wissenschaftlichen oder Hochschul-Umfeld stammen. Und in diesm Entwicklungs-Umfeld wird zumeist Linux verwendet.
Des weiteren kann man auch mal über Lizenzkosten bei derart großen Clustern nachdenken, das wird sicher auch eine Rolle spielen.
 
Suxxess schrieb:
Wer sich einmal die Lizenzbestimmungen von Windows Server angesehen hat kennt den Grund. Wer bei einer Software pro verbauten Kern abkassieren möchte, der sollte sich nicht wundern, dass seine Software in quasi keinem Supercomputer verbaut ist. :rolleyes:

Frage: Warum heißt Microsoft Microsoft? Sie bedienen mit ihrer Software ehe den Markt der Microcomputer, daher ist das doch kaum verwunderlich.
 
@Hito: Nö, die Performance ist nicht das Problem. Eher der Anwendungsfall. Es gibt kaum einen der zwingend Windows erfordert. Um beispielsweise Wetterdaten zu crunchen braucht man die Dinge die Windows bietet einfach nicht. Für fast alles andere auch nicht. Windows als Server ist eher gut als Backend für normale Geschäftsanwendungen geeignet. Die Dienste die es (fast ohne Kofigurationsaufwand) bietet sind dort eher gefragt als bei Numbercrunchern.

Die Serverumgebungen wo Windows Sinn macht kann man schwerlich mit "Supercomputing" beschreiben. Mich würde mal interessieren was die 2 Supercomputer mit Windows so den lieben langen Tag tun :D
 
Zurück
Oben