News Supercomputer laufen zu 97 Prozent mit Linux

Einsatz von Linux-Servern steigt deutlich schneller als bei Microsoft-Windows
https://www.etes.de/blog/wachstum-bei-linux-servern/

wird wohl auch so seine Gründe haben ,
Windows 8 für Server so was würde ich mir auch nicht freiwillig antun.

was die meisten nicht mitbekommen auf den meisten Multimedia Geräten wie Neue LED TVs läuft
eine auf Linux Quell cod basierende FW , es ist für Hersteller einfacher notwendige Anpassungen an die HW
vorzunehmen statt sich mit Microsoft und dessen Lizenz Kram rum plagen zu müssen .
 
Zuletzt bearbeitet:
Ja da muss doch dann mal eine Zerschlagung stattfinden, bei der Monopolstellung *duck und weg*....
 
Verstehe die Meldung ehrlich gesagt auch nicht wirklich. War und ist doch völlig klar.
Ich kann mich nicht erinnern, dass es in der Mehrheit kein UNIX-Derivat oder unixoides OS war.
Und nein: Windows kommt für einen Supercomputer nicht in Frage, weil man für ein vollständig optimiertes dediziertes System Zugang zum OS-Quellcode braucht. Davon abgesehen müsste man eine jahrzehntelange Infrastruktur innerhalb der Forschung über den Haufen werden und würde dafür ein schlechteres OS bekommen. Sinnlos.
 
manchmal wäre ich echt glücklich über den "Like-Button". Schade, dass CB diesen nicht sehr "lange" behalten hat.

Wer einmal in den Genuss eines Supercomputers gekommen ist, der wird Worte wie "Stagnieren, verzweifeln, kapitulieren, Energieverschwendung" eetc. gar nicht mehr in den Mund nehmen. Denn was aus solcher Rechenleistung an Mehrgewinn (in meinem Fall Berechnung von DNS-Entschlüsselung) erwirtschaftet wird rechtfertigt jederlei Power, Leistung etc. und das multipliziert mit 20 Jahren. Ich bin ja kein Einsteiger in solchen Sachen aber das hat mich schon pervers gut beeindruckt und somit rechtfertigt sich auch das Thema Linux.
 
Warum Windows fast nicht vertreten ist?
Das hatte c't mal vor kurzem beleuchtet...
Windows ist schlicht nicht in der Lage vernünftig mit mehr als 64 CPU Kernen umzugehen, es geht, aber eher schlecht als recht. (der Scheduler war wenn ich mich recht erinnere das Problem).
Linux skaliert entsprechend, daher die Wahl.

HIER ist Windows schlicht MÜLL und keine Konkurenz für Unix/Linux.

Ich wünsche mir für Windows so einfache Updates des Systems UND der Programme!
In Linux drei klicks (in X) oder "apt-get update" / "apt-get upgrade" bei Debia Derivaten (bzw. "yum update" bei CentOS/Fedora)
und das wars!
 
Laggy.NET schrieb:
Microsoft macht ein proprietäres System für Desktop PCs und bietet Serverseitig ein System, mit dem sich das ganze auch komfortabel verwalten lässt.
Linux ist ein quelloffener Kernel und selbst die fertigen Distributionen sind hochflexibel und im Grunde gar nicht für den Heimanwender gedacht (außer Ubuntu und co)
Ein Microsoft Windows hat somit genauso wenig etwas auf einem Supercomputer zu suchen wie ein hochspezielles Linux auf einem 0815 Heim PC.

Mir kommt es so vor, als würde man mal wieder zeigen wollen, wie toll Linux doch ist. In der Tat macht es das System aber auch nicht besser, nur weil es oft auf einem Supercomputer läuft. Letztendlich ist für dem Heimuser das Software Grundgerüst sowieso völlig uninteressant. Hier kommt es auf Usabillity, das Ökosystem, Konsistenz usw. an. Jedes OS hat nunmal seine Einsatzbereiche, in denen es gut ist... Dass ein Windows nicht so extrem anpassbar ist wie ein Linux macht es deswegen doch nicht schlechter. Wie gesagt, Einsatzbereiche, Prioritätensetzung usw. Die Diskussion ist einfach unsinnig.

Ich wundere mich auch, warum da überhaupt was mit Windows läuft... (scheint aber eh die Krücke in Shanghai zu sein). Die werden ja wohl auch hauptsächlich auf C(++) laufen oder gar Fortran/Assembler und nicht mit Python. Und auf der Rennstrecke findet man Rennwagen, auf der Straße eher Hausfrauenautos.
 
Die Stagnation im Leistungszuwachs könnt auch schlicht Folge der Finanzentwicklung sein des letzten Jahrzehnts und zb Kürzungen von Geldern aus öffentlicher Hand.
 
Microsoft macht ein proprietäres System für Desktop PCs und bietet Serverseitig ein System, mit dem sich das ganze auch komfortabel verwalten lässt.
Linux ist ein quelloffener Kernel und selbst die fertigen Distributionen sind hochflexibel und im Grunde gar nicht für den Heimanwender gedacht (außer Ubuntu und co)

Nicht ganz...

Ja, Linux ist hochflexibel, aber warum nicht für den Heimanwender gedacht ?

Ich fahre hier auf zwei PCs, drei Notebooks und mehreren Raspberry PIs Debian und bin froh, dass ich JEDES System identisch bedienen kann.
Viel Spaß mit MS, wenn man es denn überhaupt auf Exoten installiert bekomt :D

Ein Microsoft Windows hat somit genauso wenig etwas auf einem Supercomputer zu suchen wie ein hochspezielles Linux auf einem 0815 Heim PC.
1.: richtig
2.: (teilweise) falsch

Warum darf / soll ich mein Linux nicht spezialisieren dürfen ?
Warum ist ein "allgemeines" Linux besser als eines, was für den speziellen Anwendungszweck zugeschnitten worden ist, sich aber genauso bedienen lässt, wie die "allgemeine" Version ? (Debian und Derivate z.B.)

Mir kommt es so vor, als würde man mal wieder zeigen wollen, wie toll Linux doch ist. In der Tat macht es das System aber auch nicht besser, nur weil es oft auf einem Supercomputer läuft. Letztendlich ist für dem Heimuser das Software Grundgerüst sowieso völlig uninteressant. Hier kommt es auf Usabillity, das Ökosystem, Konsistenz usw. an.
Korrekt !

Und du willst mir sagen, dass ein Linux-System inkonsistenter ist als Windows ?
Code:
apt-get update && apt-get dist-upgrade
bzw.
Code:
yum update
vs. ... ?

Jedes OS hat nunmal seine Einsatzbereiche, in denen es gut ist... Dass ein Windows nicht so extrem anpassbar ist wie ein Linux macht es deswegen doch nicht schlechter.

Doch, denn Linux kann überall drauf laufen und für jeden Einsatzzweck, Windows nicht.
Und dass es es auch wird, wird sich hoffentlich bald mit der Steambox zeigen (denn Spiele sind noch das einzige, wo es ein paar (nicht selbst verschuldete) Defizite hat).

Wie gesagt, Einsatzbereiche, Prioritätensetzung usw. Die Diskussion ist einfach unsinnig.

Genau, die Diskussion ist unsinnig, denn ein Linux kann nahezu überall laufen und vieles / fast alles erledigen. Windows hingegen ist eine Gängelung und Bevormundung des mündigen Users und eine Einschränkung seiner Fähigkeiten / Freiheiten.

Just my 2 cents...

:D
 
Sorgen bereitet Analysten derzeit die Rate, mit der die Rechner aus der Liste pro Jahr an Geschwindigkeit zulegen. Lag diese zwischen 1994 und 2008 jeweils bei rund 90 Prozent, so liegt die Rate aktuell bei nur noch 55 Prozent.
Man könnte auch anstatt die Rechenrate zu erhöhen (und weinen wenns nur 55% sind), die Daten die berechnet werden ein klein wenig reduzieren. Sicher genug unnötiger Kram dabei.
 
Das interessante an der Geschichte ist m.M.n. der Zusammenhang zwischen Geschwindigkeit und der Möglichkeit mehrere Variabeln zu integrieren. Irgendwann besteht eine Simulation aus so vielen Variabeln und Zusammenhängen, dass vor lauter positiven und negativen Rückkopplungsprozessen nicht mehr eindeutig bestimmt werden kann welche Variable die Ursache für die beobachteten Ergebnisse sind. Was bringt das beste Modell, wenn die einzelnen Stellschrauben nicht mehr zurück verfolgbar sind?

So ist es bspw. gerade bei den aktuellen Klimamodellen. Je mehr Variabeln wir einführen, desto unsicherer werden die Interpretationen der Ergebnisse. Steigt nun etwa der CO2-Gehalt aufgrund der steigenden Temperatur, oder die Temperatur aufgrund des CO2 Gehaltes?

Irgendwann werden mehr Rechneleistung und mehr Variabeln/ bzw. komplexere Modelle die schneller gerechnet werden können uns an einen Punkt führen an dem die Erkenntnis sinkt. Letzten Endes müssen wir uns dann entscheiden und was bleibt ist eine gleichbleibende Komplexität des Modells jedoch schneller gerechnet ... Ist ja auch nicht schlecht. Wenn wir uns jetzt allerdings überlegen dass inzwischen Schaltkreise und Platinenelayouts mit Hilfe von Supercomputern ermittelt werden, frage ich mich wann wir an dem Punkt angelangen (oder sind), an dem Computer zu Inovationen führen, das Menschlein dass die Wunscheigenschaften in die Maschine eingibt jedoch nur noch ein rudeimentäre Wissen besitzt.
 
Ich liebe Linux, und ich liebe MS. Die ganze Diskussion war nahezu off topic weil einfach grundlegende Sachen ignoriert werden.

MS deckt mit seinen BS einen gigantischen Markt ab. Es läuft auf Milliarden von Rechnern und es wird verlangt, dass es ohne großen Aufwand mit ein und der selben Routine installierbar ist und funktioniert. Und das macht MS super. Die 100 User die über Bluescreens jammern weil sie etwas nicht dem Standard entsprechendes gekauft haben oder weil das Produkt so neu ist, dass es nich nicht sauber unterstützt wird kann ich verschmerzen.

MS hatte nie den Anspruch eine Hardware Plattform mit XXXX CPU oder GPU Kernen zu betreiben. Niemand hat das getan. Wenn es so währe (Wichtigkeit), dann wären schon längst Hardwarelösungen gefordert worden. Die Generation die heute zwischen 25 und 40 Jahren alt ist kann davon ein Lied singen.

Es war nie Anforderung, dass ein Computer Töne von sich gibt oder buntes Bild macht. Das kam erst mit der Zeit. Also musste man nacharbeiten. Heute wird das als selbstverständlich angesehen. Aber erst mal muss man so weit kommen.

Alles was piep und bunt machen soll deckt MS ab, mit einer DVD. Eigentlich eine grandiose Leistung. "Linux" kann das erst seit wenigen Jahren ähnlich gut, zumindes so, dass es auch Tante Emma hinbekommt.

Dass man dann für etwas sehr Spezielles was nicht piep und bunt sein muss, aber dafür XXXX Kerne für Anwendung XYZ können soll verwendet, ist völlig logisch.

Gruß an alle Fanboys. Ich bevorzug beide Varianten, denn jede ist für etwas gut.

So, und jetzt geh ich mit meinem SUV den Sportwagenrekord auf der Nordschleife brechen *würg*.
 
zEtTlAh schrieb:
So, und jetzt geh ich mit meinem SUV den Sportwagenrekord auf der Nordschleife brechen *würg*.

Wenn er so modullar wie Linux ist und sich zu einem Sportwagen umbauen lässt, warum nicht? ;)
 
erma schrieb:
Wenn wir uns jetzt allerdings überlegen dass inzwischen Schaltkreise und Platinenelayouts mit Hilfe von Supercomputern ermittelt werden, frage ich mich wann wir an dem Punkt angelangen (oder sind), an dem Computer zu Inovationen führen, das Menschlein dass die Wunscheigenschaften in die Maschine eingibt jedoch nur noch ein rudeimentäre Wissen besitzt.

Technologische Singularität, ja. :) Aber da die Supercomputer auch schon deutlich langsamer schneller werden, darf man an dem Konzept durchaus zweifeln.
 
erma schrieb:
So ist es bspw. gerade bei den aktuellen Klimamodellen. Je mehr Variabeln wir einführen, desto unsicherer werden die Interpretationen der Ergebnisse.

Da unterliegst du einem Trugschluss. Die Zeiten, in denen nacheinander alle Variablen einzeln variiert wurden um deren Effekt bestimmen zu können sind schon lange vorbei. Wenn es die denn je gab. Früher waren wohl die Modelle nicht so kompliziert, aber dafür die Rechenkapazität auch viel geringer.

Um den Einfluss einzelner Variablen bestimmen zu können, nutz man Statistische Methoden. Und diese sind heutzutage sehr mächtig. Frag mal Google und Co wie die deren ganzen Daten auswerten. Es gibt auch professionalisierte Firmen die mächtige Programme zur statistischen Datenauswertung anbieten.

Da ich keine Werbung machen möchte: Suche einfach mal nach "Big Data", "Data Mining" und "Statistik".
 
Yagharek schrieb:
Da unterliegst du einem Trugschluss. Die Zeiten, in denen nacheinander alle Variablen einzeln variiert wurden um deren Effekt bestimmen zu können sind schon lange vorbei. Wenn es die denn je gab. Früher waren wohl die Modelle nicht so kompliziert, aber dafür die Rechenkapazität auch viel geringer.

Um den Einfluss einzelner Variablen bestimmen zu können, nutz man Statistische Methoden. Und diese sind heutzutage sehr mächtig. Frag mal Google und Co wie die deren ganzen Daten auswerten. Es gibt auch professionalisierte Firmen die mächtige Programme zur statistischen Datenauswertung anbieten.

Da ich keine Werbung machen möchte: Suche einfach mal nach "Big Data", "Data Mining" und "Statistik".

Genau darauf will ich doch gerade hinaus. Nicht wir interpretieren die Ergebnisse, sondern Algorythmen. Wir bekommen nur noch die Ergebnisse geliefert. Im Moment verstehen wir (oder wenige) die Zusammenhänge noch. Hoffentlich tendieren die Verantworltichen dazu dies zu hinterfragen anstelle die Ergebnisse einfach zu akzeptieren.

Edit: Wann ist der Punkt erreicht an dem wir (Dank mehr Rechenleistung) in der Lage sind Algorythmen zu programmieren derren Rückkopplungen wir nicht mehr im Stande sind interpretieren zu können? Und wie wird damit umgegangen?

Das fängt m.M.n. doch schon bei "VENSIM" an, wenn man sich nicht mehr erklähren kann warum genau die Frösche und Kaulquappen im Teich sterben (Standardübung nummerische Simulationen)
 
Zuletzt bearbeitet:
erma schrieb:
Genau darauf will ich doch gerade hinaus. Nicht wir interpretieren die Ergebnisse, sondern Algorythmen.

Ich verstehe deine Argumentation nicht. Es geht nicht um das interpretieren von Ergebnissen, sondern um das Aufzeigen von Zusammenhängen. Und ob ich mir entweder einfach nur die Differenz der Ergebnisse zweier Variable anschaue oder die Ergebnisse aller Variablen in ein Wahrscheinlichtkeitsnetz lege um den mit der größten Abweichung zu bestimmen macht im Grunde keinen Unterschied. Beides sind Algorithmen die mir zeigen, welche Variable welchen Einfluss auf das Ergebniss hat.

Aber interpretieren können diese Algorithmen das Ergebniss nicht. Dafür ist der Mensch zuständig.

Nettes Beispiel:
»Diese Leute brachten uns historische Daten aus zehn Jahren und wollten wissen: Welche Gebrauchtwagen erweisen sich auf lange Sicht als besonders haltbar? Und es stellte sich heraus, dass nicht die Zahl der gefahrenen Kilometer den Ausschlag gab oder die Größe des Motors, sondern dass Autos mit ungewöhnlichen Farben sich als am haltbarsten erwiesen.« Über den Grund kann man bloß spekulieren.
Zeit.de

Die Aufgabe des Wissenschaftlers ist es zu ergründen, warum die Farbe des Autos das herausstechendes Merkmal bei der Langlebigkeit ist.

Genauso ist es bei deinem Beispiel zu C02 und Klima. Es werden mehrere Simulation mit einer Variation von vielen Variablen durchgeführt. Die Statistik sagt dir nun, dass das CO2 einen signifikanten Einfluss hat. Der Wissenschaftler muss dann verstehen, warum das so ist (Beispiel Treibhauseffekt).

erma schrieb:
Wann ist der Punkt erreicht an dem wir (Dank mehr Rechenleistung) in der Lage sind Algorythmen zu programmieren derren Rückkopplungen wir nicht mehr im Stande sind interpretieren zu können?

Programmieren hat nichts mit Rechenleistung zu tun. Was du ansprichst ist die leichteste Übung. Erstelle ein Modell mit Parametervariationen. Führe darauf eine automatisierte statistische Untersuchung durch und füttere mit desen Ergebnissen weitere Parametervariationen. Schon haste eine Rückkopplung bei der Auswertung. Verschachtel das genügend oft und du bist nicht mehr im Stande die Ergebnisse zu interpretieren.

Das Problem ist, dass du ganz klar darstellen musst, dass deine Auswertung die Voraussetzungen der statistischen Verfahren erfüllt. Du kannst die Sache beliebig komplex machen. Wenn du aber irgendwann nicht mehr andere von der Korrektheit deiner Arbeit mehr überzeugen kannst, ist deine Arbeit sinnlos. Das ist unabhängig von der Rechenpower und nichts neues. Auch normale Experimente kannst du so beliebig aufblähen und unübersichtlich machen. Die Kunst sauberen wissenschaftlichens Arbeitens besteht dadrin, deine Experimente und Simulationen so aufzubauen, dass andere diese nachmachen und verifizieren können.


Folgende Google-Suche liefert mir gar nichts zu deinem letztem Kommentar:
https://www.google.de/?gws_rd=ssl#q=VENSIM+frösche+Kaulquappen+
Was meinst du mit VENSIM, Fröschen und Kaulquappen?
 
Yagharek schrieb:
Programmieren hat nichts mit Rechenleistung zu tun
Damit hast du wohl recht. Hoffen wir mal dass bei der ganzen Arbeit, wissenschaftliche Standards eingehalten werden, so wie du sie beschrieben hast und nicht die Ergebnisse den Zweck heiligen.

Vensim ist ein Programm das gerne dazu verwendet wird, bei der Einführung in das Thema nummerische Simulation. Die erste Übung beschreibt dabei das Leben innerhalb eines Froschtümpels. Also was passiert bei einer variablem Anzahl von Fröschen, Kaulquappen und Räuber. Das Programm ist sehr rudimentär, zeigt aber ganz schön wie schnell so eine Simulation aus dem Rahmen laufen kann ...

Glaube sogar es ist Freeware ...
 
Zuletzt bearbeitet:
Zurück
Oben