News Hazel Hen: Stuttgarter Supercomputer ist schnellster in Deutschland

Ich denke bei Servern ist es so,wie zuhause.Zuviel Leistung gibt es nicht.Es wird immer gewisse Anforderungen geben wo man die Leistung braucht.Wenn nicht heute dann vielleicht morgen.

Man kann ja auch Sachen berechnen wie die Umlaufbahnen von Sonnensystemen in relation zur Bewegung der Galaxien und wie unser Universum in 500000 Jahren aussieht.Da werden dann zb Parameter wie Kollisionen von Planeten und Galaxie und deren Ergebnis auch mitberechnet und dagegen ist eine Atombombe ja nur ein Knallfrosch...nur mal so als Beispiel.

Auf jeden Fall sollte man die Server aber ökologisch betreiben und auch deren Abwärme sinnvoll nutzen zb zum heizen.Aber da gibt es ja genug Firmen die in diese Richtung arbeiten.

Interessant wäre es auch mal zu wissen wie viel Leistung ein Netzwerk aus allen Home PCs bieten könnte oder ein Programm ins Leben zu rufen,dass die Leistung von so Superservern kombiniert mit Home PCs,Smartphones,Tablets,... so als eine Art Menschheitssupercomputer.
 
strex schrieb:
Sicherlich nicht, dafür sind wohl weit größere Cluster installiert und werden nicht in der Top500 geführt.
Sorry, aber du hast zu viele Filme geguckt.
strex schrieb:
Wie die ganzen Systeme der Banken, Finanzdienstleister und anderen Großunternehmen.
Die haben keine eigenen Supercomputer sondern kaufen sich einfach Zeit auf einen der zur Verfügung stehenden.
 
Tramizu schrieb:
Also was stimmt denn nun?

Beides natürlich. Steht doch in beiden Artikeln, dass der Aurora erst für 2018 geplant ist.

Edit: Sorry, Missverständnis. Die unterschiedlichen Angaben für den Tianhe-2 ... könnten aus unterschiedlichen Benchmarks stammen oder mindestens eine Angabe ist schlicht falsch. Ungenaue Angaben sind hier auf CB doch normal ...

Edit 2: Schau mal in den Artikel zum Tianhe-2. Da stehen beide Werte drin.
 
Zuletzt bearbeitet:
ApeHunter schrieb:
Beides natürlich. Steht doch in beiden Artikeln, dass der Aurora erst für 2018 geplant ist.
Setzen 6!
Vielleicht noch mal lesen. Um den Aurora geht es hier gar nicht.
 
Bin eine leie....aber für was braucht man solche Supercomputer ? Wo wird das eingesetzt und für was ?
 
Alienate.Me schrieb:
beeindruckend und beängstigend zugleich die rechenleistung der USA. 2018 ein system das mehr bietet als die USA bis jetzt insgesamt haben ... total krank :freak:

irgendwie muss das abgehörte material ja auch verwertet werden
 
Mit Supercomputer werden Wettermodelle, Astrologie ( Urknall, schwarze Löcher und Planetenmodelle) und Teile des menschlichen Gehirn (das Gehirn ist ja verdammt komplex selbst die gesamte Rechenleistung von allen Computer würde momentan nicht ausreichen, man weiß ja nicht mal wie es Arbeitet) simuliert.
Das erstaunliche ist doch die Computer werden immer kleiner. Letztens in ein 40 TB Serveranlage besichtigt 8 Server und 52 virtuelle Server hat alles schön in drei Schränke gepasst wobei die Magnetbandsicherung und die ganzen switches den meisten Platz verbraucht haben.
 
S.Kara schrieb:
Sorry, aber du hast zu viele Filme geguckt.

Du scheinst wohl eher nicht in dem Umfeld tätig zu sein.

S.Kara schrieb:
Die haben keine eigenen Supercomputer sondern kaufen sich einfach Zeit auf einen der zur Verfügung stehenden.

Das muss ich leider widerlegen. Ich war bei der Entwicklung von 5 Systemen als Data Center-Architekt für mehrere Großkonzerne dabei. Mieten tuen eben nicht alle, es ist nämlich günstiger es selbst zu betreiben, wenn ich gute Auslastung fahren kann. Das war in diesen Fällen gegeben und wurde so verwirklicht. Supercomputer im Mittelfeld der Top500 ist nicht teuer oder aufwendig. Ein paar Racks, guter Interconnect und passende Software. Kein Hexenwerk und gibt es bei IBM, Cray und co. von der Stange. Das haben viele Großunternehmen die Infiniband im Storage einsetzten bereits verfügbar. Sie brauchen nur noch die passende Software wie OpenMP und schon haben wir einen Supercomputer.

Öffentliches Beispiel gefällig:
JP Morgan is now able to run risk analysis and price its global credit portfolio in near real-time after implementing application-led, High Performance Computing (HPC) capabilities developed by Maxeler Technologies.

The investment bank worked with HPC solutions provider Maxeler Technologies to develop an application-led, HPC system based on Field-Programmable Gate Array (FPGA) technology that would allow it to run complex banking algorithms on its credit book faster.

JP Morgan uses mainly C++ for its pure analytical models and Python programming for the facilitation. For the new Maxeler system, it flattened the C++ code down to a Java code. The company also supports Excel and all different versions of Linux.

http://www.computerworlduk.com/news...fers-risk-analysis-in-near-real-time-3290494/
 
Zuletzt bearbeitet:
Scanzy schrieb:
Diese Aufgaben berechnet mein PC bei mir zuhause jeden Tag mit der BOINC Software;)
Deshalb sind sie mir auch eingefallen, hab früher auch bischen BOINC gerechnet. :p
 
Da fehlte das "v3", danke für den Hinweis! Es sind also Xeon E5-2680 v3 mit 12 Kernen (Haswell-EP)

Zu den verschiedenen Angaben bei den FLOPS: Wie schon angesprochen wurde, gibt es in der Top500-Liste zwei verschiedene Werte: einmal Rmax und einmal Rpeak. Im Normalfall wird der Rmax-Wert zum Vergleich herangezogen. Daran sollten wir uns auch besser halten.

Rmax - Maximal LINPACK performance achieved
Rpeak - Theoretical peak performance
 
Zuletzt bearbeitet:
Früher war ich auch so ein Spinner, mit der Intension, den schnellsten PC im Dorf haben zu wollen, hab ich sogar vom Pentium 200MMX upgradet auf den Pentium 233MMX.

Was für ein Schwachsinn :evillol:
 
@dzeri
Das dürfte noch eine Weile dauern aber lange dürfte es auch nicht gehen, weil der Verkehr sehr komplex ist, plötzliche Änderungen der Verkehrsituation ergeben sich recht häufig und muss neu eingeschätzt und gehandelt werden und noch ist die Programmierung noch nicht so weit das alles zu erfassen und zu verarbeiten, zumal wie bringt man einem Computer Erfahrung bei!


Ich frag mich generell wann endlich die Quantencomputer kommen, weil es wird schon seit geraumer Zeit berichtet das enorme Fortschritte gemacht wurden und es nur noch wenige Jahre dauert bis es auf den Markt kommen!
 
strex schrieb:
Du scheinst wohl eher nicht in dem Umfeld tätig zu sein.
Stimmt, und weil du als Data Center-Architekt tätig bist weißt du dass es bereits Anlagen gibt, die Tianhe-2 in den Schatten stellen?
Das wäre mit Sicherheit bekannt.

strex schrieb:
Mieten tuen eben nicht alle, es ist nämlich günstiger es selbst zu betreiben, wenn ich gute Auslastung fahren kann.
Logisch, die wenigsten Unternehmen werden aber dauerhaft einen Supercomputer auslasten können. Alle anderen werden sich die Leistung einfach mieten.

strex schrieb:
Sie brauchen nur noch die passende Software wie OpenMP und schon haben wir einen Supercomputer.
Ein paar Kerne + Software macht bei dir einen Supercomputer aus?
 
Scanzy schrieb:
Diese Aufgaben berechnet mein PC bei mir zuhause jeden Tag mit der BOINC Software;)

Yoa kannst du machen, wie gut und vorallem schnell das geht ist eine andere Sache. Wir machen das bei uns auch an relativ kleinen Systemen für Rezeptor/Liganden Modelling, aber selbst für einfache Anwendungen läuft das dann mal ne Woche.... Ganz zu schweigen von der Berechnung neuronaler Netzwerke etc.....

Wie schon gesagt wurde sind das aber eh nur die offiziellen Systeme, alles "wirklich" wichtige wird geheimgehalten. Allerdings ist der Nutzen in vielen Bereichen auch limitiert mMn, weshalb mehr kleine Systeme and verschiedenen Standpunkten oft besser sind.

Mfg
PaWel
 
Zurück
Oben