News Hazel Hen: Stuttgarter Supercomputer ist schnellster in Deutschland

S.Kara schrieb:
Stimmt, und weil du als Data Center-Architekt tätig bist weißt du dass es bereits Anlagen gibt, die Tianhe-2 in den Schatten stellen? Das wäre mit Sicherheit bekannt.


Frag einfach bei einer Regierungsorganisation mit drei Buchstaben, die sind sicherlich größer als Tianhe-2 und ebenfalls nicht gelistet. Das ist kein Grund.

S.Kara schrieb:
Logisch, die wenigsten Unternehmen werden aber dauerhaft einen Supercomputer auslasten können. Alle anderen werden sich die Leistung einfach mieten.

Wie wir in dem Link sehen aber doch einige die sich dann selbst einen Bauen. Ein Supercomputer auf Basis von FPGA wie wir sehen, leistet einiges und dürfte zum Zeit des Aufbaus einige in der Top500 in den Schatten gestellt haben. Jedenfalls in seiner spezifischen Aufgabe.

S.Kara schrieb:
Ein paar Kerne + Software macht bei dir einen Supercomputer aus?

Nichts anderes ist ein Supercomputer. Du denkst doch etwa nicht das alle Kerne und Speicher in einem OS erscheinen. Ein Supercomputer ist auch nichts anderes als zig Servernodes im Rack mit einem schnellen Interconnect wie Infiniband und einer Softwarekomponente (etwa MPI+OpenMP) für die Aufteilung der Arbeit auf die einzelnen Nodes. Wenn du das schon nicht weißt, brauchen wir darüber nicht diskutieren.

Einfach mal informieren: http://www.training.prace-ri.eu/uploads/tx_pracetmo/ParallelArchitectures-Erbacci.pdf & http://www.systems.ethz.ch/sites/de...013_Courses/AdvCompNetw_Spring2013/13-hpc.pdf
 
Zuletzt bearbeitet:
S.Kara schrieb:
Stimmt, und weil du als Data Center-Architekt tätig bist weißt du dass es bereits Anlagen gibt, die Tianhe-2 in den Schatten stellen?
Das wäre mit Sicherheit bekannt.
Es ist bekannt das die USA derzeit sowas mit etwas Glück / Pech (auslegungssache) schon haben. Hört auf den Namen "Utah Data Center".

Siehe hier

Oder hier...

Oder eben hier...

Ansonsten einfach mal googeln! :)
 
Zitat von Heise: "Noch besser sieht es in der Disziplin der multifunktionalen Allzweckrechner aus, also solche ohne Rechenbeschleuniger oder Spezialprozessoren. Hier könnte er hinter dem chinesischen Tianhe-2 (Nummer 1 auch ohne Xeon Phis) und dem japanischen K-Computer mit dem Shaheen II aus Saudi Arabien um Platz drei ringen."
 
strex schrieb:
Frag einfach bei einer Regierungsorganisation mit drei Buchstaben, die sind sicherlich größer als Tianhe-2 und ebenfalls nicht gelistet.
Du meinst also die halten es geheim, aber wenn ich dort anrufe erzählen sie es mir? Liest du eigentlich was du hier schreibst?
Entweder kannst du es belegen dass solche Anlagen existieren, oder es ist einfach nur dummes Dahergerede.

strex schrieb:
Wie wir in dem Link sehen aber doch einige die sich dann selbst einen Bauen. Ein Supercomputer auf Basis von FPGA wie wir sehen, leistet einiges und dürfte zum Zeit des Aufbaus einige in der Top500 in den Schatten gestellt haben. Jedenfalls in seiner spezifischen Aufgabe.
Keine Ahnung was du mir damit sagen willst. In der Top500 Liste gibt es haufenweise die selbst gebaut wurden und nicht zur Vermietung stehen.

strex schrieb:
Das Teil hat 18 PFlops.
 
S.Kara schrieb:
Du meinst also die halten es geheim, aber wenn ich dort anrufe erzählen sie es mir? Liest du eigentlich was du hier schreibst?
Entweder kannst du es belegen dass solche Anlagen existieren, oder es ist einfach nur dummes Dahergerede.
Mit der Einstellung dürfte strex völlig richtig liegen.
Selbst kleine Mini-Organisationen wie die NOAA haben sich dieses Jahr mal so eben zwei Zwillings-Cluster im PetaFLOP-Bereich genönnt.

Ich will lieber gar nicht wissen, was alleine in der Nähe von Fort Meade so alles unterhalb der Erde schlummert. Aber zu glauben, dass die größten Geheimdienste und Militär-Organisationen der Welt nicht über nicht öffentlich bekannte Rechenkapazitäten verfügen, kann niemand ernsthaft vertreten. Dort sind Komponenten verbaut, die bei den größeren Ausrüstern bestenfalls unter "Sonstiges" oder im Zweifelfall überhaupt nicht in den Bilanzen auftauchen...
 
Simon schrieb:
Aber zu glauben, dass die größten Geheimdienste und Militär-Organisationen der Welt nicht über nicht öffentlich bekannte Rechenkapazitäten verfügen, kann niemand ernsthaft vertreten.
Meinst du nicht, dass wenn die NSA so einen Mega Supercomputer besitzen würde, es durch Snowden bekannt geworden wäre?
 
Corros1on schrieb:
@dzeri
Das dürfte noch eine Weile dauern aber lange dürfte es auch nicht gehen, weil der Verkehr sehr komplex ist, plötzliche Änderungen der Verkehrsituation ergeben sich recht häufig und muss neu eingeschätzt und gehandelt werden und noch ist die Programmierung noch nicht so weit das alles zu erfassen und zu verarbeiten, zumal wie bringt man einem Computer Erfahrung bei!

Häh, bist du gerade in einer Zeitmaschine aus den 90ern gekommen? Google ist doch kurz davor, sein selbstfahrendes Auto auf den Markt bringen zu können - die Prototypen sind schon hunderttausende von Kilometern auf amerikanischen Straßen unterwegs gewesen und haben bisher nie einen selbstverursachten Unfall gebaut. Auch hier in Deutschland gibt es immer wieder genehmigte (erfolgreiche) Testfahrten von autonomen Autos auf der Autobahn, und so gut wie jeder Autohersteller hat sowas in der Entwicklung. Die Teile funktionieren schon ziemlich gut, und zwar im echten Straßenverkehr!
Die größte Hürde sind eigentlich nur noch rechtliche Probleme!
 
S.Kara schrieb:
Meinst du nicht, dass wenn die NSA so einen Mega Supercomputer besitzen würde, es durch Snowden bekannt geworden wäre?
Haha, Snowden.

1. Weiß der Mann vielleicht viel, aber sicher nicht alles
2. hat er es vielleicht noch nicht für nötig gehalten, etwas darüber zu berichten.

Mal davon abgesehen: Es gibt nicht nur die NSA. Daneben gibt es mit CIA, FBI und NRO gleich noch drei weitere bekannte Geheimdienste im In- und Ausland bzw. direkt fürs Militär. Ganz zu schweigen von einer mindestens gleich mächtigen Organisation: Dem Heimatschutzministerium. Dort arbeiten mal eben auch fünfmal soviele Leute wie für die NSA...
 
Da kann man den USA nur gratulieren, alle Welt baut an immer größeren Supercomputern und bildet sich was darauf ein aber natürlich nur mit Intel Xeon CPUs - Made in USA!

Die Innovationsleistung der anderen Länder liegt doch praktisch bei Null, die stecken die nur zu immer größeren Clustern zusammen! :rolleyes:
 
@ S.Kara

Da du keinerlei Ahnung hast und nicht einmal Links lesen kannst ist eine Diskussion mit dir nicht möglich. Das ist nur noch eine reine Abwehrhaltung, um nicht dumm dazustehen. Wenn man nicht einmal weiß wie ein Supercomputer aufgebaut ist, dann brauchen wir auch nicht diskutieren.

S.Kara schrieb:
Du meinst also die halten es geheim, aber wenn ich dort anrufe erzählen sie es mir? Liest du eigentlich was du hier schreibst?
Entweder kannst du es belegen dass solche Anlagen existieren, oder es ist einfach nur dummes Dahergerede.

Wie ich schon mit dem JPMorgan Beispiel bewiesen habe gibt es Supercomputer bei Banken und co. die nicht in der Top500 Liste hinterlegt sind. Mehr braucht es nicht, denn das bestätigt meine Aussage das es Systeme gibt die nicht gelistet sind die nicht publik oder geheim sind. Etwa bei Banken und co. wie wir in diesem Beispiel sehen.


S.Kara schrieb:
Keine Ahnung was du mir damit sagen willst. In der Top500 Liste gibt es haufenweise die selbst gebaut wurden und nicht zur Vermietung stehen.

S.Kara schrieb:
Die haben keine eigenen Supercomputer sondern kaufen sich einfach Zeit auf einen der zur Verfügung stehenden.

Du hast gezweifelt das es Systeme bei Banken und co. gibt. Das habe ich mit einem Link vollständig widerlegt. Textverständnis ist nicht so die Stärke.


S.Kara schrieb:
Das Teil hat 18 PFlops.

Uhh, toll. Schau dir die Gebäude, Stromversorgung und Kühlaggregate an. Die sind in diesem Komplex weit größer ausgelegt als bei Platz 1. Was schließen wir also jetzt daraus? Swimmingpools und Sauna für alle?

S.Kara schrieb:
Meinst du nicht, dass wenn die NSA so einen Mega Supercomputer besitzen würde, es durch Snowden bekannt geworden wäre?

Sicher nicht. Es ist ja auch keine Agentenliste aufgetaucht. Somit auch nicht alle geheimen Information. Man muss aber nur das Material sichten, um zu sehen was für Rechenkapazitäten von Nöten sind für die Bearbeitung. Die leiten die zig Tbit/s einfach nur in /dev/null. Klar. Aber ja, das macht ein <18 PFlops Cluster locker, weil es kann gar kein größeren geben weil der nicht gelistet ist.

Schau dir nur den Hoster OVH an, ein DC rund 50.000 Server in Raubaix. Insgesamt mehr als 200.000 Stück. Du weißt gar nicht was für Rechenkapazitäten so in DCs schlummern.
 
Zuletzt bearbeitet:
strex schrieb:
Da du keinerlei Ahnung hast
Begründung?
strex schrieb:
nicht einmal Links lesen kannst
Deine Links interessieren mich herzlich wenig.
strex schrieb:
eine Diskussion mit dir nicht möglich.
Sagt derjenige, der einfach nur Behauptet und keine Fakten auf den Tisch legt?

strex schrieb:
Das ist nur noch eine reine Abwehrhaltung, um nicht dumm dazustehen.
Was für eine Abwehrhaltung? Belege deine Aussage und gut ist.

strex schrieb:
Wenn man nicht einmal weiß wie ein Supercomputer aufgebaut ist
Nochmal für dich: Nur weil ein System den Aufbau eines Supercomputers hat, gilt es noch lange nicht als ein solcher.

strex schrieb:
Wie ich schon mit dem JPMorgan Beispiel bewiesen habe gibt es Supercomputer bei Banken und co. die nicht in der Top500 Liste hinterlegt sind. Mehr braucht es nicht, denn das bestätigt meine Aussage das es Systeme gibt die nicht gelistet sind die nicht publik oder geheim sind. Etwa bei Banken und co. wie wir in diesem Beispiel sehen.
Das Beispiel ist für die Katz, da 1. es klar ist dass nicht jedes System gelistet ist und 2. es darum geht dass du behauptest, dass es Systeme gibt, die die jetzige #1 aus der Top500 locker in den Schatten stellt.
Und das hast du damit nicht bewiesen.

strex schrieb:
Du hast gezweifelt das es Systeme bei Banken und co. gibt. Das habe ich mit einem Link vollständig widerlegt. Textverständnis ist nicht so die Stärke.
Es ist wohl eher nicht so deine Stärke, denn:
S.Kara schrieb:
strex schrieb:
Mieten tuen eben nicht alle, es ist nämlich günstiger es selbst zu betreiben, wenn ich gute Auslastung fahren kann.
Logisch, die wenigsten Unternehmen werden aber dauerhaft einen Supercomputer auslasten können. Alle anderen werden sich die Leistung einfach mieten.

strex schrieb:
Was schließen wir also jetzt daraus?
Du anscheinend dass sie dort riesige geheime Rechenkapazitäten besitzen. Ist aber ok wenn du 12 bist und noch an den Weihnachtsmann glaubst.

strex schrieb:
Spricht der Experte. :rolleyes:

strex schrieb:
Es ist ja auch keine Agentenliste aufgetaucht.
Warum wohl? Hättest du die Meldungen verfolgt wüsstest du es.

Und bevor du jetzt noch mehr Müll schreibst: Entweder belegst du dass irgendjemand Anlagen nutzt die mehr Rechenleistung als Tianhe-2 besitzen, oder gibst Ruhe.
 
S.Kara schrieb:
Begründung?
Deine Links interessieren mich herzlich wenig.

Das sagt ja schon alles. Keine Ahnung von HPC, aber denken man wäre der König. Deshalb kann man auch nicht diskutieren, wenn man schon die Grundlagen verweigert.

S.Kara schrieb:
Begründung?
Nochmal für dich: Nur weil ein System den Aufbau eines Supercomputers hat, gilt es noch lange nicht als ein solcher.

Was dann, dass Supercomputer draufsteht. Schwachsinn. Supercomputer ist von der Leistung und Architektur abhängig. Der letzte hat lediglich 216 TFLOP/s Rpeak. Dafür reichen lediglich 72 Phi KNL. Das schafft jedes mittelständische Unternehmen und hat einen in der Top500 aufgeführten Supercomputer wenn er es denn will.

S.Kara schrieb:
Und bevor du jetzt noch mehr Müll schreibst: Entweder belegst du dass irgendjemand Anlagen nutzt die mehr Rechenleistung als Tianhe-2 besitzen, oder gibst Ruhe.

Gerne, hätte man den Links gefolgt auch schon vorher erkannt:

The Utah Data Center is powered by the massively parallel Cray XC30 supercomputer which is capable of scaling high performance computing (HPC) workloads of more than 100 petaflops or 100,000 trillion calculations each second.

Quelle: https://nsa.gov1.info/utah-data-center/

Lassen wir die 100 weg und reduzieren um 50% in der jetzigen Ausbaustufe. Lassen wir dabei auch außer acht das dies Zahlen von 2013 sind, sind es immer noch mehr als 33PFLOP/s. Taucht dieser in der Top500 auf, nein, ist normal bei classified Systeme.


Wie auch immer, die Schreddern einfach die Daten von 20 Terabytes pro Minute welches das Utah DC erhält. Wir haben ja die Kapazität nicht für die Analyse, wo immer schön von Echtzeitanalyse gesprochen wird. Das heißt wohl Schreddern.


Alternative: http://www.heise.de/newsticker/meld...Geheimdienst-kauft-Supercomputer-2177692.html

70 Millionen für einen Supercomputer, entspricht vom Geld der Größenordnung des Tianhe-2 und das 2013. Gelistet nein, da classified.


Hmm, scheinbar doch geheime Systeme mit der Größenordnung oder größer des Tianhe-2. Was für ein Wunder. Was glaubst du wo die Millia. der Geheimdienste für Datenanalysen ausgeben. Bestimmt nicht um sich bei Amazon VMs zu mieten. Aber ja, alle Regierungsorganisationen besitzen keine geheimen Supercomputer für Datenanalyse und Entschlüsselung und wenn nur ganz kleine damit es extra lange dauert. Bleib in deiner Traumwelt.


S.Kara schrieb:
Warum wohl? Hättest du die Meldungen verfolgt wüsstest du es.

Folgt man deiner These dann gibt es ja gar keine Agent, denn darüber gab es auch keine Information. Die es ja offensichtlich gibt. Aber ja, die gibt es nicht.
 
Zuletzt bearbeitet:
highks schrieb:
Häh, bist du gerade in einer Zeitmaschine aus den 90ern gekommen? Google ist doch kurz davor, sein selbstfahrendes Auto auf den Markt bringen zu können - die Prototypen sind schon hunderttausende von Kilometern auf amerikanischen Straßen unterwegs gewesen und haben bisher nie einen selbstverursachten Unfall gebaut. Auch hier in Deutschland gibt es immer wieder genehmigte (erfolgreiche) Testfahrten von autonomen Autos auf der Autobahn, und so gut wie jeder Autohersteller hat sowas in der Entwicklung. Die Teile funktionieren schon ziemlich gut, und zwar im echten Straßenverkehr!
Die größte Hürde sind eigentlich nur noch rechtliche Probleme!

Es waren bei den ganzen Tests immer eine Armee von Ingenieuren, Techniker und Programmierer dabei die im richtigen Moment eingreifen konnten um schlimmeres zu vermeiden.
Die Selbstfahrenden Fahrzeuge geben in bestimmten Situationen die Kontrolle an den Fahrer ab, weil die Software überfordert ist. Man holt sich Laborbedingungen auf die Straße. Man ist noch weit davon entfernt, dass man dem Auto sagen kann "bring mich nach B" aber nicht mehr so weit für das teilweise autonome fahren!

Vielen ist nicht bewusst wie komplex einfachsten Dinge im Alltag sind für Maschinen ;)
 
Corros1on schrieb:
Die Selbstfahrenden Fahrzeuge geben in bestimmten Situationen die Kontrolle an den Fahrer ab, weil die Software überfordert ist.
Und das Ziel ist ja, es genau anders herum zu machen.
 
Corros1on schrieb:
Es waren bei den ganzen Tests immer eine Armee von Ingenieuren, Techniker und Programmierer dabei die im richtigen Moment eingreifen konnten um schlimmeres zu vermeiden.
Die Selbstfahrenden Fahrzeuge geben in bestimmten Situationen die Kontrolle an den Fahrer ab, weil die Software überfordert ist. Man holt sich Laborbedingungen auf die Straße. Man ist noch weit davon entfernt, dass man dem Auto sagen kann "bring mich nach B" aber nicht mehr so weit für das teilweise autonome fahren!

Vielen ist nicht bewusst wie komplex einfachsten Dinge im Alltag sind für Maschinen ;)

Ähm... Also zumindest Googles Autos (bei den anderen weiß ich es nicht) fahren im normalen Verkehrt, nix abgesperrtes oder so, mit 2 Leuten drin. Klar können die eingreifen (sonst gibts von Versicherungen, Gesetzen etc. Probleme, wenn das nicht gehen würde), aber Labobedingungen auf die Straße ist was anderes. Und ein selbstfahrender Stapler auf einem ruhigen Firmengelände ohne hirnlose Raser etc. sollte heute schon locker möglich sein. Ist wahrscheinlich bisher einfach nur zu teuer.
 
Zurück
Oben