News Top 500 der Supercomputer – China holt auf

Da fällt mir nur eine Szene der Simpsons ein.

Marge: "Waas?! Bart hat sich bei der Army eingeschrieben?!!!!111elf"
Homer: "Aaaach bis bart 18 ist herrschen wir sowieso über die Welt... Wir sind China oder?"

Tjaja... irgendwann nähen wir Turnschuhe für die :lol:
Aber ansonten kann ich Rechenleistung nur begrüßen, solange damit nicht die Einäscherung von Städten mit Atomwaffen berechnet wird! So ein einzelner Supercomputer eröffnet unglaubliche Möglichkeiten für lokale Wissenschaftler. Es sollte viel mehr mietbare Petaflop Rechner geben. So kann auch der kleine wahnsinnige und unglaublich böse Wissenschaftler von um die Ecke auch mal seine Weltherrschaftsmaschine berechnen ;)
 
Meines Wissens nach heißt die Stadt in China "Shenzhen". Ich bin mir ziemlich sicher seitdem ich dort war ;-)
 
Ja China wird da wohl alle Überholen, ansonsten kann man dazu wohl wenig sagen.
Mfg
 
Wird die Performance dieser Liste bei 32Bit oder 64Bit-Floats gemessen?

Naja, und manche Systeme brauchen eher 8GB Speicher pro Kern, als mehrere Tausend Kerne. Davon gibt es leider weniger.
 
@DvP:
Ist das nicht eine Frage der Transkription? Schließlich schreiben Chinesen selten mit lateinischen Buchstaben...

Dass Entwicklungen stattfinden, ist doch nicht verwunderlich; dass China jetzt auch einen adäquaten Supercomputer hat, ebenso. Und dass dieser zur Internetkontrolle genutzt wird, halte ich für ausgemachten Unsinn - auch in China wird an Universitäten geforscht, die nach ein wenig Rechenzeit an einer solchen Maschine lechzen.
 
Kann man damit in kurzer Zeit einen mit Truecrypt verschlüsselten Datenträger mit Brutforce knacken? Mit Standard-Verschlüsselung (AES) und komliziertem, sagen wir 20-stelligem Passwort?

Mich würde interessieren, ob in Fällen von Schwerstkriminalität die Strafverfolgungsbehörden nach einer Beschlagnahme von Rechnern von solchen Supercomputern Gebrauch machen.
 
da brauchst keine angst zu haben.

jeh nach passwort braucht auch solch ein SUpercomputer noch Monate, das will keiner bezahlen ;)

Knackbar ist ja bekanntlich alles, es ist nur eine Frage der Zeit.
 
florian. schrieb:
da brauchst keine angst zu haben.

jeh nach passwort braucht auch solch ein SUpercomputer noch Monate, das will keiner bezahlen ;)

Knackbar ist ja bekanntlich alles, es ist nur eine Frage der Zeit.

Da hat uns aber unser Mathe Prof was anderes vorgerechnet ;-)
Zumindest mit der heutigen Technologie^^

scho krass die Teile, hab ich den Preis jetzt eig. überlesen oder wurde er nicht angegeben?
 
@Cumonu

20 Zeichen aus, Großbuchstaben,Kleinbuchstaben und Zahlen =
(26+26+10)^20 = 7 * 10^35 Möglichkeiten.

Sagen wir um eine dieser Kombos zu testen bräuchte man 100 Flops (wahrscheinlich extrem zu wenig aber was solls)

7*10^35 / 1,7*10^15 = 4,1 * 10^21 Sekunden = 13 Billionen Jahre

Am Passwort scheitert es also nicht. Da muss man sich auch in Zukunft keine Sorgen machen.

Man muss schließlich auch bedenken, dass das US DoD den AES Standard eben auch gerade darauf ausgelegt hat, dass er auch in etwas fernerer Zukunft noch nicht durch Brute Force angegriffen werden kann.
 
Zuletzt bearbeitet:
Zählen diesmal eigentlich auch die GPU´s? Bei der Bewertung des letzten chinesischen Toprechners wurde die GPU Leistung nämlich nicht mit einbezogen.
Davon abgesehen, das FZJ ist gar nicht so weit von mir, wirklich interessant, wenn die mal Tag der offenen Tür haben.
 
Sofern wir dann noch existieren ... ;)

Ist doch schön das man in China auch mal auf Qualität setzt, mit ihren CPU Plagiaten hätte man die Leistung wohl nicht erreicht. :lol:

Zum Filtern ist so ein Teil gar nicht nötig (von der Leistung her), wär ja noch schöner wenn man für DNS Sperren solche Supercomputer bräuchte.

Das Wetter wird im übrigen auch von Supercomputern simuliert - und ja für die Nachrichten.
 
Das System steht im nationalen Supercomputer-Zentrum in Shenzen; dort arbeiten 55.680 Rechenkerne sowie 4.680 Grafikprozessoren. Theoretisch soll der Supercomputer bis zu 3 Petaflop erreichen können.
Vielleicht noch interessant welche Grafikarten verbaut wurden:
build from a Dawning TC3600 Blade system with Intel X5650 processors and NVidia Tesla C2050 GPUs. Nebulae is currently the fastest system worldwide in theoretical peak performance at 2.98 PFlop/s.
Fermi mit bis zu 6GB ECC VRam...
http://www.nvidia.de/object/product_tesla_C2050_C2070_de.html
 
Core i7, 3,2 GHz: 51,2 Gigaflops
Ne HD5870 hat 2.7 Teraflops
Was mir schon seit langem nicht in die Birne will, warum sind die GPU's soviel leistungsstärker als CPU's? und warum nutzt man dann nicht die GPU's als CPU bzw nutzt die Technik einer GPU für eine CPU?

Ja klingt wirr, aber ich bin ja auch verwirrt :D
 
bei der Bildberechnung kannst du sehr viel parallelisieren eine 480GTX hat z.b. 448 Coda Cores--> 448 zeitgleiche Berechnungen.
eine CPU Hingegen beherscht den x86 code, worauf die meisten programme laufen.

eine CPU ist praktisch die Eierlegende Wollmilchsau.
eine GPU ist Spezialisiert auf eine Aufgabe.
daher ist es einläuchtend das eine GPU in Spezialanwändungen um einiges schneller sind.
 
Weil eine CPU wesentlich komplexere Befehle ausführen kann als die sehr simplen Shader, die man auf Grafikkarten findet.
Es ist ja klar, dass eine Grafikkarte mit 320 Shaderkernen a 850 Mhz, mit je 5 Instructions pro Clock, eine wesentlich höhere theoretische Rechenleistung schafft, als z.B. ein 2,6 Ghz i7920 der nur 4 Kerne besitzt.
Nur fehlen eben auf den GPUs viele der Ausführungseinheiten die man seit Ewigkeiten in einer CPU findet. Und wenn dann ein Befehl kommt der diese Einheiten benötigt, gehen bei der GPU richtig viele Taktzyklen drauf um die Funktion dieser Einheit zu ersetzen, während die CPU das mitunter in einem Takt erledigen kann.

Deswegen rechnet eine HD5870 auch nicht um 40 - 50 mal schneller Videos um als eine CPU sondern vielleicht 3-4 mal schneller.
Allerdings ist sie in der Lage in einem speziellen Einsatzfeld diese vielfache Leistung zu erzielen und das ist (Oh Wunder) die Grafikberechnung, auf die die Shaderkerne eigentlich ausgelegt sind.

Das sieht man schon sehr schön daran, wie stark die Performance der GPUs bei DoublePrecision zusammenbricht, weil die Shader ganz einfach nicht darauf ausgelegt sind, in einem Taktzyklus eine 64bit Fließkommazahl zu berechnen. Dann muss die GPU das irgendwie in mehreren Takten zusammenschustern, während eine 64 bit CPU das einfach mal so absolviert.
 
Zuletzt bearbeitet:
Merden schrieb:
Was mir schon seit langem nicht in die Birne will, warum sind die GPU's soviel leistungsstärker als CPU's? und warum nutzt man dann nicht die GPU's als CPU bzw nutzt die Technik einer GPU für eine CPU?

Ja klingt wirr, aber ich bin ja auch verwirrt :D
Allgemein kann man sagen:
CPUs sind universalisten und GPUs Spezialisten. Und n Spezialist ist nicht unbedingt für Allgemeine Arbeit geeignet. Manches bekommt er gar net hin und anderes schlechter/langsamer.

GPUs erreichen diese rechnerische maximale Leistung sowieso nie und sind vorallem bei Berechnungen die doppelte Genauigkeit verlangen n gutes Stück langsamer. Darüber hinaus sind GPUs extrem parallel ausgelegt. Es gibt aber auch genügend mathematische Probleme die sich einfach aus prinzip nicht parallel lösen lassen.
 
oder nen doofer Auto Vergleich:
GPU= Sportwagen
CPU = Geländewagen.
im Gelände sieht der Sportwagen kein Land.
aber bei für ihn Vorbereiteten Straßen ist der Geländewagen Chancenlos.

Die Kunst liegt nun darin die Straßen (äh Programme) für die GPU Nutzbar zu machen.
 
Nordwind schrieb:
Die Chinamänner werden einfach alles und jeden überholen :/

Chinese beim Basketball? :evillol:

Sry, konnts mir nich verkneifen

BTT: Intressant, was die Chinesen mittlerweile auf die Beine stellen. Ich frag mich allerdings warum keiner der großen Supercomputer aus dme Land der Technik, Japan, kommt.
 
Eventuell kein Platz? :D

@florian.: So doof ist der Vergleich nicht mal, zumindest wenn man es einem Laien erklären will der von der Materie absolut Null Ahnung hat.
 
Zurück
Oben