Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Abseits der eigenen Heimcomputern existieren für völlig andere Berechnungszwecke die so genannten Supercomputer, durch die zum Beispiel wissenschaftliche Daten oder das Wetter ausgerechnet werden. Nun soll ein neues NovaScale-System gebaut werden, das neben den übliche Prozessoren auch auf Grafikkarten setzen wird.
Schon krass welche lesitungen diese Superocmputer bringen!
Und genauso unvorstellbar is es für mich an soetwas zu denken, weil
ich mit solch geräten nie in berührung kommen werde^^
Aber geile innovation GPUs noch extra zu benutzen!
wie krass is das denn? der GT200 muss echt ordentlich was reisen. bin gespannt was AMD/ATI da in der Bahn hat. bin echt gespannt wie sehr sie auch gegen Intel server auffahren. und dann dauert es ja evtl. nicht mehr lange und NV wagt den schritt in eigene CPUs.. was ich pers. aber noch nicht glauben kann...
wahrscheinlich schon, aber mit AA wirds schon happig ^^
wie siehts eigentlich mit den quantencomputern aus? hat sich da schon was entwickelt? weil ein quantencomputer würde den supercomputer da ja als taschenrechner benutzen -_-
Naja ich mag die FLOP/s-Angaben irgendwie nicht, die sind eigentlich so ziemlich nichtssagend... als wenn man die Durchschnittsgeschwindigkeit eines Autos anhand der Motor-PS ableiten versucht...
@/root: Hä? Ein Quantencomputer würde einen Supercomputer als Taschenrechner benutzen? Bitte? Benutzt du deinen Taschenrechner um dir solche Sätze auszudenken oO
es gibt viele Supercomputer, die auf normalen Xeons oder Operons basieren. Daran ist nichts neu. Schau mal in die Liste der Supercomputer.
warum müssen eignetlich diese schwachsinnigen und begriffsstutzigen 3d Mark und Crysis Kommentare immer kommen?
1,1TFlops sind nicht so übermäßig viel. Die 3870 X2 kommt doch auch auf knapp 1TFlop, somit eine Steigerung von ca 10% (logischerweise von 2 auf 1 Kern)
So wirklich interessieren würde mich, ob die entsprechenden Applikationen dann so ausgerichtet sind, dass der eine Programmteil bzw die einen Berechnungen "nur" auf den CPUs und die anderen Berechnungen "nur" auf den GPUs gemacht werden und somit dann eine deutliche Leistungssteigerung möglich wäre, da die entsprechenden xPUs einfach jeweils ihre Stärken ausspielen können. Wie wird den die Verbindung zwischen den unterschiedlichen xPUs realisiert? Eine übergreifende Architektur würde ja einen speziellen virtual machine layer benötigen, der Performance frisst. bei der Realisierung über einen speziellen Bus oä würde mich interessieren, ob damit nicht ein Falschenhals geschaffen wird bzw wie diese Verbindung dann dimensioniert ist...
Zeigt, dass mittlerweile auch GPUs solche speziellen Aufgaben erfüllen können. Find ich sehr sehr geil..so lässt sich evtl auch nen etwas flexiblerer Supercomputer bauen..GPUs bei einer Aufgabe schneller, CPUs bei ner anderen..würde Kosten senken, weil man nicht unbedingt mehr trotz eigenem Superrechner woanders Zeit mieten muss^^
Ein Quantenrechner kann eigentlich nur bei sehr speziellen Aufgaben wirklich davonziehen. Da halt dann recht deutlich. War mal n interessanter Artikel in der PM drin.
Dadurch, dass n Quantenbit 4 Zustände, und nicht nur 2 haben kann, steigt halt mit der Bitzahl der Vorsprung enorm..spezielle Aufgaben, wie z.B. aus ner Zahl die beiden Primzahlen rauszusuchen, die multipliziert eben diese Zahl ergeben kann so ein Rechner recht gut erledigen.
Das ist auch der Grund, wieso mit Einführung von Quantenrechnern quasi jedes Sicherheitprotokoll umgeschrieben werden muss^^bzw man sich neue Methoden ausdenken muss
Ohne Größe und Stromverbrauch lassen sich keine Aussagen treffen. Schließlich ist das Ding nicht mal der Schnellste Supercomputer. Relativ gesehen wird die Leistung natürlich enorm gestiegen sein. Aber um wie viel?
Interessant zu sehen, wie sich die Landschaft an Supercomputern in den letzten Jahren verändert hat und wie sie sich anscheinend zukünftig noch ändern wird. GPUs als Rechenknechte sind der letzte Schrei, in den letzten Monaten hört man auch vereinzelt immer mal was von Coprozessoren (jaja, die guten Zeiten Anfang der 90er Jahre kehren vielleicht zurück), auch ein L3-cache wird wieder in Mode kommen, Physikbeschleuniger mit zT irrsinnig hohen Rechenleistungen gibt es auch schon seit mehr als einem Jahr, usw...
Die Zahl der möglichen Rechenknechte hat sich damit von der üblichen CPU vervielfacht ! Ob sich so exotische Systeme mit CPUs und GPUs und vielleicht noch anderen Rechenknechten durchsetzen wird bleibt abzuwarten. Das wird denke ich auch einfach eine Frage des Preises sein und vor allem auch des Stromverbrauches. Denn GPUs sind zumindest derzeit noch nicht als wirkliche Stromsparwunder bekannt, schon gar nicht unter Volllast (wovon bei einem solchen System wie geplant ja wohl auszugehen ist).
Vielleicht kommen irgendwann auch bei den CPUs frei programmierbare Einheiten, auf denen dann mit voller CPU-speed in Hardware komplexe Rechenoperationen durchführbar sind.
Auch dieser Artikel zeigt, dass im IT-Bereich eine ständige und schnelle Entwicklung statt findet. Es wird und wird nicht langweilig...
Was mich Persönlich aber irritiert ist, das 96GPU´s einen irgendwo einen ähnlichen wert in sachen Flops erreichen als über 1000CPU´s ...
Wobei ich mir unter Flops nichts vorstellen kann, auch nach wiki nicht ....
Ich kann die genannten Zahlen nicht nachvollziehen, geschweigen denn mir vorstellen.
8.544 Nehalem Kerne sollen 192 TFLOPs leisten, soweit so gut.
Aber im Verhältnis dazu sollen 96 GT200 103 TFLOPs Rechenleistung bringen?
Also entweder unterschätze ich die Leistung dieser GPUs massiv, oder aber die Zahlen stimmen nicht. Mal ganz ab gesehen von dem bereits oben angebrachten Einwand:
Jede GT200 bringt 1.1 TFLOPS (nicht 1.1GFLOPS).
Dass GPUs aber massiv mehr Rechenpower als normale CPUs haben stimmt wirklich. Du hast die Leistung der GPUs tatsächlich massiv unterschätzt.
Ich muss bei Supercomputern immer und immer wieder an diese News denken.
Es ist aber doch höchst erstaunlich wie viel Rechenleistung GPU's
im vergleich zu CPU's haben...
verwunderlich das trotzdem bei vielen Dingen die Graka limitiert ^^.