News IBMs 17-Kern-CPUs werden extrem effizient

Hat wohl der Admin endlich ausgeschlafen und auf Winterzeit umgestellt....

Ja, damit er sich nochmal ne Stunde hinhauen kann
Ergänzung ()

@Boeby
Jo, und vor allem der erste in der Liste(noch :)). Hier kannst du schonmal einkaufen gehen: Fermiclusterzeugs

Ich denke auch dass es auf eine Spezialisierung der Chips hinauslaufen wird. Ob die 17te Core zur Verwaltung(8te Core beim IBM Cell) oder die Numbercrusher Einheiten der Fermi- bzw. Radeon Gpu´s, beide sind Belegen dafür wohin es gehen wird. Auch die verschiedenen Recheneinheiten beim Bully kann man viel gezielter ansprechen als bei bisherigen CPUs möglich.
 
Zuletzt bearbeitet: (einfach so)
KBX schrieb:
Brute force / Monte Carlo Sim. here we go - wofür noch an Formeln arbeiten?

Alle möglichen Schachkombis in einer Minute analysieren & das perfekte Spiel herausfiltern -
da macht Schachweltmeisterschaft doch richtig Spaß...
:freak:

Ich denke mal damit werden DGLs (differenzialgleichungen) gelöst. Das machte man auf jedenfall in der Physik mit Fermis ;) Ob die auch "effizient" mit CPUs gelöst werden können weiß ich nicht, könnte mir dies aber vorstellen, da sehr viel DGLs gelöst werden.
Sei froh das du im 12 (und auch im 13.) keine DGLs hast ;) Die werden dich im 1. bzw 2. Semester dann in Mathe eine Weile beschäftigen, freu dich drauf(und dort hast du kein Rack zum lösen, sondern nur deinen Kopf :D)

MFG Jubeltrubel
 
Das Problem das solche Super Computer wie dieser haben, sind eben ihre spezialisierten Kerne. Bei x86 ist einfach so gut wie jeder Code lauffähig, aber bei allen deren Architekturen, die spezieller sind, muss sehr viel angepasst werden, ähnlich CUDA.

Wird als Wunderwaffe angepriesen, lässt sich praktisch nicht umsetzten, da die scheis Kerne nur mit so merkwürdigen Matrizen wirklich rechnen können.

Nehmen wir doch mal ein gängiges Beispiel, und bleiben bei der PS3 oder der 360. Hier haben wir auch mehrerer Kerne, insgesamt liegt die Leistung der Xbox auf der eines kleinen Dualcores, der der PS3 nur kaum darüber.

Warum? weil man, um die volle Leistung ausnutzen zu können, jedes Bit und Byte genau verwalten muss, wie damals auf den ersten Rechnern ala C64. Daher haben wir ja das alte, überladene x86, weil Kompatibilität Trumpf ist, und nicht wegen jeder minimalen Veränderung alles bis in Detail angepasst werden muss.

Meine Meinung zu dem Ding: Papiertiger!

Ich kaufe lieber einen Xeon /Operteron Cluster, mit dem ich auch was anfangen kann, an dem jeder Depp mit den einfachsten Java Multithreading Methoden die Leistung skalieren kann, als so ein Ding, wo das Studium der Architektur zum Programmieren Pflicht ist.
 
bnomis1 schrieb:
Das Problem das solche Super Computer wie dieser haben, sind eben ihre spezialisierten Kerne. Bei x86 ist einfach so gut wie jeder Code lauffähig, aber bei allen deren Architekturen, die spezieller sind, muss sehr viel angepasst werden, ähnlich CUDA.

Wird als Wunderwaffe angepriesen, lässt sich praktisch nicht umsetzten, da die scheis Kerne nur mit so merkwürdigen Matrizen wirklich rechnen können.

Nehmen wir doch mal ein gängiges Beispiel, und bleiben bei der PS3 oder der 360. Hier haben wir auch mehrerer Kerne, insgesamt liegt die Leistung der Xbox auf der eines kleinen Dualcores, der der PS3 nur kaum darüber.

Warum? weil man, um die volle Leistung ausnutzen zu können, jedes Bit und Byte genau verwalten muss, wie damals auf den ersten Rechnern ala C64. Daher haben wir ja das alte, überladene x86, weil Kompatibilität Trumpf ist, und nicht wegen jeder minimalen Veränderung alles bis in Detail angepasst werden muss.

Meine Meinung zu dem Ding: Papiertiger!

Ich kaufe lieber einen Xeon /Operteron Cluster, mit dem ich auch was anfangen kann, an dem jeder Depp mit den einfachsten Java Multithreading Methoden die Leistung skalieren kann, als so ein Ding, wo das Studium der Architektur zum Programmieren Pflicht ist.

Dann schau doch mal auf wie vielen der Top 500 Rechner Java läuft, welches von Deppen programmiert wird.

Die Realität sieht so aus: Programmiert wird C und Fortran und das ganze wird optimiert bis zum geht nicht mehr, dazu MUSS man die zugrundeliegende Architektur zwangsläufig kennen sonst ist der Code einfach scheiße. Ich kaufe mir doch keinen Supercomputer für 100 Mio € um dann unmengen an Leistung zu verschenken weil irgendjemand zu Faul ist vernünftig Programmieren zu lernen und meint darauf Java laufen zu lassen.

F_GXdx schrieb:
Für das amerikanische Angriffsministerium, was für eine Verschwendung.

Zu geil wie alle immer aufschreien sobald über einen Supercomputer geschrieben wird. Als ob die einzig und allein für Waffensimulationen verwendet werden. Keine Ahnung aber rummosern. Famos finde ich auch das "Angriffsministerium"!
 
Zuletzt bearbeitet:
Jubeltrubel schrieb:
Ich denke mal damit werden DGLs (differenzialgleichungen) gelöst. Das machte man auf jedenfall in der Physik mit Fermis ;) Ob die auch "effizient" mit CPUs gelöst werden können weiß ich nicht, könnte mir dies aber vorstellen, da sehr viel DGLs gelöst werden.
Sei froh das du im 12 (und auch im 13.) keine DGLs hast ;) Die werden dich im 1. bzw 2. Semester dann in Mathe eine Weile beschäftigen, freu dich drauf(und dort hast du kein Rack zum lösen, sondern nur deinen Kopf :D)

MFG Jubeltrubel

Im ersten Semester Mathematik (Analysis I) hat man in der Regel noch nicht viel mit Differentialgleichungen zu tun, die sieht man erst ab Mitte Ana II, je nach Lehrplan. In aller Regel werden partielle DGL höherer Ordnung in einer eigenen VL behandelt. Diese sind in der Regel bis auf Ausnahmen nicht mehr geschlossen lösbar, sondern müssen numerisch integriert werden. Hierzu gibts einen Satz (den ich vergessen habe), der aus der Galois-Theorie stammt, wenn mich nicht alles täuscht hat Poincare bewiesen, daß partielle DGLs höherer Ordnung nicht allgemein analytisch lösbar sind, aber das ist lange, lange her.

Man löst nicht nur DGLn auf schnellen Computern, sondern auch Polynome, aus eigenwertproblemen, also Problemstellungen aus der Linearen Algebra. Dies wird insbesondere in Verbindung mit Differentialgleichungen wichtig, wenn man physikalische Probleme im Phasenraum beschreibt, transformiert, löst ... blablabla ...

Ich finde aber, daß alles, was nicht halbwegs analytisch lösbar ist, irgendwie 'schmutzig' erscheint. Mit dieser stumpfsinnigen brutalen Lösungsmethodik "man stecke alles in einen Integrator" schleichen sich nicht nur Verblödung, sondern auch Unsinn und viele sehr schlimme Fehler in die wissenschaftliche Arbeit. Das wird insbesondere dann lustig, wenn Leute aus eher nichtexakten Disziplinen wie Biologie, den Geowissenschaften, der Volks- und Betriebswirtschaftslehre und dergleichen eine 'Spielwiese' entdecken, die sie ohne weitere Kenntnisse anwenden.
Aber das ist OT.

nVidia versu IBM: nVidia kann seinen 'Fermi' nicht universell einsetzen, meines Wissens nach ist dieser IBM Prozessor aber ein universeller Prozessor.

Ad 'Angriffsministerium' der USA: In der BRD gibt es immer wieder laute Aufschreie einer ganz bestimmten pol. Coleure, wenn die Bundeswehr Großrechner beschafft. Diese geistigen Grasnabenhöhenflieger wähnen ihren Horizont meist dort, wo sich de facto deren Tellerrand befindet. Fast alles, aber auch wirklich fast alles kann waffentechnisch genutzt werden und das liegt offenkundig in der Natur des Menschen. Vielkörper- oder Vielpartikelsimulationen, die zum Beispiel zum Ziel haben meteorologische Phänomene in der Atmosphäre zu berechnen, lassen sich waffentechnisch umsetzen und in vielen Koorperationen in DFG Projekten ist auch das bundesdeutsche Verteidigungsministerium Geldgeber - und meist antreibende Kraft, auch etwas zu tun. In der Solar- und Astrophysik spielen zunehmend sog. Hydrodynamische Modelle eine große Rolle, also Fusionsprozesse, die man am besten an Nuklearwaffen testen kann. Das Militär darf keine Bomben zündet, also wird simuliert. Der Wissenschaftler will modellieren, also braucht er einen Superrechner und Geld. Und staatstragende Infrastrukturen gehen vor, mit entsprechender Interessensausrichtung, also ist die Prioritätenkette prädestiniert. Oder was will ein Supercomputer im Ministerium des Backautomatengesichtes Künast oder der dicken Roth? Mit solchen Prämissen hätte man schon verloren, ohne daß man zum Wettbewerb angetreten sein muß ;-)
 
Zuletzt bearbeitet:
bnomis1 schrieb:
Das Problem das solche Super Computer wie dieser haben, sind eben ihre spezialisierten Kerne. Bei x86 ist einfach so gut wie jeder Code lauffähig, aber bei allen deren Architekturen, die spezieller sind, muss sehr viel angepasst werden, ähnlich CUDA.

Wird als Wunderwaffe angepriesen, lässt sich praktisch nicht umsetzten, da die scheis Kerne nur mit so merkwürdigen Matrizen wirklich rechnen können.

Nehmen wir doch mal ein gängiges Beispiel, und bleiben bei der PS3 oder der 360. Hier haben wir auch mehrerer Kerne, insgesamt liegt die Leistung der Xbox auf der eines kleinen Dualcores, der der PS3 nur kaum darüber.

Warum? weil man, um die volle Leistung ausnutzen zu können, jedes Bit und Byte genau verwalten muss, wie damals auf den ersten Rechnern ala C64. Daher haben wir ja das alte, überladene x86, weil Kompatibilität Trumpf ist, und nicht wegen jeder minimalen Veränderung alles bis in Detail angepasst werden muss.

Meine Meinung zu dem Ding: Papiertiger!

Ich kaufe lieber einen Xeon /Operteron Cluster, mit dem ich auch was anfangen kann, an dem jeder Depp mit den einfachsten Java Multithreading Methoden die Leistung skalieren kann, als so ein Ding, wo das Studium der Architektur zum Programmieren Pflicht ist.

Im Gegensatz zu X86 gilt dort halt Qualität und nicht Quantität. Wie du schreibst muss man halt jedes Bit und Byte genau betrachten um die volle Leistung zu erhalten. Doch für ein solches System macht man das auch.. Da schaut man halt einmal genauer hin - hoffentlich auch..
Aber das steigert dann einfach die Kosten..

Nehmen wir mal als Beispiel das Handy: Wenn der Code richtig optimiert sein würde bräuchten wir heutzutage keine Handys über 1Ghz. Nicht zu vergessen die DualCores die bald kommen..

Man kauft einfach leistungsfähigere Systeme, denn das ist günstiger als den Code zu optimieren..
Sonst könnte Firmen wie Intel/AMD/IBM/VIA und Hersteller von SnapDragon/HummingBird keine neuen Prozis verkaufen, was diese auch nicht wollen..

Ich bin auch kein Fan von immer schneller und immer grösser, lieber mehr optimieren.. Aber bei diesen Systemen im Topic gehe ich davon aus, dass schon genügend optimiert wurde.
Wie "s4ms3milia" schon geschrieben hat: Man kauft kein System für mehrere hundert Millionen nur um danach Java laufen zu lassen..

Bezüglich PS3, von der XBOX-Hardware habe ich weniger Ahnung:
Der CELL wäre erheblich leistungsfähiger, doch wieso optimieren wenn man das nicht braucht ? Wieso viel Geld in die Entwicklung stecken wenn danach der CELL nur zu 50% gebraucht wird ?
Sony hat die Konsole sehr sehr lange unrentabel verkauft, nur um eine gewisse Leistung bereitstellen zu können. Die haben nicht vor innerhalb der nächsten Zeit eine neue Konsole herzustellen. Für Sony wird die Konsole erst jetzt interessant.
In Zukunft wird diese Leistung vom CELL richtig gebraucht werden und daher der Code auch optimiert. Freu dich lieber über diese Tatsache, denn Sony könnte auch alle 4 Jahre eine neue Konsole herstellen -> was dich als Kunden wiederum verärgern würde..
 
warum entwickeln die eigentlich nicht für x86, wenn sie so gute CPUs machen?
Klar das meiste verdient man bei Servern, aber so "nebeneinkünfte" wären ja auch nicht schlecht
 
s4ms3milia schrieb:
Der 17. Kern ist das interessanteste an der Sache. Das ist die Zukunft, weg vom überladen x86 - hin zu "Spezialisten".

Gut, dass es derartige Überlegungen bei Intel auch für die Zukunft der x86 Desktops CPUs gibt.


Propylan schrieb:
warum entwickeln die eigentlich nicht für x86, wenn sie so gute CPUs machen?
Klar das meiste verdient man bei Servern, aber so "nebeneinkünfte" wären ja auch nicht schlecht.
Die großen Hersteller (IBM und Intel) haben ihr Spezialgebiet gefunden. Der Markt ist halt gut aufgeteilt und man macht sich da nicht unnötig Konkurrenz.
 
krass schnell... und SUPER Sparsam... das ist der richtige Weg.

Die Chinesen sind zwar im Moment auf Platz #1, aber die müssen dafür auch nen AKW bauen, während der IBM Rechner mit einem einzelnen Windrad betrieben werden könnte...
 
Respekt auch hier für die Effizens des CPUs. Mich würde mal weitere Angaben zu den CPU interessieren wie Cache oder TPD.

Bin auch mal gespannt durch Test udn Co. mehr über die Nutzung und so des 1 Core der für Kontroll- oder I/O-Aufgaben zuständig ist.
 
Rickmer schrieb:
Von der Technik her dürfte das sich am ehesten mit dem Cell-Prozessor der PS3 vergleichen lassen, oder?

Nein. Die BlueGenes basieren auf PowerPC ASICs (PowerPC440/450). Im aktuellen BlueGene/Q wird wohl ein PPC470 verwendet.
Cell setzt bei dem PPE zwar auch auf einen PowerPC als Steuerchip, ist aber durch die SPEs eine andere Architektur.

Toxicity schrieb:
IBM vs Nvidia, ein ziemlich harter Kampf, es ist gut das IBM wieder einen Konkurrenzfähigen CPU auf den Markt hat, aber ob er sich auch gut gegen Tesla schlägt?
Wenn es um die Energieeffizienz geht, dann liegt IBM meilenweit vorne. Schon die QPACE Cluster mit ihren PowerXCells waren da führend; mit dem BlueGene/Q hat IBM jetzt die Messlatte aber gut doppelt so hoch gehängt. ;)
Toxicity schrieb:
Im welchen Zusammenhang steht eig die 205 GFLOPS? SP oder DP?
DP
 
@ Pyroplan

Es gibt übrigens auch von IBM CPU's für den OEM Bereich,die wir als Endkunden auch in den fertigen Produkten kaufen und nutzen können: Die Architektur nennt sich Power PC und wird aktuell in jeder X-Box 360 verbaut mit 45nm 3 Kern CPU @ 3,2Ghz Takt bei 85 Watt TDP.

Ein kleineres Model davon steckt in der Nintendo Wii und alle älteren Apple Notebooks und Desktops vor 2006 haben ebenfalls noch Power PC CPU's drinnen.

Ich finde es ehrlich gesagt auch sehr schade,dass IBM ihre Endkunden CPU's mit Power PC Architektur nicht auch im Endkundenmarkt verkauft,sondern diese nur im OEM Bereich vertreibt.

Ich glaube die Power PC CPU's waren bei 3,2 Ghz sogar effizienter und stromsparender als die Core2 Duos damals 2006 und hätte man die damals wirklich frei kaufen können,sammt passendem Mainboard,hätte ich mir sofort einen IBM PC gebaut *g* :)

Das die IBM CPU's gut sind,sieht man ja schon sehr gut an einem ganz bestimmten PC Spiel,was sehr CPU lastig ist:GTA 4 !

Hier zersägt eine IBM Power PC 3 Kern CPU mit 3,2 Ghz der X-Box 360 aus dem Jahr 2005 einen 3,2 Ghz Core2 Duo Wolfdale aus dem Jahr 2008 nahezu und bietet die wesendlich bessere Leistung für flüssiges Gameplay.

Da braucht man dann schon beim PC einen 3,2 Ghz. Core2 Quad,um GTA 4 flüssig spielen zu können und da mitzuhalten.

Schade nur,dass IBM diese CPU seit 2006 nicht mehr weiterentwickelt und verbessert hat.

Ich will gar nicht wissen,wie schnell eine aktuelle IBM Desktop CPU wäre,würde man von den sehr efizienten Server Ablegern eine spezielle Desktop CPU entwickeln und Sie auf etwa 4,0 Ghz takten bei 8 Kernen @ 32nm :freak:

So effizient & energiesparend wie die IBM Architektur ist,sind da garantiert gewaltige Taktreserven drinnen bei der 32nm Fertigung und die 4Ghz. mit 8 Kernen wären sicherlich möglich,wenn nicht sogar noch mehr.

Da könnte sowohl Intels Sandybridge,sowie auch der AMD Bulldozer wohl nicht mithalten in Sachen Leistung pro Takt und Energieeffizienz pro Takt :p
 
Thomson1981 schrieb:
Ich will gar nicht wissen,wie schnell eine aktuelle IBM Desktop CPU wäre,würde man von den sehr efizienten Server Ablegern eine spezielle Desktop CPU entwickeln und Sie auf etwa 4,0 Ghz takten bei 8 Kernen @ 32nm :freak:

Gut doppelt so schnell wie alles, was AMD oder Intel derzeit anbieten. Diese CPU gibt es schon und sie heißt POWER7 (@45nm). ;)

Aber Server = POWER und Desktopvarianten wird es davon nicht mehr geben (davor waren das die PowerPC Chips in den Apfelkisten).
PPCs werkeln nur noch als embedded Cores (so ähnlich wie bei ARM).
 
Sehr interessanter Beitrag Thomson1981

Man darf nicht vergessen, dass im IBM Power PC Chip der X360S die GPU bereits intrigiert ist. Und genau mit diesem Schritt hat AMD aktuell ziemlich Probleme mit dem Llano(Verschiebungen aufs Q3 2011).
 
Naja "ziemlich Probleme" ist vielleicht ein wenig hoch gegriffen...
Eine Verschiebung um 3 Monate ist bei CPUs/GPUs Gang und Gebe... wenn es wirklich Probleme gibt, dann dauert es auch schonmal 6 Monate ...
 
Ich finde aber, daß alles, was nicht halbwegs analytisch lösbar ist, irgendwie 'schmutzig' erscheint.

Für analytisch lösbare Probleme brauche ich doch aber keinen Supercomputer? Solche Maschinen braucht man für Probleme, die sich nur numerisch lösen lassen...

Gut doppelt so schnell wie alles, was AMD oder Intel derzeit anbieten. Diese CPU gibt es schon und sie heißt POWER7 (@45nm)

Nur ist ein Vergleich allein anhand von GFLOPS Angaben ja sehr schwammig... wenn man zum Beispiel an die komplexeren Befehle bei x86 denkt, oder?

Von dieser Seite her wäre nämlich die CPU der PS3 schneller als ein i7 980x.

Die Chinesen sind zwar im Moment auf Platz #1, aber die müssen dafür auch nen AKW bauen, während der IBM Rechner mit einem einzelnen Windrad betrieben werden könnte...

Nach einem Artikel hier auf CB sind es 4 Megawatt... womit der Chinesische Supercomputer mit einer der effizientesten ist. Es reicht in diesem Fall also auch ein großes Windrad. ;-)
 
Bezüglich PS3 und Xbox360 Leistung. Die PS3 Spiele sind weit besser als die Xbox360. PC Spiele werden meist portiert, aber das kann durchaus in die Hose gehen(sieh GTA4 und CODBO und andere). Es wird sich nichst ändern der PC ist den Konsolen in Sachen Spiel Leistung unterlegen, weil die meisten Spiele auf den Konsolen besser laufen.
 
@MC BigMac

dass der PC den Konsolen in Spiele Leistung unterlegen ist, ist absoluter Quatsch. Wenn ein Spiel auf einer Konsole besser läuft, dann liegt das an weitaus geringeren Details und um längen besserer Optimierung. Guck dir mal GTA 4 auf der PS3 an. Da bekommst du Augenkrebs vom zugucken. Wenn dann natürlich nur dreckig portiert wird, kann auch der um längen Leistungsfähigere PC nichts mehr rausholen. Das ist die Schuld des Entwicklers.
 
Moment, Moment!
...und alle älteren Apple Notebooks und Desktops vor 2006 haben ebenfalls noch Power PC CPU's drinnen.
Stimmt schon, aber weil Steven Jobs genau diese PowerPC CPU viel zu langsam war, sie in jedem Bench einem x86 hinterherrante sowohl in der Performance als auch in der Effektivität, hat Apple ja genau diese Gewaltaktion gestartet, in der sie von der Öffentlichkeit abgeschiermt das Apple Betriebssytem innerhalb eines Jahres auf x86 umgeschrieben, und die Applehardware auf Core Duo umgestellt haben, mit einem signifikantem Performancezuwachs wie man weis.

Also was ist hier falsch?
 
Zurück
Oben