Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bereits in der ersten Jahreshälfte hat Intel Details der kommenden Multi-CPU-Plattform „Nehalem-EX“ mit Xeon-Prozessoren unter dem Codenamen „Beckton“ kommuniziert. Nun gab das Unternehmen bekannt, dass neben der normalen Version 2010 auch ein für High Performance Computing optimierter Nehalem-EX-Prozessor erscheinen soll.
Na dann ists endlich soweit...
Nachdem AMD ja 8-16-Kerner für zuhause angekündigt hat, frage ich mich, ob Intel da auch noch was nachlegt?
Die Prozessoren hier, sind ja für Server und "Superrechner" gedacht oder?
Schön zu wissen dass Intel den Zeitplan hält. Ich frage mich ob der 6 Kerner irgendwas mit der Gulftown Architektur gemein hat oder nicht. Ist schließlich auch eine x86 CPU.
Dieses Wettrennen ist doch reines Prestigegehabe...ich finds lächerlich!
Die einzelnen Prozzis sicher nicht, aber wer den schnellsten Supercomputer baut, ist mal ziemlich egal. Sicherlich immer eine beachtenswerte Leistung, aber über die Leistung der einzelnen CPU sagts ja meist wenig aus.
ja nachdem platz 1 und 3 der heute rasugekommenen supercomputer liste jetzt mit opterons bestückt sind und platz 2 mit einen mix aus amd und ibm prozessoren, denk ich dass intel auch eine presse ankündigung für den supercomputing bereich rausgeben musste.
der schnellste mit intel ist ja jetzt nur auf platz 5 und sogar der verwendet zusätzlich amd grafik chips für mehr leistung, somit ist der schnellste mit reiner intel bestückung auf platz 6.
da hat cray aber ganz schön viele 6 core opterons verbaut in den letzten monaten, bischen mehr als 224k in dem jaguar und beinahe 99k im drittplatzierten kraken.
amd dürfte sich auch darüber freuen 320.000 opterons verkauft zu haben, auch wenn bei solchen einkaufsmengen sicher nicht die listenpreise bezahlt wurden.
@Tommy: Ein Mobilprozessor hält da auch so lange. Völlig egal ob Desktop, Server oder Mobil. Es kommt drauf an, was der Prozessor aushalten muss. Dazu zählt die die dauernde Elektromigration, bestimmte Strahlungen (z.B. ionisierende Strahlung (Röntgen) oder kosmische Strahlung) und noch viele andere Sachen. Das Argument bringt vielleicht bei Festplatten noch was.
Hast aber wahrscheinlich recht, dass man damit wirklich ne halbe Ewigkeit Bits&Bytes durchnudeln kann.
glaub das liegt auch daran dass wenig händler die auf vorrat bestellen. gibt ja nicht so viele kunden für serverprozessoren die im einzelhandel einkaufen. meistens wird doch ein fertiger server gekauft.
Mich wundert es ein wenig, dass der Supercomputer mit den GPUs nicht schneller ist. Oder kann der verwendete Benchmark die Rohleistung der ATI Grafikkarten nicht voll abrufen?
problem bei den gpus ist erstens der für den linpack benchmark recht kleine cache und ausserdem die doch stark reduzierte leistung by double precission in vergleich zu single precission.
deswegen will ja nvidia mehr cache bei den fermi chips, für grafik bringt das eher nichts, aber für die supercomputer sehr viel.