News 8 Sockel, 64 Kerne und 128 Threads in 2009

Simon

Banned
Registriert
Jan. 2002
Beiträge
10.692
Erst vergangenen Monat hat Intel mit der Quad-Core Xeon 7300-Serie sein Portfolio an Server-Prozessoren für Mehr-Sockel-Systeme auf den aktuellen Stand gebracht. Mit der kommenden Generation möchte Intel erneut kräftig an der Schraube drehen und bis zu 128 Threads verteilt auf maximal acht Sockel pro System ermöglichen.

Zur News: 8 Sockel, 64 Kerne und 128 Threads in 2009
 
heißt das das man dann auch 8 itanium sockel boards hat ?
 
was heißt denn Interoperabilität?

ansonsten: der trend geht klar in richtung multicore! ob es da später mal zu stromproblemen kommen sollte, wenn wir in 5 jahren mehr als 100 cores haben werden? selbst wenn da nur jeder core 3 watt verbrauchen würde, wären wir bei 300 watt
 
Was werden das für Boars? Auf einem normalen E-ATX-Brett haben keine acht Sockel Platz. Es sei denn CPUs und deren Kühlung werden kleiner...
Der Anwendungsbereich für einen Server ist nicht schwer vorzustellen; im Heimbereich könnte man dann endlich Raytracing umsetzen :freak:.
 
Viel interessanter finde ich, das man in 2009 (lt. der 1. Grafik) bei Intel:

1) Im Heimanwender-Bereich noch nicht mit QuadCore plant
2) Einen Grafikteil in die CPU integriert (AMD -> Fusion)
 
Zuletzt bearbeitet:
@hui_vrot

Ich glaube nicht das zukünftige Multikern-CPUs die 100W Grenze nochmal sprengen. Intels Terascale (80core) verballert aktuell gerade 46W bei 1 Teraflop. Das sind 0,5W pro Core.
 
Die Leute, die früher 10 Ghz CPUs vorausgesehen haben, sehen jetzt 100 Cores CPUs voraus?

Bleibt doch mal realistisch. schaut euch auch mal den Beitrag "6) Eusterw" noch mal an und überlegt noch mal.

@News
Gut, damit wäre wohl der QuikPath auch im Desktopsegment bestätigt und die Gerüchte, dass QuikPath nur für ServerCPUs kommt, endgültig vom Tisch. Wie ich erwartet habe btw.

Simon schrieb:
Somit sind in Theorie und Praxis Systeme möglich,...
Wenn sie in Praxis möglich sind, dann sind sie auch in der Theorie möglich. Doppelte Aufzählung ist unnötig. (Wenn etwas in der Praxis möglich ist, aber nicht in der Theorie, dann ist die Theorie falsch.)
 
Zuletzt bearbeitet:
Da Intel nun endlich dem FSB im Serverbereich "bye bye" gesagt hat, dürfte das gut abgehen :)
 
also für heimanwender denk ich eher (zumindest noch) uninteressant. Aber für Server oioioi, hoffentlich werden die Kisten nich allzu teuer :D dann noch nen ordentlichen Houser für den server und dann gehts rund^^ aber bis 2009 sind eh noch vieeeele Tage zu überbrücken, von daher mal die Füße stillhalten und die Zeit abwarten, wie die Nehalem-Generation überhaupt wird.
 
huijuijuijuijuijuijui ^^
früher sagte man CPUs werden 10GHz haben
Heute sagt man es werden 100 CPUs sein
Ich sage, is wird eine revolituin geben:
Die rechentecknik einer ganzen Highend-CPU in der große eines Speicherchips auf den DDR RAM modulen, mit niedriger abwärme, neuer rechentechnik, und das wird uns so weit bringen, dass rechner, wie die höllenmaschiene I, II und zuküftige III, V, C, ... in einen MP3 Player passen.
mit der neuen technologie von intel kann man viele CPUs auf einem board einsetzen,
AMD wird die CPUs klein machen, Gleichzeitig mit ihrer Fusion im jahre 2060 kommen CPUs ohne abwärme, und ein jahr später sind wir dann bei dem oben erwähnten!!^^ XP der abend ist schon lang :lol:
das wär aber ein durchaus denkbares szenario. ich finde sie sollten sich jetzt bemühen die CPUs klein, kühl und portabel zu machen, genug rechenleistung haben wir schon
MfG
Damon
 
Ich sehe das schon. Hujuijui...
Hier hat niemand auch nur einen blassen Schimmer wie schwer es ist eine Soft zu Programmieren die auf 2 CPUs gut skaliert und wie extrem schwierig es ist das auf 4 Kernen zu bewerkstelligen.
Das müßt ihr euch Laien :freaky: so verstellen, wenn man ein Auto mit 2000 PS hätte, aber niemand in der Lage wäre adäquate Reifen dafür zu bauen.

Gegen race conditions ist noch kein Gras gewachsen. Auch 2007 nicht. Die Entwicklungswerkzeuge stecken noch in der Steinzeit.
Das gleiche gilt für die Kernel bzw. Scheduler. Jedenfalls die, die Microsoft für HomePCs verkauft.

Pavlov (7-zip) kann mit Mühe&Not 2 Kerne auslasten. Für eine Unterstützung von 4 Kernen, eine die man auch nennenswert nennen könnte, fehlen ihm momentan die Ideen. Alles klar?

Einen Raytracer auf zig Kerne zu verteilen oder eine Serveranwendung ist Pipifax. Wer von euch benutzt aber Apache oder SQL daheim? Und wenn, in welchem Masse, daß er sich über mehr als 4 Kerne freut?

Und hier naht auch schon des Rätsels Lösung. SERVER. IBM mit Power6 und vor allem Sun mit ihren Niagars heitzen Intel mächtig ein. Vor allem Sun http://www.orthy.de/index.php?option=com_content&task=view&id=4869&Itemid=85
http://www.orthy.de/index.php?option=com_content&task=view&id=4904&Itemid=86

Für uns arme Schweine ist eine CPU mit 8 Kernen und 2fach Hyperthreading überhaupt kein Thema. 2009 nicht und 2015 immernoch nicht. Es sei denn jemand fährt auf die BOINC-Sachen ab. Das läuft aber zigfach schneller auf Grafikkarten ;)

Ob und wie Intel diese CPUs in den home market drücken könnte ist eine Sache. Nutzen wird es 2015 nicht mehr als ein QuadCore heute.

Macht euch also nicht gleich ins Höschen...
 
Zuletzt bearbeitet:
xp_home schrieb:
Die Leute, die früher 10 Ghz CPUs vorausgesehen haben, sehen jetzt 100 Cores CPUs voraus?

Ich denke im Homebereich geht der Trend eher zu einer CPU, DualCore und Quad. Ich nutze seit mittlerweile 8 Jahren Dualprozessorboards, die alle auf den Homebereich optimiert waren (schnellerer FSB als sie Serverboards, AGP usw). Vermutlich wird es diese Boards aber nicht mehr geben, sondern nur noch reine Serverboards.

BeeHaa schrieb:
Hier hat niemand auch nur einen blassen Schimmer wie schwer es ist eine Soft zu Programmieren die auf 2 CPUs gut skaliert und wie extrem schwierig es ist das auf 4 Kernen zu bewerkstelligen.
Das müßt ihr euch Laien :freaky: so verstellen
BeeHaa schrieb:
Macht euch also nicht gleich ins Höschen...
Und wer bist du?? John Carmack? :D
Der Vorteil von SMP liegt in ja nicht nur in der Nutzung der handvoll SMP-fähigen Programme, die es bislang gibt. Fast alle Betriebssysteme sind mittlerweile multiprozessorfähig und es ist nicht nur auf einem Server von Vorteil, die Prozesse auf mehrere Kerne zu verteilen.
 
Ich find interessant, wie oft hier erwähnt wird, welche Technologien von AMD abgescheut werden...

Im Moment finde ich Intels Versuch, um jeden Preis wieder über die 80% Markt-Beherrschung zu kommen, ganz gut - auf die Art kommen sowohl von Intel als auch von AMD neue Technologien und immer schnellere Prozessoren in kürzeren Abständen als bisher.

Gordon Moore müsste seine Prognosen in der heutigen Zeit wieder ändern, obwohl die momentane Beschleunigung wahrscheinlich eher ein Ausgleich für die Zeit von Pention 4 und Athlon XP ist...
 
@14
man holt sich eben zurück, was einem abgeschaut wurde ;)

@topic
immer noch glauben wohl viele, dass es hier um "mehr fps!!!!!" für irgendwelche benchmarks oder shooter geht ... :rolleyes:
 
GHz is doch nicht alles, für einige Bereich wird es gut sein aber für den Heim gebrauch wird es nix sein.

Aber für Serversysteme ist es eine gute Erfindung den noch.
 
Ich finde das gerade für Spiele toll.

Man stelle sich z.B. mal vor jeder Gegner in einem Shooter hat 3Ghz Rechenkraft statt wie heute nur die letzten Krümel abzukriegen die noch übrigbleiben :)
 
@ 12) BeeHaa:
Cinema 4D R10 scaliert wunderbar mit vier Kernen.
der Opensource MP4 AVC encoder x264 läuft ebenfalls Klasse mit vier Kernen und kann sogar acht oder mehr nutzen.
Bei Anwendersoftware sehe ich nicht so große Probleme mit Multicores, eher bei Spielen.
Hier ist die Ausbeute noch mager, die meisten nutzen nur einen Kern.
 
Mh also ich hab nen 3d Chatprogramm, das pro offenem Chatfenster einen Kern benutzt und den je nach anforderung auch voll auslastet. Dafür würd ich mich schon über mehr Cores in einer CPU freuen. zumindest wenn ich mit 3 oder 4 Leuten chatte und nebenher noch Opera, TV-Software und andere Messenger laufen habe.

Für mich also eine begrüßenswerte Entwicklung, wenn sie denn mal den Desktop-Sektor erreicht.
 
Wenn man bedenkt, dass eine Octacore-CPU bestimmt (trotz 32nm) bei ~120-130W liegt und 8x120-130W kein kleines Produkt ist, muss der Einsatzzweck wohl enorm von dieser Plattform profitieren - oder wieso soll man freiwillig auf engstem Raum weit über 1kW Heizleistung (8 CPUs, SpaWa, Chipsatz, Ram) unterbringen?

Ansonsten lese ich schon wieder so extrem viele Intel-typischen Mist aus der Meldung heraus..
Auf einem Mainboard können dennoch Intel Xeon-MP-Prozessoren oder Itanium-Prozessoren nicht wahlweise betrieben werden, da sie eine andere Spannungsversorgung besitzen
Klar - warum auch nicht endlich mal eine "Allround-Plattform" bringen, sondern lieber weiter Sockel-Verwirrung stiften! Nun gut - im Serverbereich sind sowieso meist Leute mit Ahnung dabei, die wissen, welche CPU und welches Board sie brauchen - aber trotzdem.. das ist doch wieder Kinderkacke!

Dann scheint Intel nicht vorzuhaben, den S775 aussterben zu lassen - die guten alten Celerons und anderen LowCost CPUs dürfen ihren FSB behalten. Wozu eigentlich?

Zu guter letzt:
Wie will Intel denn die GPU mit einbinden? Oder anders gefragt - steck ich meinen DVI-Stecker demnächst direkt auf das Package der CPU?

Auf Seiten von AMD hab es mal das Gerücht, Chips mit int. Grafik allgemein zur Grafikausgabe zu verwenden - also egal, ob die int. Grafik selbst, eine GPU auf einer GraKa oder eine GPU im Core verwendet würde, das Signal liefe dann zur int. Grafik und über dessen Ausgabe auf den Bildschirm.

zum Thema Multicores im Desktopbereich:
Ich sitz hier auf nem Singlecore und hab ja sowas von überaupt gar keine Probleme damit, duzende Programme Parallel laufen zu lassen.. Messenger, Steam, Emus, DL, SysTools und eben ein Spiel - tabben geht dank 2GB Ram immer innerhalb von max 1 Sec und die Performance stimmt (selbst zwei Spiele alá CoD2 zu Civ4 laufen zu lassen und hin- bzw herzutabben ist kein Problem..)- ich frage mich nun manchmal, wem ein Dualcore nicht im Alltagsbetrieb ausreicht oder wer von den Hardcore-CBlern seinen Q6600@3Ghz wirklich ausreizen kann.
 
Zuletzt bearbeitet:
Zurück
Oben