News Intels Zehn-Kern-Prozessor im Anmarsch

Die sollten anstatt immer neue Kerne auch mal dafür sorgen, dass die einzelnen Kerne mehr Takt haben.
 
wieso ? amd hat ja schon 12 Kerne und mit Bulldozer kommen 8 Module bzw wenn man es so haben will 16 kerne

Der bisherige 12-Kerner besteht aus 2x6 Kernen. Deshalb ist es kein nativer 12-Kerner.

Und ein Bulldozer mit 8 Modulen muss zuerst einmal zeigen ob es der Leistung gerecht ein 16-Kerner ist oder ob es doch nur ein 8-Kerner ist, der in speziellen Fällen schneller ist.
 
@Spezialist
Hehe FH ist ja auch meistens besser. Wir haben einen von der TU, der wusste nicht mal wie man den Schraubenzieher richtig hält ;)

Aber es stimmt schon das neue Wissen muss aus der Praxis kommen und wenn der Prof. schon seit Jahren "nur" unterrichtet, dann kann das "Neue" viele überfordern.
 
-diese Xeon werden wahrscheinlich für den Übergroßen Sockel 2011 in Servervariante sein
Wahrscheinlich eher Sockel 1567 als Upgrade des Nehalem EX, oder?
 
Spezialist schrieb:
Dem kann ich nicht zustimmen. Es gibt einfach Algorithmen und Abläufe die sich nicht parallelisieren lassen. Abgesehen davon gibt es immer bessere Methoden um parallelen Code zu schreiben, z.B. die Parallel Extensions für .NET.

Ich gebe dir recht, dass man nicht alles parallelisieren kann und genau das meinte ich auch. Um ein Beispiel zu geben:

1. Man spannt ein Pferd vor einen Wagen(Kutsche ;) ) -> Der Wagen wird gezogen, aber langsam
2. Danach spannt man ein zweites Pferd vor den Wagen und beide müssen nur die Hälfte ziehen, ergo geht die fahrt besser/schneller = Lastenteilung
3. Im Ergebnis überlädt man die Kutsche und spannt 4 Pferde vor den "Karren", damit es wieder genau so läuft/fährt wie vorher.
4. Jetzt kommt dann der Punkt, an dem man weder mehr "Ballast" beladen kann und zusätzlich es nichts mehr bringt weitere Pferde zusätzlich zu nehmen. 8 Pferde könnten zwar mehr Gepäck tragen, aber sind dennoch nicht schneller als 4.

Ironischerweise haben wir mit CPUs zurzeit genau diese Situation. Mehr Kerne haben zwar mehr Rohperformance, das Ergebnis wird aber nicht unbedingt schneller erreicht. Vgl. INtel i7 980x vs Sandy-Bridge. Die Power liegt brach, weil sie nicht genutzt werden kann.

Das einzige was man mit mehr Kernen und kleinerer Fertigungstechnologie erreicht ist evtl. Energieeffizienz (für dies Beispiel setze ich TDP mit Stromverbrauch gleich, obwohl wir alle wissen, dass das falsch ist. Es dient nur zur Veranschaulichung und ich lasse mich deswegen gerne steinigen :freaky:).

1. Vorher hatte man 2-4x Quad-cores im Server, mit jeweils 80-130W TDP
2. Es kommen neue Generationen und plötzlich haben wir 2x6-Kerner + SMT, die jeweils mit 95-130W arbeiten
3. wie soll es anders sein, 2x 6 Kerne gelangen durch geringere Fertigungsgrößen in eine CPU und wir haben dann 150W TDP. Die CPU-Leistung steigt, aber die Programme können nicht auf Knopfdruck mehr kerne unterstützen.

Sieht noch jemand den Teufelskreis? Klar, man sagte mal man bräuchte nie im leben einen Dual-core und dieses jahr gibt es schon Handies und Tablets mit so einer Leistung :king:

Spezialist schrieb:
Über deine Aussage über die Unis sag ich mal lieber nichts. Ich war "nur" auf einer FH, und habe immer das neueste gelehrt bekommen.

Es kommt sehr auf die Uni/FH an. Fördergelder + Studiengebühren und Anzahl/Qualifikation der Profs sind das Eine.

Meistens steht aber hinter jedem System ein Gremium das über Jahre den groben Lehrplan für die Studiengänge beschließt. Je nachdem wie "fähig" diese leute sind hält es sich mit der Aktualität des Stoffs.

Neues ist da immer dabei, aber selten/nie das Neueste. Bis es zu den Gremien/Profs vordringt fahren die weiter "ihr altes (Studien-)Program". An manchen Standorten können sie nichtmal für Dual-cores programmieren, geschweigedem einen 10-Kerner von Intel oder von wem sonst. Dieses Bild zieht sich durch die ganze Landschaft und deshalb gibt es nicht genug Nachschub an fähigen Programmierern, die es könnten. Das bringen sich viele noch selbst bei, wenn sie an die richtigen Quellen gelangen => deine Beispiele.
 
LundM schrieb:
wobei nativ nicht immer besser ist.

gibt ja genug beispiele wo virtuelle kerne mit einem echten gleichzihen.
Welche Anwendungen auf welcher CPU sollen das bitte sein? HT hat mehr Vorteile, je weniger der Architektur der CPU optimiert ist, denn die Optimierungen zielen ja gerader darauf ab, die Recheneinheit des Cores möglichst ständig zu nutzen, HT nutzt dagegen den wartenden Core für den anderen Thread. Deswegen bringt HT beim Atom auch viel mehr als bei i7.
LundM schrieb:
denk aber AMD ist aktuell auf einem besseren weg.
Frage ist nur ob die 8% mehr platz Bedarf später evtl zu viel werden wens wider kleiner wird.

wird ja nicht bei 32nm bleiben.
Sicher ist AMD damit auf dem besseren Weg, denn die bekommen mehr Rechenpower auf weniger DIE Fläche hin. Und wieso sollte der Platz zuviel werden? Wenn ich 12% mehr Platz aufwende und dafürr 80% mehr Leistung bekomme, dann ist das unabhängig von der Strukurgröße ein gutes Geschäft, sonst würden ja nicht AMD und Intel sowas machen.

Cybertronic schrieb:
Ach, da blickt doch keiner mehr durch....AMD hat auch 12 und 16 Cores Server-CPUs. Andere stellten bereits 100Cors vor etc...
Die 12 und 16 Core AMD CPUs haben 2 Dies und deshalb auch den länglichen Sockel. Die CPUs mit 100 Cores haben ja auch wesentlich weniger komplexe Cores. Jeder GPU hat ja im Grund auch reichlich Cores, bis mehrere 100. Nur sind die eben wenig komplex, hoch speziell und daher eben auch sehr klein.

Cybertronic schrieb:
Toll, aber eben nur für spezielle Anwendungen, letztlich nicht anderes als bei GPUs, die man ja heute auch für mehr als nur Graphik verwendet. Es gibt nur leider nicht so viel Anwendungen / Algorithmen, die derart parallel sind, dass dies auch immmer Sinn macht.
Berechne mal den MD5 Hash einer großen Datei. Das geht nicht parallel, aber wer den MD5 Hash eines Passworts knacken will, der kann das wohl parallel machen.
Hardware_Hoshi schrieb:
Naja, 10-Kerner sind uninteressant für die meisten Standardanwendungen. Optimierte Bild-/Videobearbeitung, Load-Balancing etc. könnten natürlich davon profieren. Das müsste sich aber erst noch herausstellen. Viele Anwendungen sind mitlerweise für ein oder mehrere Quad-Core-Serversysteme optimiert, wenn überhaupt. Das heißt 4,8,16 Kerne + deren virtuelle Abbilder für 10-25% extraboost je nach Szenario. Dies gilt zumindest im Moment. 6,10,12-Kerne sind noch nicht so der Renner, obwohl sie jeder will :freak:.

Das Problem ist einfach, dass viele Programmierer nicht für Multicore programmieren können. An den Unis wird das nicht gelehrt - die sind meistens noch für Programmierung auf Single-core-Niveau und lehren uraltes Material das in den 90ern und eventuell kurz nach der Jahrtausendwende gültig war.

Mehr Kerne sind sicher nicht schlecht, aber es erinnert irgendwie an das GHz-Rennen mit P4 und Athlon. Irgendwann macht es keinen Sinn mehr mit mehr Kernen zu arbeiten. ERST DANN kommt die große Optimierungswelle. Tja, evtl. haben wir dann alel 128-Bit-Prozessoren, weil die Register zu klein geworden sind :king:
Die Optimierungswelle ist doch voll in Gang, oder wie würdest Du die Turbo Technologie fast alle aktuellen CPUs sehen? Weil eben nicht alles parallelisierbar ist (es gibt ja auch eine gewaltigen Overhead beim Kontextswtich, teste mal selbst wieviele Dein Rechner schafft), taktet man eben eine Core höher, wenn die anderen nicht zu tun haben. Letztlich ist das genau der Kompromiss, denn man für die Praxis braucht: Single Thread Anwendungen möglichst auf dem Beschleunigten Core schnell abzuarbeiten und wenn parallele Anforderungen kommen, diese auch viele Cores verteilen.
Außerdem sind 128bit Register schon Schnee von gestern, AVX hat 256bit Register. Man verarbeitet eben heute nicht nur die Daten parallel auf mehreren Cores, sondern auch mehrere Daten mit einem Befehl. Darauf zielen die meißte Befehlserweiterungen wie SSEx ab.

Spezialist schrieb:
Dem kann ich nicht zustimmen. Es gibt einfach Algorithmen und Abläufe die sich nicht parallelisieren lassen. Abgesehen davon gibt es immer bessere Methoden um parallelen Code zu schreiben, z.B. die Parallel Extensions für .NET.
Richtig, man kann nicht alles parallelisieren und selbst wenn, es macht nicht immer Sinn, weil der Overhead zu hoch ist.

Mexdus schrieb:
Die sollten anstatt immer neue Kerne auch mal dafür sorgen, dass die einzelnen Kerne mehr Takt haben.
-> Turbo, gibt es doch schon. Mehr als eine einstellige GHz Frequenz ist aber eben sehr schwer zu realisieren, deshalb ist man ja auch Multicore CPU ausgewichen.
 
Holt schrieb:
Die Optimierungswelle ist doch voll in Gang, oder wie würdest Du die Turbo Technologie fast alle aktuellen CPUs sehen? Weil eben nicht alles parallelisierbar ist (es gibt ja auch eine gewaltigen Overhead beim Kontextswtich, teste mal selbst wieviele Dein Rechner schafft), taktet man eben eine Core höher, wenn die anderen nicht zu tun haben. Letztlich ist das genau der Kompromiss, denn man für die Praxis braucht: Single Thread Anwendungen möglichst auf dem Beschleunigten Core schnell abzuarbeiten und wenn parallele Anforderungen kommen, diese auch viele Cores verteilen.
Außerdem sind 128bit Register schon Schnee von gestern, AVX hat 256bit Register. Man verarbeitet eben heute nicht nur die Daten parallel auf mehreren Cores, sondern auch mehrere Daten mit einem Befehl. Darauf zielen die meißte Befehlserweiterungen wie SSEx ab.

-> Turbo, gibt es doch schon. Mehr als eine einstellige GHz Frequenz ist aber eben sehr schwer zu realisieren, deshalb ist man ja auch Multicore CPU ausgewichen.

Der Turbo ist ein zweischneidiges Schwert und sollte im Serversegment komplett wegfallen. Man ist einfach viel zu angewiesen dass diese Technologie richtig funktioniert und kann es meines Wissens nach (noch) nicht richtig beeinflussen.

Wenn du dir die Lastverteilung einmal anschaust hast du Berg-und-Talfahrten in der Auslastung. Bei maximaler Parallelisierung geht es nur um die Anzahl und Zuweisung der Threads (Aufgaben) bzw. deren einzelne Rohpower. Diese richtige Zuweisung ist es was die Power bringt, nicht die GHz-Zahl selbst. Hier besteht bei weitem noch viel Potential nach oben ohne mehr Kerne!

Thema Register:
-Es ging mir um die Adressen/Speicherzuteilung von CPUs selbst, nicht in Programmierung. Ich meinte man hätte bis dahin schon 128-Bit-CPUs mit entsprechend mehr Speicher, nicht die Softwareregister/Erweiterungen.

Mehr Threads = mehr zu verwaltende Adressen über die alle Speicherbänke schaufeln müssen. Die Verwaltung hierfür wird bei Manycores um so komplexer, deshalb weren auch überall Caches als Puffer eingepflanzt. Jeder bedient sich wie er will -> nicht elegant, aber einzige Lösungsmöglichkeit.
 
cob schrieb:
@Spezialist
Hehe FH ist ja auch meistens besser. Wir haben einen von der TU, der wusste nicht mal wie man den Schraubenzieher richtig hält ;)

Aber es stimmt schon das neue Wissen muss aus der Praxis kommen und wenn der Prof. schon seit Jahren "nur" unterrichtet, dann kann das "Neue" viele überfordern.

So ein Schwachsinn. Wer soetwas schreibt hat das System nicht verstanden.

An einer Fh kommen wissenschaftliche Zusammenhänge praktisch zur Anwendung. Man lernt Praxisorientiert mit der Zielstellung in Unternehmen eingesetzt zu werden.

An der Universität sieht die Zielstellung ganz anders aus. Hier lernt man von Anfang an die graue Theorie, wissen wird theoretisch vermittelt. Die Anwendung tritt in den Hintergrund und wird nur für die Veranschaulichung genutzt.

Dieser Ansatz bietet im Berufsleben Vor- und Nachteile. Es ist allgemein bekannt das maximal 10% des Studieninhaltes später im Berufsleben relevant sind. Mit einem abgeschlossenen Hochschulstudium weißt man lediglich nach, dass man wissenschaftlich arbeiten kann.

Sicherlich hat ein Fhler Vorteile durch seine praxisorientierte Ausbildung. Der Vorteil eines Hochschulabsolventen besteht darin neue Sachverhalte schnell bis in die Tiefe zu verstehen und anwenden zu können. Denn an der Universität hat man mit besonderer Härte die altbekannten Grundlagen der Naturwissenschaft mitbekommen um neue Erkenntnisse schneller zu verstehen und beherschen zu können. Somit ist der Hochschulstudent mehr für die forschende Entwicklung geeignet als der Fh- Student.

Erfahrungen bei meiner Tätigkeit in einer Studienkommission bestätigen dies. Automobilhersteller (OEMs) die mit dem Studieninhalt eines speziellen ingenieurtechnischen Studienganges konfrontiert worden sind forderten weniger angewandte Inhalte und Fächer, sondern mehr und vertiefendere Naturwissenschaftliche Grundlagen (höhere Mathematik, Physik, Strömungslehre, Technische Mechanik) von den Absolventen. Als Begründung wurde die rasche Technologische Entwicklung genannt. Was heute aktuelle ist kann morgen veraltet sein. Es wird eine ganzheitliche tiefere Sicht in die Naturgesetze gewünscht, um später flexibler zu sein.

Ich studiere zur Zeit Master (of Science) an einer Uni. Mir ist bewusst das das kein Berufsabschluss in dem Sinne ist. Wenn ich fertig bin und in einem Unternehmen arbeiten darf, muss ich mich wahrscheinlich 1-2 Jahre erstmal eingewöhnen und viel lernen. Bis dahin bin ich für das Unternehmen wenig produktiv. In der Zeit werde ich mich sicherlich das ein oder andere mal vor den alteingesessenen blamieren. Aber auf lange Sicht ergeben sich Vorteile für das Unternehmen.

Leider treten kurzfristige wirtschaftliche Interessen immer mehr in den Vordergrund - wesswegen Universitäten teilweise auch immer mehr Anwendungsorientiert lehren. Die unproduktive Anlernphase bei Fachhochschulstudenten soll kürzer sein weil sie mehr praxisorientiert ausgebildet worden. Aus diesen und anderen Gründen ist der Gehaltsvorsprung eines Hochschulabgängers vor einem Fachhochschulabgänger leider nicht mehr so wie früher. Des einen Freud ist des anderen Leid.

Mfg

C170DAW
 
Zuletzt bearbeitet:
WhIteX schrieb:
Wäre aber ein toller Prozessor und würde AMD wieder übertrumpfen, auch wenn ich das nicht will :D
Obwohl die Anschaffung hier wieder beim Preis scheitern wird..
Sicher ist nichts.

Auch heute gibt es einen 8-Core-Prozessor, der sich aber gegen Magny-Course trotz 32nm-Vorteil oft in sachen Performance-pro-Watt den kürzeren zieht.

Es wäre überhaupt interessant, ob der 10-Core überhaupt in den Desktop kommt, so wie der 8-Core ja nicht in den Desktop kam.

AFAIK kommt ja noch ein 6 oder 8-Core-Sandy-Bridge mit extra teuren Mainboards für die Hardcore-Gamer auf dem Markt.
 
wird wohl eher S2011 werden wie wollen sie bei gleicher fertigungsgrösse nen doppelten I7 980 herstellen?
 
@C170DAW

auch wenn´s OffTopic ist - nach 4 1/2 Jahren FH-Studium und nunmehr 6 Jahren Berufsleben kann ich Deine Sicht der Dinge voll und ganz bestätigen. Mehr gibts einfach nicht dazu zu sagen.
 
für das absolute High-End-Segment der Server-Prozessoren plant Intel

das heißt bei Intel im Desktop Bereich, mind. 1000€
und bei Server bis 3500€
Intel Xeon MP X7560, 8x 2.26GHz, Sockel-1567, boxed (BX80604X7560) ab €3490,-
 
Knuddelbearli schrieb:
amd hat ja schon 12 Kerne und mit Bulldozer kommen 8 Module bzw wenn man es so haben will 16 kerne
Tja, der SPARC T3 hat schon jetzt 16 Kerne und kann 128 Threads bearbeiten. ;)

Aber schön zu sehen, wie die x86 Welt versucht, den RISCs bei der Innovation hinterherzulaufen. :rolleyes:

Hardware_Hoshi schrieb:
diese Xeon werden wahrscheinlich für den Übergroßen Sockel 2011 in Servervariante sein

Knuddelbearli schrieb:
wird wohl eher S2011 werden

Nein, Boxboro = S1567 (und ECC gehört da zum Standard)

aylano schrieb:
Auch heute gibt es einen 8-Core-Prozessor, der sich aber gegen Magny-Course trotz 32nm-Vorteil oft in sachen Performance-pro-Watt den kürzeren zieht.
Nehalem EX wird noch in 45nm gefertigt. Westmere EX wird wahrscheinlich nicht weniger Strom verbrauchen, aber durch zusätzlichen Kerne wird wohl mehr Leistung zur Verfügung stehen. Der Takt könnte dank 32nm auf 2,33 GHz steigen.
 
@CHAOSMAYHEMSOAP
Danke für den Hinweis, hab es vor lauter technischer Angaben im Text überlesen!

BTT:
Dieser Sockelwahnsinn bei Intel geht mir immer mehr auf die Nerven! Ich werde wohl mein Dual 1366 mit 2x XEON L5520 behalten und dann auf Westmere umsteigen wenn man sie nachgeschmissen bekommt. Vor 2013 bekommt Intel kein Geld mehr für ihre bescheidene Politik!
 
Intels Politik ist echt mies.Aber von Seiten AMD kommt einfach zu wenig,sie hinken irgendwie immer hinterher mit ihren CPUs.
 
Spezialist schrieb:
Dem kann ich nicht zustimmen. Es gibt einfach Algorithmen und Abläufe die sich nicht parallelisieren lassen. Abgesehen davon gibt es immer bessere Methoden um parallelen Code zu schreiben, z.B. die Parallel Extensions für .NET.
Über deine Aussage über die Unis sag ich mal lieber nichts. Ich war "nur" auf einer FH, und habe immer das neueste gelehrt bekommen.

Es gibt aber die Moglichkeit von virtuellen Systemen ;) Da sind mehr Kerne ne wahre Freude.

@Knuddelbearli

Dein Zitat in deiner Signatur ist falsch. Das hatte mal nen AMD Manager gesagt.

Knuddelbearli schrieb:
also ich dachte mir zumindest bis ich ihn fertig gelesen haben wtf wie wollen die 10 Kerne in 32nm schaffen wenn sie jetzt erst 6 Kerne in 32nm mit weniger L3 haben

Intel hat auch 8 Kerne in 45nm. Also dürfte es in 32nm kein Problem sein.

Mexdus schrieb:
Die sollten anstatt immer neue Kerne auch mal dafür sorgen, dass die einzelnen Kerne mehr Takt haben.

Aha so wie beim Pentium 4 :freak: :rolleyes:

Der Preis sollte in der Gegend der 8-Kerner sein. Also 3500€ werden sie bestimmt schon kosten.
 
Mexdus schrieb:
Die sollten anstatt immer neue Kerne auch mal dafür sorgen, dass die einzelnen Kerne mehr Takt haben.

Von mir aus kann der Takt auch nur 1 Ghz betragen, denn die leistung pro Takt ist ausschlaggebend.
 
für server ja, desktop nein. aber ist echt interresant wie sich das gewandelt hat. p4 mit ghz wan und jetzt core wan:) von einem extreme ins andere:) bei intel 10core und bei amd 16core *gg*

bin gespannt wann endlich die kohlenstoffnano-röhren raus kommen bzw. 1ghz transitoren. dauert aber noch sehr lange
 
Westmere-EX ist halt nur der "Tick" nach dem Nehalem-EX (Beckton).
Kein Grund sich hier gegenseitig die Köpfe einzuschlagen.

Die Software, die gut auf ein Nehalem-EX-System skaliert (HPC, Datenbanken, Virtualisierung), wird auch gut auf einem Westmere-EX-System laufen.
Am Ende kommen halt statt 8x2,26 GHz dank 32-nm-Technik 10x2,4 oder sogar 2,53 GHz bei rum. In einer 8S-Konfiguration kommen dann immerhin 80 Kerne je zwei Threads mit einer Gesamtspeicherbandbreite von theoretisch gut 400 GB/s (DDR3-800) zusammen.

Der Preis spiel hier sowieso keine sonderlich beachtenswerte Rolle. Der große Nachteil der Plattform sind ohnehin die zusätzlichen Speicherpuffer, die den Stromverbrauch unnötig in die Höhe treiben, weil Intel sich bei der MP-Plattform nicht komplett von der Fully-Buffered-Speicherlösung trennen konnte.
 
Zurück
Oben