News „Ivy Bridge-EN/EP“ mit bis zu 12 Kernen bei 130 Watt TDP

Simon schrieb:
lol, in 10 Jahren steckt so eine CPU in deinem Handy. Da ist nix mehr mit flüssig zocken. ;)

Ganz sicher nicht. Vieleicht ein Core i3 von der Leistung her, aber kein 12 kerniger 24 Thread verabeitender Ivy bridge extreme prozessor.
 
Überleg mal, wo wir vor 10 Jahre waren:

Single-Core mit einem Thread ~2,5 GHz (Intel P4) und 2,0 GHz (AMD K7-Basis)
separater Memory-Controller (im MCH), Single-Channel
separater AGP-Controller
keine IGP

Überleg mal, wo wir heute stehen:

8-Core mit SMT (Intel) oder 8-Moduler mit CMT (16 "Cores") (AMD) jenseits der 3 GHz
integrierter Memory-Controller, Quad-Channel
integrierter PCIe-Root-Komplex (zumindest bei Intel)
integrierte IGP (mit Beschleunigung)

Ein normaler P4 muss sich auch schon ganz schön strecken, um heute gegen einen Handy-Prozessor ala Tegra 3 (oder vgl.) bestehen zu können. Zugegebenermaßen ist das eine andere Architektur, mit IGP-Beschleunigung sieht es hier zappenduster für die alten x86-Boliden aus.

Jetzt denk nochmal 10 Jahre weiter. Dann wirst du sehen, dass der Vergleich nicht allzuweit hergeholt ist.

Und du willst mir nicht erzählen, dass du mit einem P4 oder K7 heute auch nur ein aktuelles Spiel flüssig auf max. Details zocken kannst.
 
Q2/Q3 2013 ist noch sehr weit weg! Schade, Ivy-Bridge-E (bzw. die entsprechenden XEON Varianten) sind demnach noch sehr weit weg ...

Wenn ich mir so durchlese, was hier geschrieben wird, frage ich mich, woher die meisten Schreiberlinge die potentiellen 3500 bis 4000 Euro für eine XEON-EN CPU hernehmen, die ihre 10 oder 12 Kerne mitbringen wird.

Ich schätze, Intel wird den Abstand zwischen den "einfachen" XEON für ein oder zwei Sockel mit max. 8 Kernen/16 Threads nochmals ordentlich erweitern zu den großen 4-Wege Systemen, die dann per Chip 12 kerne/24 Threads mitbringen werden.
 
1.) Also ich denke mit 2x12=24 Kernen bzw. 48 Threads kann man auch schon einen schönen Server bauen, vorausgesetzt es ist genug RAM drin. Da kann ich schon einige virtuelle Maschinen darauf betreiben. Da braucht es nicht unbedingt 4 CPUs.

2.) Also ein P4 mit 1.5GHz verräumt jede aktuelle Handy CPU. Da hat schon ein Atom zu Schnaufen, dass er mit kommt.
2003 hat es schon die ersten A64 gegeben mit 2,2GHz. Wenn man von Multi Core optimierten Anwendungen absieht, dann sind wir heute bei maximal 3,8GHz bei nicht einmal doppelter IPC. Etwas mager für 9 Jahre Entwicklung, wenn man sich ansieht, wie groß der Unterschied zwischen 1994 und 2003 war. Das war von Pentium 1 mit 66MHz bis zum P4 mit 3,2GHz und da wurde die IPC noch genauso gesteigert wie seit 2003.
Das Problem ist, dass einfach nicht mehr Takt drin ist und mit den gewonnenen Transistoren nach einem Shrink auch nichts sinnvolles angestellt werden kann. Ich kann mich noch gut an die Prescott Folien erinnern, wo von 30% mehr IPC und >4GHz die Rede war und dann ab 2005 überhaupt 10GHz. Da ist dann nix draus geworden.
 
[F]L4SH schrieb:
...Daher halte ich Deine Aussage für etwas daneben. Der Benchmarkparcours mag so manches sein - aber realitätsfern ist er ganz sicher nicht. Er entspricht nämlich der absoluten Realität der CB Leser. ...

Ich glaube, du hast meine Aussage missverstanden. :)

Ich meine genau das Selbe wie du.
ComputerBase und die allermeisten anderen bekannten Review- und News-Websites sind auf Consumer ausgerichtet und das ist absolut nichts Schlimmes. Im Gegenteil. Wäre es anders, dann wäre ich auch nicht hier, denn ich arbeite zwar beruflich auch an einer CAD-Workstation (mit Xeon und Quadro-Grafikkarte) aber in erster Linie bin ich Computer-Hobbyist und Spieler. Den Profi-Kram überlasse ich unserer IT-Abteilung und den IT-Dienstleistern. Die werden dafür bezahlt, nicht ich. ;)

Es ging in dieser speziellen Diskussion aber ja auch nicht um die Xeons, sondern um die Consumer-Sockel2011-CPUs, speziell die Extreme Edition, die Intel in der Sandy Bridge-Generation bewusst mit 6 statt 8 Cores auf den Markt gebracht hat. Und das eben nicht, wie chb@ unerstellt hat, aus Bösartigkeit um die Kunden zu benachteiligen, sondern weil das schlicht und einfach sinnvoll ist.

Ein Systemadministrator, der sich solche i7 statt Xeons für seine Server und/oder Workstations anschafft, macht in den allermeisten Fällen irgendwas falsch. Auf jeden Fall kann man Intel schlecht vorwerfen, dass sie ausgewiesene Consumer-CPUs in erster Linie für Consumer-Anwendungen und Spiele auslegen und nicht für professionelle Anwendungen, die sie mit anderen CPUs (Xeons) abdecken.
 
Zuletzt bearbeitet:
@ Simon
Jetzt denk nochmal 10 Jahre weiter. Dann wirst du sehen, dass der Vergleich nicht allzuweit hergeholt ist.
Du hast durchaus Recht, dass in der Vergangenheit die Leistungssprünge gigantisch waren, aber ich denke nicht, dass wir in weiteren 10 Jahren diese Leistung in Mobiltelefonen haben werden!
Ganz einfach deshalb, weil die Entwicklung doch einigermaßen stagniert. Zum einen der Effiziens gefordert - immer mehr Leistung, Energie egal - geht heute einfach nicht mehr, vor 10 Jahren sah das anders aus!
Ferner, schauen wir doch mal auf die aktuellen Desktop-CPUs - 4-Kerne für Gamer / Anwender / Firmen seit 6 Jahren und mehr gibts nicht (die Xeons für die Grafikdesigner, Universitäten, Labore etc. mal ausgenommen) - das stagniert schon erheblich! Schau auf meine alte CPU in der Sig., reicht immer noch für alle normalen Anwendungen!

Klar, die Kernleistung ist optimiert worden, der Verbrauch stark gesenkt - alles gut und schön, aber es geht nicht mehr so schnell voran wie es in den 90ern war!

Dennoch, meine alte Gurke muß weg - pikanterweise nicht weil die Rechenleistung nicht mehr reicht, alle SATA-Plätze sind belegt!
Wenn ich jetzt also in absehbarer Zeit einen Rechner zusammenstelle, wird der einen 6 oder 8 Kerner haben, ich vermute das reicht dann tatsächlich für die nächsten knapp 10 Jahre!

Aber ich lasse mich auch gern überraschen, sollte es nochmal einen Technik-Schub geben, vielleicht helfen ja mal die neuen Konsolen - wenn sie denn überhaupt mal kommen - dann rüste auch ich gern wieder auf.

P. S. Vor 10 Jahren dachte ich, das wir alle Rechner im Stil vom "Rasenmäher-Mann ;)" zuhause haben, verpackt in kleine Desktops aber mit der gleichen Leistung - leider getäuscht auch wenn die Grafik mittlerweile das Niveau erreicht hat!
 
Dann war es wohl ein Missverständnis :)
Hatte die Diskussion zwar verstanden aber diese einzelne zitierte Aussage und deren direktes Umfeld klang wie "Der CB Test ist so scheisse, weil es nicht meinem Anwendungsfest entspricht und überhaupt ist nur das legitim" - denn sowas hört man leider viel zu oft hier.

Die Unterschiede zwischen den Ein-Sockel Xeons und den i7 ist technisch ja im Prinzip nicht gegeben. Mir fällt jedenfalls nichts bedeutendes ein.
Da liegen die Unterschiede nur in der "Software" (wenn man es jetzt bei einem Prozessor so nennen will) und den Boards. Sowie dem Support natürlich. Aber gerade für kleine mittelständische Unternehmen (und da spielt der Preis doch noch eine Rolle) sehe ich gar kein Problem darin einfach mal einen 3930K samt etwas besserem Board zu kaufen und einfach ein paar einige hundert Euro zu sparen.

Aber da habe ich vermutlich einen gewaltigen Denkfehler drin. Irgendwie ist das mit dem Naheliegenden immer so. Fehlen da Instruktionen? Gibt es diese vielleicht bei den X CPUs?
Ich weiß sogar von einem kleinen (mittlerweile nicht mehr ganz so kleinen) Startup von ehem. Klassenkameraden, die für ihre 3D Modelle (die machen viele Dienstleistungen im Bereich Programmierung und Design) Rechner verwenden, in denen übel übertaktete Consumer Hardware läuft. Zwar alles noch mehr als stabil aber schon extrem. Anders geht es bei deren Marge, so dünn wie eine Rasierklinge nach allen Kosten, bei hohem Bedarf an Hardwareleistung einfach nicht. Aber das ist natürlich nur ein Modell für eine wirklich kleine Firma. Es geht ja offensichtlich auch :)
Und für gewisse Schaffensleistung werden da wenigstens schon Quaddro Karten genommen (ich glaube das wertvollste in der ganzen Bilanz :lol:)

E:
Ah ECC war es - ganz vergessen :)
Natürlich will man nicht stundenlange - oder gar längere - Berechnungen auf Non-ECC anstellen! Wozu auch, wenn sich da minimale Fehler und Abweichungen addieren und am Ende das Ergebnis für den Allerwertesten ist. Das weiß sogar ich :D
 
Zuletzt bearbeitet:
@[F]L4SH

Nunja. Die Sockel2011-i7 sind schon ein gewisser Sonderfall.
Die sind nicht nur technisch gesehen eigentlich für den Consumer-Markt "missbrauchte" Xeons, sondern als oberste Enthusiasten-Klasse von Intel auch traditionell eine Art "Rundumsorglospaket", das so ziemlich alle Funktionen bietet, die es derzeit gibt, also grundsätzlich sowohl für Consumer als auch Profi-Anwender taugt.

Aber einige Funktionen, wie z.B. ECC-Fehlerkorrektur sind bei Intel doch Xeon-exclusiv und wenn man einen i7 auf ein Server-Board packt, um z.B. von Features wie SAS zu profitieren, verliert wiederum man gleich wieder die Übertaktbarkeit usw. Es passt eben doch nicht alles unter einen Hut.
Außerdem ist der Fokus der SB-E-i7 auf Consumer doch so groß, dass Intel es für vertretbar hielt, die ersten 3960X und 3930K mit deffektem VT-d auszuliefern. Für Hobbyisten und Spieler ist das kein Problem, aber in bestimmten Server-Anwendungen potentiell schon.

Der Hauptgrund für viele professionelle Anwender und Unternehmen, lieber zu einem Xeon zu greifen, dürfte aber im offiziellen Support liegen. Wenn man z.B. ca. 10.000 Euro für eine Lizenz eines CAD- oder Render-Programms ausgibt, will man dazu auch eine offiziell vom Hersteller unterstützte Hardwareplattform haben, und damit die Garantie, dass alles problemlos läuft, und das sind in der Regel Xeons (und Quadro- oder FirePro-Grafikkarten). Da machen dann auch ein paar Hundert Euro Unterschied im Anschaffungspreis der CPU nichts aus.

Und ab einer gewissen Liga gibt es halt überhaupt nur noch Xeons, wenn es um CPUs mit extrem viel Cores und/oder Multi-Sockel-Systeme geht. Sowas gibt es nicht mehr als Consumer-Modelle, weder von Intel noch von AMD, weil kein Consumer sowas braucht.
 
nen übertaktbarer 12-kern ivy bridge wäre perfekt für lightmapping und allerhand anderer dinge

hoffe nur das intel diesmal brauchbare wlp verwendet :freak:
bei ner 1000€ cpu will ich ungern den ihs entfernen...
 
dowant120hz schrieb:
nen übertaktbarer 12-kern ivy bridge wäre perfekt für lightmapping und allerhand anderer dinge

hoffe nur das intel diesmal brauchbare wlp verwendet :freak:
bei ner 1000€ cpu will ich ungern den ihs entfernen...

Für was? Und wozu übertakten, wenn Du doch gar nicht weißt, wie schnell bzw. wie hoch der Standardtakt ist? Mit mindestens 1600 Euro pro DP-Chip bzw. mindestens 3500 Euro für einen adäquaten 4-Wege Chip wird diese Prozessorenriege wohl Dein Budget um ein Vielfaches sprengen!
 
abgesehen davon, dass man die vermutlich auch wieder nicht übertakten kann, wie die jetztigen Xeons auch. Sehe ich die 8,10 und erst recht 12 Kerner preislich deutlich über 1000€!

Diese CPU´s speziell, die Multisockelversionen sind für alles andere als Gaming gemacht, profitieren würde man aktuell vermutlich gar nicht. Nicht mal 6 Kerne werden richtig genutzt.

Aber mir würde so eine Dual 8+-Kern-Lösung für C4D schon gefallen :p
 
Seid ihr ganz sicher, dass man die Xeons nicht über den "Bus" (ja ich weiß - gibt es so ja nicht mehr, aber jedes Jahr eine neue kryptische Abkürzung merken, ist auch nicht so toll) übertakten kann? Wozu dann das EVGA SRII und SRIII? Welchen Sinn hätte es dann für die ganz Kranken und Wohlhabenden unter den Enthusiasten (und man muss krank sein um sich Dualsockel mit Windows zu holen - soll wohl doch manchmal Probleme geben)?
Die SR Mainboards werben doch explizit mit OC. Kann es vielleicht sein, dass ihr euer Wissen einfach nur von den typischen Tyan oder Asus Serverboards holt? Dort wird kein Wahnsinniger ein OC Feature einbauen.
 
das SR2 konnte es, das lag aber auch an der anderen Architektur der 1366-CPU´s.
Beim SR-X (SR3) auf Basis des S2011 geht leider gar nichts, damit hat es sich in meinen Augen auch komplett disqualifiziert, ein Hammerboard, tolle Features aber dass ich mir dann um halbwegs gute Leistung haben zu wollen nochmal sauteure CPU´s kaufen muss (Stückpreis > 1000€) macht es irgendwie überflüssig.

Da hol ich mir lieber mehrere Standalones, hau nen Consumer 6-Kerner mit freiem Multi rein und arbeite quasi über nen Backroundrenderer/Renderfarm.
Hier war das SR-2 wirklich hammer, viel Power, realtiv guter Preis.
 
Was ich jetzt so schon einmal überhaupt nicht verstehen kann:
Da bringt Intel 12 Kerne mit HT raus (Taktraten noch unbekannt), der ganz klar für professionelle Mulithread Anwendungen gedacht ist und da laufen Leute herum, die das Teil erst einmal übertakten wollen.
Keine Ahnung warum das so ist, aber es ist krank. Wahrscheinlich ist es cool weil es krank ist.
 
warum übertaktet man einen 2600K? weil er dann schneller ist und es quasi "gratis" dabei ist. (weil MANN es kann :p )
Bei den Xeon, also denen für S2011 ist es eben so, man muss sich den kaufen der die Leistung mitbringt, sprich wenn ich 3.2 Ghz haben will, muss ich auch den sauteuren Xeon mit Basis 3.0Ghz kaufen. Beim 1366 hat man sich den günstigen 2.4er geholt und ihn selber auf 3.5Ghz geschraubt und es lief super.

Primär kommt es ja z.B. bei C4D oder AE auf die Anzahl der Kerne an, aber trotzdem ist man mit 12 x 3.2Ghz einfach deutlich schneller also mit 12 x 2.1Ghz.

Ich denke es handelt sich aber um ein Luxusproblem, zumindest bei den HighEnd-Consumer Kisten. Bei Firmen ist es wieder anders, da macht man der Regel keine solchen Experimente und kauft einfach was man braucht - egal wie viel es kostet :p
 
Eisenfaust schrieb:
Für was? Und wozu übertakten, wenn Du doch gar nicht weißt, wie schnell bzw. wie hoch der Standardtakt ist? Mit mindestens 1600 Euro pro DP-Chip bzw. mindestens 3500 Euro für einen adäquaten 4-Wege Chip wird diese Prozessorenriege wohl Dein Budget um ein Vielfaches sprengen!

naja ohne übertakten verschenkt man einfach generell ordentlich performance
zudem skalieren die meißten anwendungen nicht mit mehreren kernen
da wäre die cpu ohne übertaktung langsamer als irgendein billiger dual-core

preislich denke ich dass ~1000€ für das non-xeon(!) modell schon drin sein sollte
ein sandy bridge e mit 6 kernen kostet ja auch "nur" 500€


p.s. lightmapping sowas wie 3d rendering
skaliert fast 100%
 
Herdware schrieb:
Der Hauptgrund für viele professionelle Anwender und Unternehmen, lieber zu einem Xeon zu greifen, dürfte aber im offiziellen Support liegen. Wenn man z.B. ca. 10.000 Euro für eine Lizenz eines CAD- oder Render-Programms ausgibt, will man dazu auch eine offiziell vom Hersteller unterstützte Hardwareplattform haben, und damit die Garantie, dass alles problemlos läuft, und das sind in der Regel Xeons (und Quadro- oder FirePro-Grafikkarten)

Wiedermal CB-typisch nur Halbweisheiten und Blödsinn.

Dassault Systems oder Autodesk ist es HERZLICH egal ob da nun ein i3 oder ein Xeon druntersteckt - deswegen gibts nicht mehr oder weniger Support. Oder was meinst du weshalb es ISV-zertifizierte Workstations mit i5/i7-mobile-CPUs gibt?

Und jetzt komm mir bitte nicht mit "ein Xeon läuft stabiler" - auch das ist nichts weiter als Quatsch.

Auch: für 10k€ kriegt man gerademal ein Mittelklasse-CAD. Für CATIA legt man gut und gern das dreifache hin.
 
Raptor2063 schrieb:
aber trotzdem ist man mit 12 x 3.2Ghz einfach deutlich schneller also mit 12 x 2.1Ghz.

Alles nur eine Frage der Anwendung oder warum glaubst du das echte Server nie über 3 GHz haben. Richtige Cluster haben alle nur um die 2,4 GHz aber dafür eben Software die diese 2,4 GHz jedes Kernes super ausnutzt.
 
Raptor2063 schrieb:
Primär kommt es ja z.B. bei C4D oder AE auf die Anzahl der Kerne an, aber trotzdem ist man mit 12 x 3.2Ghz einfach deutlich schneller also mit 12 x 2.1Ghz.

Wenn schon bitte richtig zitieren und nicht aus dem Zusammemhang reißen.
Ich sage ganz klar zum Beispiel. Es ist also extrem von Anwendungsfall bzw. der Software abhängig. Es gibt aber eben schon einige Anwendungen wo man primär von der Kernzahl profitiert, wenn diese dann aber auch noch schneller als eine vergleichbare Anzahl langsamer Kerne sind ist man schneller. Dass nicht alles 1:1 skaliert sollte auch klar sein.

Also ich merke schon um der 980X mit 2.5Ghz oder mit 3.5Ghz rendert, sowohl in C4D als auch in AfterEffects oder teilweise PremierePro. Von daher ist ein System auf Basis eines SR-2 mit übertakteten Xeons nicht uninteressant. ;)
 
Zurück
Oben