News Intel-Prozessoren: Xeon D mit 16 Kernen und Broadwell-EP in den Startlöchern

D708 schrieb:
Nun ja was ist eigentlich mit der IPC sagen wollte ist folgendes,
Die IPC hängt vom ganzen Prozessor ab, ist also auch Kernabhängig. Sagen wir, beide CPUs haben 1000 IPC. Der eine hat einen Kern, der andere 10 Kerne. Das bedeutet, der 10Kerner hat ne ganz miese SingleThreadLeistung aber macht das über die Anzahl der Kerne wett.

IPC bezieht sich immer auf einen Kern einer CPU Architektur. Die Faktoren für die theoretische optimale Skalierung (->Performance) sind Anzahl und Frequenz.

Klar die TDP wurde gesenkt, was aber in einem Serverschrank pups egal ist. Wie der Verbrauch aussieht, weiß auch niemand(bis auf Intel/Mainboardhersteller). Und selber der Verbrauch ist den Leuten/Rechenzentren pups egal.

Energiebedarf bzw. Abwärme in Relation zur Performance sind elementare Kennzahlen. Leistungsdichte pro Rack, notwendige Kühlung, Dimensionierung der Notstromversorgung und Energiekosten.
 
YforU schrieb:
IPC bezieht sich immer auf einen Kern einer CPU Architektur.

Wo habt ihr das her. Wenn ich mir die Maßeinheit angucke, spricht man immer von Processores und nie von Cores. Auch wird die Fließkomma Berechnungen immer auf allen Kernen benutzt und angegeben.
 
D708
Hier geht es nur noch um Wortklauberei und sonst um nichts mehr. Klar ist, dass diese hier in der News beschriebene CPU nichts mit Gaming am Kinderzimmer PC zu tun hat und jegliche Andeutung zum Thema Gaming eine Themaverfehlung ist. Anstatt dies die Wortklauber klar stellen, wollen diese lieber nur einen auf besser Wissende machen. Um eben einen auf besser Wisser zu machen, ist ihnen jede Gelegenheit recht. Die letztlich getätigte Aussage von dir, dass das Thema Gaming hier sinnbefreit ist, ist korrekt, aber besser Wisser haben andere Prioritäten in so einem öffentlichen Forum.
 
Beispiel AMD: http://cdn.wccftech.com/wp-content/uploads/2015/05/Zen-IPC-Gain.jpg
Beispiel Intel: http://i.imgur.com/jzif45o.png
Beispiel ARM: http://cdn.arstechnica.net/wp-conte...x-a72-relative-to-a57-performance-980x551.png

Der Kontext der IPC ist die Performance per Core bei identischer Frequenz. Also eine Leistungsklassifizierung für CPU Architekturen. Grob definiert sich das eigentliche Produkt dann über Anzahl der Kerne sowie die Frequenz. Im Detail ist die Skalierung natürlich nicht ganz linear und von weiteren Faktoren (wie Memory, Cache Subystemen, Interconnects etc.) abhängig.
 
Zuletzt bearbeitet:
Um mein Problem dahinter zu erklären, in jeder Liste von Instructions per sec(Takt und IPC zusammen) tauchen nur Angaben auf, die immer nur zusammen mit den Kernen wirken.
Ein FX 8350 bei 4,2Ghz hat 97 MIPS und der Sandy bei 3,4 117 MIPS. Dazu kommt, das man schwierig bei einem Fx nen einzelnen Kern sich rauszusuchen um IPC zu vergleichen. Das gibt die Architektur nicht her. Ein 2500k ungefähr 84 MIPS bei einem Takt von 3,3 GHz. Alleine hier wird deutlich, das der IPC auch innerhalb der Generation stark schwanken kann.

Das sind offizielle Intelzahlen. Jetzt frag ich mich, irgendwie drehen die ihre Statistiken auch, wie die wollen. Es ist nicht alles Gold was glänzt.
 
Die IPC lässt sich natürlich auch per CPU oder auch GPU Cluster darstellen. Statisch (->identisch) sind dabei immer die Anzahl der Einheiten und die Frequenz. Üblich ist per Core.

Beispiel: http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation/9

Der Bezug ist die Prozessor Architektur und nicht die Anzahl der Einheiten im Produkt. Diese sind keine Variable.

D708 schrieb:
Dazu kommt, das man schwierig bei einem Fx nen einzelnen Kern sich rauszusuchen um IPC zu vergleichen. Das gibt die Architektur nicht her. Ein 2500k ungefähr 84 MIPS bei einem Takt von 3,3 GHz. Alleine hier wird deutlich, das der IPC auch innerhalb der Generation stark schwanken kann.

Genau deshalb muss die Taktfrequenz zum Vergleich genauso wie die Anzahl der Einheiten normiert werden. Siehe Anandtech. Ist auch bei BD kein Problem. Siehe (per Core und 2 Module): http://www.planet3dnow.de/cms/18564...er-architekturen/subpage-rendering-cinebench/

Ergänzend dazu: Examining Soft Machines' Architecture - An Element of VISC to Improving IPC
http://www.anandtech.com/show/10025/examining-soft-machines-architecture-visc-ipc
 
Zuletzt bearbeitet:
D708 schrieb:
Die IPC hängt vom ganzen Prozessor ab, ist also auch Kernabhängig.
Nein, wie schon gesagt wurde ist die IPC immer auf einen Kern bezogen und auf den Takt normiert, die Anzahl der verarbeiteten Instruktionen wird also durch den Takt geteilt. An der Dinition wirst auch Du nichts ändern, ob Du sie nun verstehst oder nicht. Die Programme / Benchmarks zur Ermittlung können unterschiedlich sein und damit auch die Ergebnisse, die Methode bleibt aber immer die Gleiche.
 
Zuletzt bearbeitet:
D708 schrieb:
Allerdings zu sagen, das der Takt nichts mit der IPC zutun hat und sich im nächsten Satz selber zu wiedersprechen ist schon lustig.

IPC hat direkt mit dem Takt auch nichts zu tun, der Zyklus ist hier ja immer bei einem. Aus der IPC mit dem Takt folgt dann die IPS, die gibt die Leistungsfähigkeit des Cores (oder aufsummiert für die gesamte CPU) an bei einem spezifischem Takt.

Nicht verwechseln, kann man doch sogar hier nachlesen:

https://de.wikipedia.org/wiki/Instructions_per_Cycle
https://de.wikipedia.org/wiki/Instruktionen_pro_Sekunde
 
Zuletzt bearbeitet:
Jedes mal, wenn ich "Broadwell-EP" oder nur den Zusatz "EP" lese, kommt es mir so vor, als würde eine Newcomer-Band eine Vorschau auf das kommende Studioalbum veröffentlichen :evillol:


Gruß,
Der Doc.
 
D708 schrieb:
Und auch Intel kocht nur mit Wasser. Die IPC ist vielleicht die beste von Intel, nützt dir aber Absolut garnix, den IPC und Takt zusammen geben das die Instruktion per Sec an und da stinkt das Teil gegen einen aktuellen 3,3 GHz Xeon 8Kerner ab. Den das Intel ihre IPC verdoppelt haben nur über die Architektur,halte ich an den Haaren herbeigezogen
So wie ich mir das denke, holt der Xeon D 16Kerner gegen einen "alten" Xeon 8 Kerner vielleicht 220% mehr IPC raus. Das würde bedeuten, der liegt auf dem Niveau eines 2,86Ghz alten Xeon 8Kerner. Beeindruckend aber nicht Absolut besser. Das ganze vorausgesetzt symmetrischer Belastung. Klar die TDP wurde gesenkt, was aber in einem Serverschrank pups egal ist. Wie der Verbrauch aussieht, weiß auch niemand(bis auf Intel/Mainboardhersteller). Und selber der Verbrauch ist den Leuten/Rechenzentren pups egal.

Na wenn den "Leuten/Rechenzentren" der Verbrauch "pups egal" ist, warum geht der Xeon-D dann seit seinem Erscheinen weg wie warme Semmeln, so dass fast nichts lieferbar ist? Aber ja du hast natürlich Recht und die Leute bei Facebook haben keine Ahnung von ihrem Rechenzentrum.
 
OVH hat sein komplettes Entry-Segment und Teile anderer Bereiche auf Xeon-D umgestellt. Alleine wegen Verbrauch und 10G. Bedeutet Boards im sechs stelligen Bereich als Bestellung. Die kommen aber auch nur tröpfelnd an. Das passt auch zur eingeschränkten Verfügbarkeit in EMEA. Andere Storage und Network Appliance Hersteller haben mit angekündigten Xeon-D erhebliche Lieferverzögerungen, die wohl nicht an der Software liegt, wenn man das Gemunkel hinter vorgehaltener Hand glauben möchte.

Der Markt zu groß, die Herstellung läuft nicht rund. Das geht besser.

D708 schrieb:
Und auch Intel kocht nur mit Wasser. Die IPC ist vielleicht die beste von Intel, nützt dir aber Absolut garnix, den IPC und Takt zusammen geben das die Instruktion per Sec an und da stinkt das Teil gegen einen aktuellen 3,3 GHz Xeon 8Kerner ab. Den das Intel ihre IPC verdoppelt haben nur über die Architektur,halte ich an den Haaren herbeigezogen

Der soll ja den großen Xeons gar keine Konkurrenz machen, adressieren doch beide Linien ganz andere Segmente. Die großen kosten da locker das 5 fache mit Board.

D708 schrieb:
Klar die TDP wurde gesenkt, was aber in einem Serverschrank pups egal ist. Wie der Verbrauch aussieht, weiß auch niemand(bis auf Intel/Mainboardhersteller). Und selber der Verbrauch ist den Leuten/Rechenzentren pups egal.

Wer erzählten denn solchen Mist? Im Data Center zählt jedes Watt, da hier nicht nur das Watt anfällt sondern meist mindestens verdoppelt wird für anfallende Kühlung. Racks können auch nur eine bestimmte Kapazität an Leistung und Abwärme aufnehmen. Dann muss noch die energetische Anlage den Mehrverbrauch entsprechen, Mittelspannungsanalage, Schaltanlagen, Diesel, USV,..Wenn wo der Stromverbrauch zählt, dann dort. Gibt es doch schon seit langen dort die Begriffe Performance pro Watt und entsprechende Benchmarks. Da ist der Preis der Hardware nur zweitrangig. Was nicht interessiert ist die Lautstärke der Lüfter...
 
Zuletzt bearbeitet:
strex schrieb:
Wer erzählten denn solchen Mist? Im Data Center zählt jedes Watt, da hier nicht nur das Watt anfällt sondern meist mindestens verdoppelt wird für anfallende Kühlung.
Ist das immer noch so? Laut Wikipedia lagen Google und MS schon 2008 weit unter einem PUE Wert von 2. Aber ich weiß natürlich nicht, ob die repräsentativ für die Branche sind.

So oder so soll das natürlich keine Kritik an der grundsätzlichen Aussage deines Post sein. Der stimme ich vollkommen zu.
 
Naja, die ganz großen Hyperscaler (Google, Microsoft, Amazon, etc.) spielen natürlich schon noch mal in einer anderen Liga. Die sind ja auch größtenteils "relativ" standort-unabhängig und bauen sowieso ständig um.

Danach kommen dann größere RZ-Betreiber (Rackspace, IBM Softlayer, OVH, etc.), die natürlich auch ein Interesse an möglichst geringen Betriebskosten haben.

Die klassischen Enterprise-Kunden ziehen mittlerweile nach aber viele sind von einem PUE-Wert von 1,2 oder weniger sicher noch weit entfernt.
 
Das ist immer abhängig von der geografischen Lage und der eingesetzten Technologie. Nicht umsonst haben die mit guten PUE-Werten ein Standort mit günstigen Bedingungen. Länder im Norden können hier deutlich sparen oder aber auch an Küsten und somit die PUE senken. Nicht umsonst erreicht OVH hier ziemlich gute Werte in Kanada, wo Umgebungsluft kalt, Wasser kalt und das Wasser auch direkt für die Kühl eingesetzt wird. Im Winter muss die Kühlung kaum laufen. In Ländern wo es recht warm ist oder kein kaltes Wasser verfügbar ist, ist das nur schwer möglich, wenn man nicht auf ziemlich warme Temperaturen im DC setzt. Etwa in Spanien oder Italien ist so ein Wert schwer erreichbar, in Norwegen aber schon. Deshalb ist kein grundsätzliche Angabe möglich, aber ein Richtwert und dieser liegt in dieser Gegend und dann spart man immer noch nur beim Energieaufwand für die Kühlung, aber nicht für die zusätzlichen energetischen Anlagen die für den höheren Stromverbrauch notwendig sind.

Klassische Enterprise-Kunden verwenden in der Regel keine selbstgebauten Kühlanlagen wie OVH mit direkter Wasserkühlung aus dem örtlichen Fluss, sondern kühlen klassisch und mit deutlich höherer PUE und höheren Kosten für die Kühlung. Da liegt die übliche PUE immer noch locker bei 1,7 bis 2 oder darüber.

So noch ein paar Zahlen, wenn auch drei Jahre alt:

I updated the post in 2012 with the latest data, concluding that most data centers still appear to be operating above a PUE of 2.0.

http://www.vertatique.com/no-one-can-agree-typical-pue
 
Zuletzt bearbeitet:
Die Bemühungen gehen dahin gerade bei der Kühlung auf Energiesparende Lösungen zu setzen um eben den PUE Wert möglichst nahe an 1 zu senken, da die Energiekosten eben sehr bedeutend für die Wirtschaftlichkeit eines Rechenzentrums sind. Dem grünen Image der Firma tut es natürlich auch gut.
 
Zurück
Oben