News Knights Landing: Physisch mit 76 Kernen, weitere Details und erste Benchmarks

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.361
Kann man die Dinger jetzt eigentlich kaufen? Und für was werden sie eingesetzt? Sind sie auf dem Markt konkurrenzfähig?
 
Glaubt mir, in Deutschland darf man statt Yields auch noch "Ausbeute" sagen. 1. erschlägt das nicht gleich den einfachen Leser der nicht im Halbleitergeschäft arbeitet und 2. deutet es auf mehr redaktionelle Tiefe hin als immer nur den Kram anderer die gerne Denglischen zu übernehmen...
 
Das neue Rennen um mehr Kerne hat begonnen. Wenigstens sind es viele reale Kerne ;) Hoffe das ein 8 Kerner (bezahlbar) bald mal kommt für den Dsktoprechner.
 
Für den Desktop wird keine Adaption von KNL in absehbarer Zeit kommen.
 
Soll KNL nicht auch als Sockelversion kommen? Dann könnte man sich den ja auch in den heimischen Rechner stecken. Zumindest die die ihn auch sinnvoll nutzen können!
 
Tekpoint schrieb:
Das neue Rennen um mehr Kerne hat begonnen. Wenigstens sind es viele reale Kerne ;) Hoffe das ein 8 Kerner (bezahlbar) bald mal kommt für den Dsktoprechner.

Das sind Produkte für HPC mit Fokus auf extrem parallelisierbare Aufgaben. Im Consumer Bereich macht das wenig Sinn denn der Großteil der hier vorhandenen typischen Aufgaben welche sich sehr gut parallelisieren lassen sind über DSPs (fixed function units wie UVD) weit effizienter und kostengünstiger zu bewerkstelligen.

Hinzu kommt das im Segment der Consumer Hardware aus Kostengründen ein vergleichsweise geringes TDP Limit vorhanden ist (LGA 1151 65W bzw. 95W OC). Eine Verdoppelung der CPU Kerne von beispielsweise vier auf acht würde deshalb zwangsläufig zu einer massiven Reduktion der Taktfrequenz unter Vollast über alle Kerne führen. Die Skalierung (Performance) wäre damit deutlich kleiner als es die Verdoppelung auf den ersten Blick erscheinen lässt. Aus dem Grund hat LGA 2011-3 ein deutlich höheres TDP Limit von 140W.

Wenig Kerne mit hoher IPC sind selbst bei effektiv etwas geringerer addierter Rohleistung in nahezu allen Fällen vielen Kernen mit niedrigerer IPC vorzuziehen (höhere durchschnittliche Auslastung). Das gilt auch im Bereich Ultra-Mobile (Smartphones). Trotzdem gibt es sehr viele ARM SoCs mit massig CPU Kernen. Ist damit zu begründen das diese Vorgehensweise für viele Hersteller deutlich günstiger ist als richtig potente CPU Designs selbst zu entwickeln (statt fertige Designs bei ARM zu lizenzieren). In diesem Bereich machen das nur Apple, Qualcomm und in Zukunft auch Samsung (auf Basis von ARMv8).
 
Zuletzt bearbeitet:
Tekpoint schrieb:
Das neue Rennen um mehr Kerne hat begonnen. Wenigstens sind es viele reale Kerne ;) Hoffe das ein 8 Kerner (bezahlbar) bald mal kommt für den Dsktoprechner.

Knights Landing kommt mit (Angepassten) Silvermont-Kernen daher. Die C2750, C2730, C2758, C2738 und C2718 sind mit 8 solcher Kerne verfügbar. Also ran an den Speck. :freaky: ;)
 
die CPUs sind nicht für Privat-Anwender gedacht und finden bei dem Preis auch nicht dort hin

im normalen Desktop-Bereich wären soviele Kerne(für 99% der Anwender) überdimensioniert/nicht von Nöten
 
Was für Anwendungen gibt es denn überhaupt, die eventuell möglcicherweise unter gewissen Umständen dermaßen viele Kerne vernünftig auslasten könnten?
Solange man nicht privat Brute Force-Attacken auf irgendwelche Passwort-Datenbanken durchführt? :freak:
 
Candy_Cloud schrieb:
Glaubt mir, in Deutschland darf man statt Yields auch noch "Ausbeute" sagen. 1. erschlägt das nicht gleich den einfachen Leser der nicht im Halbleitergeschäft arbeitet und 2. deutet es auf mehr redaktionelle Tiefe hin als immer nur den Kram anderer die gerne Denglischen zu übernehmen...

am besten wäre eine kombination aus beidem, etwa den englischen fachbegriff zu nennen und ihn in einem halbsatz zu erläutern ;)

btt.:
diese xeon phi, das wäre doch genau das, was man für raytracing braucht oder?
 
Mort626 schrieb:
Was für Anwendungen gibt es denn überhaupt, die eventuell möglcicherweise unter gewissen Umständen dermaßen viele Kerne vernünftig auslasten könnten?

Für Privatanwender, keine. Diese CPUs werden in Supercomputern eingesetzt um diverse wissenschaftliche Berechnungen durchzuführen. Wettersimulationen wäre ein prominentes Beispiel.
 
Mort626 schrieb:
Was für Anwendungen gibt es denn überhaupt, die eventuell möglcicherweise unter gewissen Umständen dermaßen viele Kerne vernünftig auslasten könnten?
Solange man nicht privat Brute Force-Attacken auf irgendwelche Passwort-Datenbanken durchführt? :freak:

Generell Serveranwendungen /Webserver mögen viele Threads) oder Anwendungen für wissenschaftliche Berechnungen.
 
Ja, für Supernovas, Server, Wetterberechnungen etc ist mir schon klar. Nur weil die Frage kam, wann das für Desktoprechner verfügbar wird. Weil niemand berechnet doch Supernovas, Server oder das Wetter auf einem Desktoprechner.
 
Naja, die aktuellen Xeon Phis auf KNC-basis sind zumindest in den Einstiegsvarianten mit 57 Cores jetzt auch nicht mehr sooo teuer (ca. 1.500 - 2.000 Euro). Für Leute, die viel mit CAD oder Rendering lokal arbeiten müssen, ist das nicht viel Geld. Die größeren Quadros kosten schließlich auch deutlich jenseits der 2.000 Euro.

Es gibt schon den ein oder anderen Zweck, wo man sich so einen Xeon Phi in seine Workstation stecken kann - und sei des nur zu Entwicklungszwecken, um mit der grundlegenden Architektur und den entsprechenden Libraries klar zu kommen.
 
Mickey Cohen schrieb:
diese xeon phi, das wäre doch genau das, was man für raytracing braucht oder?
Basierend auf Erfahrungen mit der Vorgängergeneration (Knights Corner [KNC]): Ja RT funktioniert da drauf nicht mal so schlecht - zugegeben haben GPUs mehr Rechenleistung/$. IMHO größter Vorteil von der KNC ist die dynamische Speicherverwaltung direkt auf der Karte...
 
Das mit den 6 Speicherkanäle für DDR4 und auch die Art das MCDRAM einzubinden, scheint ja auch schon einiges von der Purley-Plattform vorwegzunehmen und deutet auch an, wie es denn künftig mit DDR4 und 3D XPoint DIMM aussehen dürfte.
 
IMHO größter Vorteil von der KNC ist die dynamische Speicherverwaltung direkt auf der Karte...
Das können Nvidia GPUs mit CUDA schon seit Fermi :)

Ich finds schade, dass Intel nicht auch zusätzlich zum Phi seine Technologie dafür verwendet um reine GPUs zu bauen und um in den GPGPU Markt einzusteigen. :(
 
Zurück
Oben