News Intel Cannonlake: AVX-512 hält 2017 Einzug ins Endkunden-Segment

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.362
Mal eine Frage am Rande: Intel bringt die HighEnd-Plattformen ja immer mit einem guten Jahr Verzögerung. Wie dem Text zu entnehmen ist, gibt es einige Änderungen bei Skylake-EP gegenüber den normalen Skylakes.

Nun zur eigentlichen Frage: Sind diese (Skylake-EP) durch die Modifikationen denn nun näher an den offiziellen Nachfolgern (Kaby-Lake) oder näher am Namen gebenden Mainstream Skylake angesiedelt?

Ich finde es nämlich etwas merkwürdig, dass die teuren HighEnd-Pendants praktisch immer auf die "alte" Architektur setzen, während die günstigen Varianten immer up to date sind.
 
Das dürfte damit zu tun haben das mit den kleineren consumer dies erstmal an der Ausbeute gearbeitet werden kann und mit den Steppings Änderungen in der Struktur vorgenommen werden um hotspots und fehler auszumerzen bevors in die Produktion der dicken dies geht wo bei einem defekt der verlust durch fehler deutlich teurer ist.
 
Würde auch noch vermuten, dass man eine neue Architektur nicht gleich auf den Serverbereich loslassen möchte. Im Consumerbereich kann ein Fehler in der Architektur ja noch tolerierbar sein, während er im Serverbereich ein Desaster wäre.

Glaube vor ein paar Jahren, als die ersten 2011 Sockel CPU rauskamen, gab es ein Fehler bei in der CPU, der zwar im Consumerbereich nicht so tragend war, weshalb der i7 rauskam, aber das Servergegenstück verschoben wurde, bis der Fehler durch ein neues Stepping behoben war.
 
Zudem haben sie im High-End Segment weniger mit dem Wettbewerb zu kämpfen, sie können die großen Dies fehlerbreinigen und stabile Produkten auf den Markt bringen. Dass Intel auch anders kann, kann man bei früheren Generationen sehen, aber wozu, wenn man so gute Produkte liefern kann, die am Markt gerne gesehen werden.
 
Man darf sich also über weitere 3% mehr performance freuen, wuhuu.
 
Gandalf2210 schrieb:
Man darf sich also über weitere 3% mehr performance freuen, wuhuu.

Und unter Teillast wetere 5-10 W weniger Verbrauch hehe:evillol:
 
Nungut wenn alles glatt läuft kann ich mich 2017 für einen Nachfolger meines 2500K umschauen.
Ich erwarte schon mal mind. 6 Kerne und mind. 200% Mehrleistung.
Sollte nach 6 Jahren doch drin sein?

Und AMD ist auch noch da, wenn Zen halbwegs ne Chance hat gegen die Cannon Lake würde ich AMD sogar vorziehen. Man muss ja den Monopolisten nicht noch unterstützen.
Wobei das schwierig wird, Zen kommt eher. Aber, wenn Zen genau so gut ist wie Kaby Lake, steige ich einfach vor Cannon Lake um und gut ist :D
 
Ob die CPUs dann wohl auch noch runtertakten, sobald AVX-Kram zum Einsatz kommt?
 
Zuletzt bearbeitet:
@mensch183 tun das nicht nur die 'großen' Intel-Chips mit ner zweistelligen Anzahl an Kernen?
@Nai Wenn AVX-512 durch die 10000 Feature Level nicht so ein unübersichtlicher Mist wäre... aber daran sieht man auch wunderbar, dass AVX-512 eigentlich nicht für den Enduser gedacht war.
 
@VikingGe
Meinte es eher so, dass bis SIMD-4 der Compiler oft noch relativ elegant innerhalb einer einzigen "Schleifeniteration" vektorisieren kann (AMDs OpenCL-CPU-Compiler macht das zum Beispiel atm nur so). Aber je breiter das SIMD wird, umso größer wird der Bedarf über mehrere Iterationen hinweg zu Vektorisieren (wie es bereits GPUs oder Intels OpenCL-CPU-Compiler es machen). Die Scatter/Gather-Instruktionen in AVX gehen auch bereits eben in diese Richtung (wobei die ja atm nur durch microcode emuliert werden). Gerade bei dem Programmiermodell in aktuellen Hochsprachen wie C/C++ kann der Compiler diese Vektorisierung aber nur bei mangelnden Speicherabhängigkeiten zwischen den Iterationen vornehmen, die er noch dementsprechend erkennen muss. Und dann gibt es bei deiser Art der Vektorisierung noch das Problem, dass der Compiler das Branching bei SIMD halbwegs effizient hinbekommen muss, was bei GPUs ja auch Hardware-beschleunigt ist.
 
Zuletzt bearbeitet:
@ sunnyday
AVX funktioniert doch jetzt schon bereits sehr gut - sofern es die Software unterstützt und das Problem dafür geeignet ist. Bei Linx verdoppelte es die FLOPS beim Haswell fast.
 
Gandalf2210 schrieb:
Man darf sich also über weitere 3% mehr performance freuen, wuhuu.

...tja und das ist genau falsch! In den Vektorinstruktionen der CPU stecken 4/5 der gesamten Rechenleistung.
 
...tja und das ist genau falsch! In den vektorinstruktionen der CPU stecken 4/5 der gesamten Rechenleistung.
Eigentlich schon 7/8 bei AVX-256 und 15/16 bei AVX-512 ;)
 
Nai schrieb:
Meinte es eher so
Daran habe ich nie gezweifelt ;) ich wollte ergänzen, dass Intel den Leuten wieder unnötig das Leben schwer macht.

Und dann gibt es bei deiser Art der Vektorisierung noch das Problem, dass der Compiler das Branching bei SIMD halbwegs effizient hinbekommen muss, was bei GPUs ja auch Hardware-beschleunigt ist.
AVX und AVX2 unterstützen nicht einmal Predication, das muss grundsätzlich über Umwege simuliert werden. Das dürfte mit AVX-512 und den neuen Selektorregistern tatsächlich besser werden.

Aber je breiter das SIMD wird, umso größer wird der Bedarf über mehrere Iterationen hinweg zu Vektorisieren
Wobei AVX-256 zumindest bei Single Precision- und Integer-Operationen darauf ausgelegt ist, sich genau so zu verhalten wie zwei 128-Bit-Befehle - was manchmal für Probleme sorgt, in der Regel aber genau das richtige ist. Von den "Einstiegshürden" (Store-Alignment herstellen und sowas) ist es von Hand eigentlich nicht schwer, einen Loop mit den 256-Bit-Befehlen zu vektorisieren, wenn man schon eine Variante für 128-Bit hat. Eigentlich sollten die Compiler damit auch kein Problem haben, die Praxis sieht tatsächlich leider anders aus.
 
Zurück
Oben