News Intel Xeon Phi: Beschleuniger Knights Hill in 10 nm ist Geschichte

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.249
Es deutete sich seit Monaten an, nun ist es offiziell: Knights Hill als dritte Generation der Xeon-Phi-Familie wird nicht auf den Markt kommen. Dazu sollen sowohl geänderte Rahmenbedingungen als auch die ständige verzögerte 10-nm-Fertigung geführt haben – denn ursprünglich sollte der Beschleuniger schon fertig sein.

Zur News: Intel Xeon Phi: Beschleuniger Knights Hill in 10 nm ist Geschichte
 
Da macht die Verpflichtung von Raja direkt noch ein bisschen mehr Sinn.
 
Das hab ich auch gleich gedacht.

Neue Technologie: heißt im Falle eines Beschleunigers GPU (bzw GPU-ähnlich). Dazu der (angebliche) Patent-Deal mit AMDs Radeon Group...
 
Zuletzt bearbeitet:
Kann es sein, das Intel langsam merkt das ihnen die Felle davonschwimmen? Soweit ich mich erinnere, basiert PHI ja auf einem alten Pentium x86 Kern der durch Shrink zu vielen zusammen gegossen wurde. Ansich ja keine schlechte Idee, aber sollte man nicht was entwickeln was auf etwas neuem basiert und nicht auf uralter Technik beruht? Nur so ein Gedanke..
NV oder AMD sind da doch wesentlich besser mit ihren Beschleunigerkarten.
Intel muss jetzt aber mal ordentlich aus den Puschen kommen, um nicht ganz so weit weg zu sein.
 
An Intels Stelle würde ich von AMD einfach ein paar zehntausend Instinct Karten kaufen, blau anmalen, Intel Logo drauf und fertig ;D
 
  • Gefällt mir
Reaktionen: TechFA
@Muffknutscher

Die PHIs basieren auf der Silvermont Architektur. Diese findet in abgewandelte Form in Intels Einsteigerserie (Atom, einige Celeron und Pentiums) Einsatz. Es ist aber keine alte Pentiumarchitektur.
 
@tarkin77
Tolle Idee :D
Plötzlich kommen Intel Instinct Beschleuniger in blauem Gehäuse auf den Markt. Niemand weis dann woher die gekommen sind.
 
Es macht einfach Sinn dass sich AMD und Intel zusammenraufen um gemeinsam gegen nVidia was ausrichten zu können... die laufen sonst davon - Intel (und AMD) haben beide keine Zeit mehr zu verlieren. IMO macht ein Joint Venture absolut Sinn. Irgendwelche Raja Koduri Entwicklungen bei Intel kommen garantiert erst in 3-5 Jahren und dann müssen die erst mal liefern... wenns ein Fail wird, ist der AI/ML Zug endgültig Richtung nVidia abgefahren!
 
Die AMD Pro Karten haben doch nun seit vielleicht 2 Jahren blaue Gehäuse. Zufälle gibt's... ;)
 
Intel kündigt an, das die Hardware, welche sie bisher gegen AMD/NV im Bereich Deep Learning aufstellen konnten, eingestellt wird... 3 Tage, nachdem Raja Koduri als neuer Mitarbeiter bekannt gegeben wurde.
Es ist völlig offensichtlich, welches Ziel Intel hier verfolgt. Der Zug war schon fast abgefahren. Von daher ist die Entscheidung wohl richtig und konsequent.

Die Frage ist jetzt, ob AMD intern bereits aufgegeben hat in Sachen GPGPU... GloFo ist nicht groß genug, um parallel die massive Anzahl an Ryzen-DIEs und Vega-DIEs auszuspucken, die sie brauchen, um in beiden Zukunftsmärkten (Server-CPU, GPGPU) ihre Technik auf dem Markt durchzudrücken. Man hat sich also eher auf die CPU-Schiene committed. Fertigung einkaufen wird auch nicht möglich sein, weil TSMC und NV wohl langfristige Verträge haben (und TSMC auch für andere Firmen fertigt), Samsung spuckt lieber hoch lukrative DRAM, NAND und ARM-Chips aus, und Intel als "offizieller" Fertiger für AMD-Chips kommt nicht in Frage.

Wenn AMD keinen hochkarätigen Ersatz für Koduri findet und das, was aktuell noch in der Pipeline ist (-> Navi) nichts wird, dann kann ich mir vorstellen, dass AMD keine High-End-GPUs mehr in Angriff nimmt. Da sie jedoch aktuell noch sehr von Semi-Custom abhängen und da ja auch noch einige Jahre lang die jetzt neuen Konsolen bedienen müssen, werden sie es nicht ganz an de Nagel hängen können. Schwierig.
 
  • Gefällt mir
Reaktionen: TechFA
AI computing ist so ziemlich die Zukunftstechnik. Ich denke nicht, dass sich AMD erlauben kann, dass komplett zu vernachlässigen. Ich würde eher glauben, dass man den Endkundenmarkt in dem Bereich aufgibt. Sprich man baut keine High End Spielekarten mehr. Das würde ihnen erlauben, sich darauf mehr zu konzentrieren.

x86 ist kein großer Wachstumsmarkt, Semicustom ist auch nicht gerade ein Wachstumsmarkt, zumal immer mehr Anwendungen durch ARM SoCs abgedeckt werden können (siehe Automotive).

Ich denke AMD hat auch schon lange ein Navi Nachfolger in der Entwicklung... Die nächsten Jahre haben sie also noch genug "Material". Aber Deeplearning, AI etc. dürfen sie nicht verschlafen.

Ich bin bei Intel mal gespannt,ob vielleicht sogar Gaming Lösungen abfallen werden. Die igpus sind ja immer sehr belächelt, aber die Architektur ist ziemlich weit und Recht effizient. Daraus könnte man sicher auch eine große GPU entwickeln.
 
Shoryuken94 schrieb:
Ich bin bei Intel mal gespannt,ob vielleicht sogar Gaming Lösungen abfallen werden. Die igpus sind ja immer sehr belächelt, aber die Architektur ist ziemlich weit und Recht effizient. Daraus könnte man sicher auch eine große GPU entwickeln.

Intel wird nie und nimmer eine Gaming GPU entwickeln. Daran sind sie schon vor einigen Jahren gescheitert und nur weil sie nun einen guten Kopf zu sich holen können sie nicht Jahrzehnte an Rückstand auf einmal aufholen. Außerdem welches Interesse könnte man an dedizierten Intel GPUs als Consumer bitte haben? Kein anderer Hersteller von Grafikchips bietet eine schlechtere Treiberunterstützung. Auf so etwas möchte ich nicht angewiesen sein.
 
  • Gefällt mir
Reaktionen: TechFA
Odysseus277 schrieb:
Die Frage ist jetzt, ob AMD intern bereits aufgegeben hat in Sachen GPGPU... GloFo ist nicht groß genug, um parallel die massive Anzahl an Ryzen-DIEs und Vega-DIEs auszuspucken, die sie brauchen, um in beiden Zukunftsmärkten (Server-CPU, GPGPU) ihre Technik auf dem Markt durchzudrücken.
Das Problem bei AMD sind nicht die Produktionskapazitäten, zumindest nicht mittel-/langfristig, sondern dass sie im GPU-Bereich eine bessere Architektur brauchen. Vega hat einfach nicht den erwartet großen Fortschritt gebracht. Hätte man gute GPUs für den Server-Einsatz im Angebot, bekäm man die auch produziert, zur Not eben auf Kosten der Mittelklasse. Wenn du nur beschränkte Produktionskapazitäten zur Verfügung hast, ist am lukrativsten sich auf die Produkte zu konzentrieren, die den höchsten Gewinn versprechen.

Odysseus277 schrieb:
Man hat sich also eher auf die CPU-Schiene committed. Fertigung einkaufen wird auch nicht möglich sein, weil TSMC und NV wohl langfristige Verträge haben (und TSMC auch für andere Firmen fertigt), Samsung spuckt lieber hoch lukrative DRAM, NAND und ARM-Chips aus, und Intel als "offizieller" Fertiger für AMD-Chips kommt nicht in Frage.
Große Server-Chips versprechen sehr viel höhere Margen als Massenware wie DRAM oder NAND und auch die meisten ARM-Chips stehen unter sehr großem Kostendruck.

Odysseus277 schrieb:
Wenn AMD keinen hochkarätigen Ersatz für Koduri findet und das, was aktuell noch in der Pipeline ist (-> Navi) nichts wird, dann kann ich mir vorstellen, dass AMD keine High-End-GPUs mehr in Angriff nimmt. Da sie jedoch aktuell noch sehr von Semi-Custom abhängen und da ja auch noch einige Jahre lang die jetzt neuen Konsolen bedienen müssen, werden sie es nicht ganz an de Nagel hängen können. Schwierig.
Der Erfolg einer Firma oder eines Produkts wird gerne an einzelnen Personen festgemacht, obwohl hunderte Menschen an der Entwicklung beteiligt waren. Auch macht ein Rückzug aus dem High-End-GPU Bereich keinen Sinn, sofern man sich nicht ganz aus der GPU-Entwicklung zurückziehen möchte. Das liegt einfach daran, dass AMD in jeder Generation nur eine Architektur entwickelt. Sobald man eine Architektur hat, ist es nur noch eine Frage der Skalierung. Das High-End-Segment dabei zu ignorieren macht keinen Sinn, denn die Hauptkosten entstehen bei der Entwicklung der Architektur selbst, nicht bei der Skalierung für die einzelnen Segmente.
 
@Limit
Ich dachte, Vega wäre im Computing-Bereich besser aufgestellt, als im Gaming-Bereich. Vega kommt ja immerhin auch auf gut 13 Gflops.
Im Rechnen ist AMD nicht übel, beim Mining-Boom hat es ja auch die Polaris bewiesen. Bei Spielen kommt aber die Rohleistung nicht auf dem Bildschirm, woran es auch immer scheitert.
 
@Steini1990

Nur weil man Mal mit etwas gescheitert ist, heißt das nicht, dass man nie wieder was in dem Bereich macht. Und welches Interesse Intel hätte? Ganz klar, Geld. Bei AMD zeichnet sich immer stärker ab, dass sie in dem Bereich nicht so schnell mehr zu Nvidia aufschließen werden. Nvidias Umsätze zeigen ja, dass man dort gutes Geld verdienen kann und das mit Hardware, welche man ja eh für den Enterprise-Markt entwickelt.

Dazu hat man eine eigene, ziemlich gute Fertigung. Und man konnte mittlerweile einiges an Erfahrungen sammeln. Das mach ich nicht an Koduri fest.

Längerfristig könnte man damit dann diese Vega Hybridlösungen ablösen. Die Vega Chips bei Intel zeigen, dass das Interesse in dem Bereich besteht. Das könnte man zukünftig ausbauen und auf eigene Beine stellen. Zumal beim Vegadeal sicher auch einiges an Architekturdetails und mit Koduri sicher auch einige weitere Leute kommen werden. Das ganze würde sich anbieten, bleibt aber abzuwarten. Genug Zeit, auch seine Treiber in den Griff zu bekommen. Da hatte AMD ja auch Mal seine Probleme mit. Langfristig könnte Intel das schon sagen und wenn man entsprechende Leistung zu entsprechenden Preisen liefert, warum sollte der Kunde nein sagen?
 
Gaming ist dann trotzdem nicht ganz einfach, sich da als "Neuling" zu behaupten. Ist ja noch eine Architektur, die mit den Spielen harmonieren muss. Man sieht ja heute mit zwei Playern schon, dass das doch sehr unausgewogen ist.

Aber immerhin kann Intel dann auf FreeSync setzen und damit wäre die Diskussion über den freien Standard endlich dahin.
Mit der Umsetzung der Intel-"APU" mit Vega-Grafik nicht ganz unwahrscheinlich.

Intel hat schon mehr Sachen in den Sand gesetzt. Siehe Ultra-Mobile-Sparte. Da ist man ja quasi doppelt ausgestiegen, nach den Xscale auf ARM-Basis zu Zeiten der PDAs.
 
Zuletzt bearbeitet:
Ozmog schrieb:
Ich dachte, Vega wäre im Computing-Bereich besser aufgestellt, als im Gaming-Bereich. Vega kommt ja immerhin auch auf gut 13 Gflops.
Die Rohleistung war bei AMD selten das Problem und bei vielen Mining-Algorithmen können sie diese auch sehr gut ausspielen. Diese sind, was die Code-Komplexität angeht, meist eher einfach und bevorzugen daher Architekturen mit hoher Rohleistung. Das lässt sich allerdings nur teilweise auf andere Bereiche übertragen, insbesondere da Vega bisher nur in der Consumer-Version erschienen ist. Für viele Bereiche ist aber auch die DP-Leistung wichtig und dafür kommt erst Vega 20 in Frage. In diesem Bereich kann AMD derzeit als Gegner für P100 und GV100 nur Hawaii aufbieten.
 
Vega ist keine Enttäuschung per se; das vergessen hier immer ganz viele! Der Chip ist ein Monster was die Rohleistung angeht, was für die Pro-Anwendungen die entscheidende Rolle spielt. Die Instinct-Karten verkaufen sich top. Vega ist auch genial skalierbar. Immerhin können sie die Technik ja auch in APUs einbauen, selbst mit einem völlig anderen Speicher-Controller. Und bei den dort anvisierten Taktraten ist die Architektur auch äußerst effizient.

Einzig in aktuellen Spielen kann Vega nicht so zünden. Zum einen musste man für eine konkurrenzfähige Performance den Takt soweit anheben, dass die Effizienz auf der Strecke bleibt. Zum anderen verschlingt der HBM2 die Margen. Zentrales Problem für AMD ist aber, dass NVidia in der Vergangenheit und Gegenwart so massiv in die Optimierung der Spiele bereits in den Studios investiert hat, dass alle Entwickler scheinbar nur noch "nvidia Code" schreiben können. D.h., die AMD-Hardware wird nie richtig ausgelastet und bringt die Rohleistung hier nicht auf den Bildschirm in Form von FPS. Es ist zu befürchten, dass dieser Zug bereits abgefahren ist, also dass AMD das nicht mehr drehen können wird.

Bei Wolfenstein 2, einem massiv auf die GCN-Hardware optimierten Titel, sieht man es doch recht gut: In dem Spiel zerreißt die Vega 64 eine GTX 1080 und misst sich eher mit der 1080 Ti, welche rein von den technischen Daten ja der "eigentliche" Gegenspieler sein hätte sollen. Dass Vega mit optimiertem Powertarget, Undervolting und Overclocking sehr gut performt ist auch kein Geheimnis. Aber AMD schafft es nicht, ihr Produkt in den inzwischen fast gänzlich auf Nvidia zugeschnittenen Markt hinein zu pressen. Ein Teufelskreis.
 
tarkin77 schrieb:
Es macht einfach Sinn dass sich AMD und Intel zusammenraufen um gemeinsam gegen nVidia was ausrichten zu können... die laufen sonst davon

wo läuft nvidia denn bitte davon? :D weil sie ein paar chips für autos verkaufen?
 
Zurück
Oben