News Intel Xeon Phi: Beschleuniger Knights Hill in 10 nm ist Geschichte

Ozmog schrieb:
Bei Spielen kommt aber die Rohleistung nicht auf dem Bildschirm, woran es auch immer scheitert.

Software. nVidia hat mit Kepler ihren scheduler in den Treiber ausgelagert. Zum einen macht das die Chips billig (weniger Flächenverbrauch) zum anderen kann man so sehr genaue Anpassungen an die Software vollziehen. Hinzu kommt dass nVidia ein Heer von Ingenieuren (software engineers - also keine Maschinenbauer :) ) zu jeder Spieleschmiede schickt die das zulassen. Dazu müssen sie nicht mal alle gameworks Technologien nutzen, die "helfen" auch so dem Entwickler mit knowhow. Somit lässt nVidia tech einfliessen welche auf ihren Karten gut läuft und kann die eigenen Treiber/Scheduler gut anpassen.

Bei vielen Spielen merkt man das wenn nVidia ihren Treiber etwas zu spät rausbringt, da sind häufig 15-20% Leistung drin. Im Umkehrschluss sind die Spiele welche von großen publishern ohne nVidia-support realisiert werden jene in denen ein Gleichstand bei den Karten herrscht oder AMD vorne liegt.
Aber gerade kleinere Studios können nVidias support fast nicht abschlagen...

edit:man sieht derzeit am Battlefront 2 Test wie das ohne nvidia-Support aussehen kann. Ich wäre nicht überrascht wenn angepasste Treiber seitens nVidia da noch mal 15% rausholen (bei Pascal, der Abstand zu Maxwell muss ja gewahrt bleiben) wohingegen AMD nur so ~5% dazugewinnt.

@Xeon-PHI: Das ist quasi eine x86 GPU, aus dem Larrabee-Projekt. Larrabee ist zwar gescheitert, aber die PHIs sind nicht das einzige Produkt in das daraus gewonnene Erkenntnisse eingeflossen sind.

https://en.wikipedia.org/wiki/Xeon_Phi
https://en.wikipedia.org/wiki/Larrabee_(microarchitecture)

P.S.: Für deep learning/AI hat Intel erst neulich Nervana vorgestellt - alles was Raja bei Intel machen kann, wird sowieso frühestens in fünf Jahren bereit sein. Das sind in etwa die Entwicklungszyklen.
Ergänzung ()

Odysseus277 schrieb:
Vega ist keine Enttäuschung per se; das vergessen hier immer ganz viele!

Vega ist auch ganz klar auf den Profimarkt zugeschnitten. Features wie der Speichermanager sind für Spieler nicht interessant, für Profis bei denen auch 24GB Karten zu wenig Speicher bieten, öffnet das aber neue Möglichkeiten. Das ist nur der logische Schritt nach der SSG (https://www.anandtech.com/show/10518/amd-announces-radeon-pro-ssg-fiji-with-m2-ssds-onboard) und wird in Verbindung mit schnellerem non volatile memory wie 3dxpoint noch viel interessanter. Im Prinzip hat AMD damit eine Schnittstelle geschaffen um ALLE Arten von Speicher direkt an die GPU zu dübeln.

Für Spieler interessant ist zudem dass AMDs tiled rasterizer auf Vega noch nicht läuft. Das ist leider eines der Hauptfeatures um das Frontend zu entlasten - dass AMD das nicht hinbekommt ist vermutlich die einzige große Kritik an Vegas Design.
Dass Vega seinen Weg nicht auf custom Karten findet und lediglich auf schlecht angepassten Referenzboards ausgeliefert wird, ist das andere Problem. Die enormen UV-Ergebnisse zeigen dass sie Vega mit einem BIOS ausliefern das kaum auf den Chip angepasst ist und enormen Spielraum lässt damit auch ja jede GPU aus der Fertigung damit läuft.

Und Vegas Release kam locker ein halbes Jahr zu spät, ob diese Verschiebung dem Design, HBM oder Vorablieferungen an Firmen wie Apple für deren Produkte geschuldet war, werden wir vielleicht erst in vielen Jahren erfahren.
 
Zuletzt bearbeitet:
Artikel-Update: In einem Interview mit The Next Platform hat sich Intels Chef der Enterprise & HPC Goup, Barry Davis, zu dem Thema zu Wort gemeldet. Demnach sei die Abkehr von Knights Hill vor einiger Zeit bereits getroffen worden – ohne einen genauen Zeitraum zu nennen. Der Nachfolger respektive das angepasste Design für das Rennen um den Exascale-Supercomputer sei zudem keine eigenständige neue Entwicklung.

The architecture we are moving toward for exascale is not something we just dreamed up in the last six months or even year. We’ve been on working on this for a long time. What the two-year pull-in of the timeline to 2021 does is accelerates our roadmap. [..] We are not doing something just for exascale; it was something we planned to do, so this is a lot easier to do than it may seem.

Wie Davis erklärt, würde Intel also bereits laufende Projekte beschleunigen, sodass im Jahre 2021 nicht nur die Hardware verfügbar sei, sondern auch das Ökosystem drumherum. Und Exascale heißt in dem Fall nicht nur ein schneller Prozessor oder eine Beschleunigerkarte, sondern jeder andere Bereich in einem System um Punkte Hardware aber auch Software.

The needs of the next generation architecture for exascale are fairly well-documented. There’s power, cooling, space, interconnect—and that is a tremendous issue, creating a low latency technology that communicate at that scale. There also compute and storage. There’s a lot to address here.

Weitere interessante Details gibt das Interview von TNP preis.

Einschätzung der Aussagen
Ohne komplette Neuentwicklung, aber bereits seit einigen Jahren in der Entwicklung, schiebt sich Sapphire Rapids als neue Intel-Prozessor-Architektur in den Vordergrund. Diese soll nach Ice Lake (Whitley-Plattform) mit der Tinsley-Plattform erscheinen, im Codenamenregister bei Intel ist sie bereits hinterlegt. Auch vom Zeitrahmen könnte dies passen, mit Cascade Lake im Jahr 2018 und Ice Lake 2019, wäre Sapphire Rapids 2020 an der Tagesordnung – genau im Zeitplan, um 2021 als Abwandlung für einen Exascale-Supercomputer zur Verfügung zu stehen. Sofern die Zeitpläne bei Intel nicht wieder an Problemen wie beispielsweise der Fertigungstechnik scheitern.
[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: TechFA
@2021 Plant AMD in dem Zeitraum nicht auch ca den Zen Nachfolger ? (gut bei AMD kann man in so einen entfernten Zeit-Raum schwer schätzen ;) ).
 
Warum sollte Intel eine eigene GPU bauen. Sowas geht doch einfacher, z.B. diese als Semicustom Chip fertigen zu lassen bei RTG.
Den Chip zu entwerfen und die Software drumrum machen immer noch genug Arbeit.
Da kommt dann auch Raja ins Spiel, der weiß genau, was bei RTG möglich ist.
Würde mich also nicht wundern, wenn AMD nächstes Jahr einen High End HPC Semicustom Chip für Intel in der Pipeline hat. Wenn Intel den dann noch selbst fertigt, würde es mich auch nicht wundern. Alles nur Vertrags und Geldsache.
AMD verdient am Design und Intel hat schnell was leistungsfähiges im Programm.
So lange AMD noch keinen wesentlichen Marktanteil im Servergeschäft hat können sie froh sein um jede GPU die verbaut wird und Radeon bekannt macht.
 
Wenn man sich das Interview so durchliest, könnte man zu dem Schluss kommen, dass Intel am Ende für das Exascale-Design vermutlich einfach mehrere bestehenden Technologien und bald verfügbare miteinander kombiniert:

- 7 nm mit EUV in der Fertigung. Möglicherweise auch etwas in Richtung Gate-All-Around (Multigate-FET), wo neben IBM & Samsung wohl auch Intel derzeit dran forschen dürfte. 2021 ist stramm, aber nicht völlig unrealistisch
- EMIB auf Chip- bzw. Package-Level, wo mehrere IP-Blöcke (CPU, HBM/HMC ggf. Beschleuniger, Netzwerk) hochperformant miteinander verbindet. Es spricht m.E. wenig dagegen, Packages zu bauen, die am Ende weit über 500 Watt verbrutzeln. Wasserkühlung dürfte beim Exascale-System fast gesetzt sein.
- Silicon Photonics als Interconnect zwischen den Packages. Hier arbeitet man auch schon lange dran. Aktuell 100 Gbit/s, nächste Generation 400 Gbit/s. Vielleicht geht bis 2021 sogar schon etwas in Richtung 800/1.000 Gbit/s, was immerhin 100 bzw. 125 GB/s mit niedrigen Latenzen ermöglicht.
- 3D XPoint im DIMM-Format als zusätzlichen nicht-flüchtigen Speicherpool, ebenfalls als globaler Pool unterteilt in einzelnen Memory-Shelves über Silicon Photonics angebunden. 3DXP-DIMMs kommen 2018 auf den Markt, bis 2021 sind wir mind. bei der zweiten, wenn nicht schon bei der dritten Produktgeneration.
- Rackscale-Design --> Entkoppelung der Ressourcen einzelner Nodes zu Pools von Compute, Memory & Storage, die jeweils unabhängig voneinander skaliert werden könne. Auch das ist bei Intel seit Jahren in der Entwicklung
- Storage mit SSDs im "Ruler"-Format und PCIe 5.0?
 
amdfanuwe schrieb:
Warum sollte Intel eine eigene GPU bauen. Sowas geht doch einfacher, z.B. diese als Semicustom Chip fertigen zu lassen bei RTG.


Davon auszugehen das man sich bei Intel in einem Multi Mrd Dollar Markt mit extrem hohen Wachstum (siehe Nvidias immer weiter steigender Umsatz und Gewinn) langfristig damit begnügt Lösungen von beispielsweise AMD zuzukaufen ist ehrlich gesagt naiv.

Intel hat um sich breiter aufzustellen alleine in den letzten zweieinhalb Jahren Übernahmen (Altera, Mobileye, Nervana) mit einem Volumen von über 32,5 Mrd. US Dollar vollzogen. Das Designs wie Xeon Phi und Nachfolger nicht ausreichen um mit Nvidia zu konkurrieren ist denen sicher nicht erst gestern aufgefallen. Da es keine Übernahmekandidaten mit hierfür konkurrenzfähiger IP gibt bleibt nur ein Weg. Investieren und selbst entwickeln. Unternehmen in dieser Größenordnung kaufen IP nur dann extern zu wenn das eigene Portfolio eklatante Lücken hat. Mehr als eine Übergangslösung ist das dann aber praktisch nie - vor allen nicht in Märkten mit derartigem Potential.

Und nur mal so: Apple hat beispielsweise eine eigene GPU Architektur auf die Beine gestellt welche in ihrem Segment aus dem Stand äußerst konkurrenzfähig ist. Wenn bei Intel entsprechend investiert wird ist das auch realisierbar. Das notwendige Personal (vor allen Schlüsselpositionen) kann man abwerben/einkaufen. Hat Apple auch so gemacht. Die kommen dann auch denn solche Projekte sind heute sehr selten. Ist einfach eine ganz andere Größenordnung als die sonst übliche Weiterentwicklung.
 
Zuletzt bearbeitet:
Ozmog schrieb:
Dazu der (angebliche) Patent-Deal mit AMDs Radeon Group...

Welcher wäre das? Mir ist nur der angebliche Lizenz-Deal bekannt der sich durch die Vorstellung einer von AMD für Intel gefertigten GPU als falsch erwiesen hat.
 
Artikel-Update: Auch die c't stimmt in den Gerüchtereigen mit ein. Demnach wird Xeon Phi durch Xeon H (Codename Knights Cove) abgelöst, wobei es sich bei den ersten Modellen noch um angepasste Server-Prozessoren auf Basis der Ice-Lake-Architektur handeln soll. Die erste Lösung soll dabei ein Multi-Chip-Modul (MCM) sein, wobei Intels neue EMIB-Technik genutzt wird – aus zwei Mal 22 Kernen werden so 44 Kerne.

Für die normalen Ice Lake im Server ist zudem auch HBM2 auf dem MCM im Gespräch. Da Intels Barry Davis von einer Anstrengung in allen Hardwarebereichen sprach um die Skalierung zu erreichen, könnte auch dieser Speicher bei Xeon H mit von der Partie sein. EMIB ist eine der großen Anstrengungen von Intel in den letzten Jahren, die nun anfängt Früchte zu tragen. Auch die erste Intel-AMD-Co-Produktion in der Kaby-Lake-Prozessorkerne mit Vega-Grafik und HBM2-Speicher kombiniert sind, setzt auf die neue Technik.
 
Das eine muss das andere nicht Zwangsweise ausschließen, deswegen das Angeblich darin. Wir wissen nicht, was für Lizenzen dort alles geflossen sind und die AMD-GPU für Intel-"APUs" könnte auch nur ein Nebenprodukt sein. Immerhin hat Intel schon länger geplant, bei Beschleunigerkarten umzuschwenken. Zwar hat Intel schon eine eigene GPU-Architektur, aber vielleicht fehlen denen noch ein paar Schlüsseltechnologien, um was richtiges draus zu machen. Häufig stehen Patente da im Weg und eine Umschoffung mit komplett eigenen Entwicklungen sind nicht unbedingt Sinnvoll.
Ist zwar recht Spekulativ, aber nicht ausgeschlossen.

@YforU
Apple ist ein Spezialfall, da es für ihre eigenen Produkte mit eigener Software verwendet wird. Von Grund auf neu ist das bestimmt auch nicht, was da wohl noch für Lizenzen geflossen sind und wieviele Patente da noch verletzt sind...
Zudem muss sich Apple nicht um Abnehmer buhlen, sind ja selbst der einzige.

Eine Grafikkarte im Gaming-Bereich unterzubringen, wird dagegen nicht ganz einfach. Man muss dann auch genug Abnehmer und genug Entwickler auf seine Seite ziehen, damit das was wird. Immerhin dürfte nicht jede Spieleschmiede auf so ein "Neuling" positiv mit Optimierungen reagieren, sie schaffen es ja kaum die zwei bestehenden unter einen Hut zu bringen.

Erst einmal geht es für Intel um den wichtigen Markt der Beschleunigerkarten im Enterprise-Segment. Ob da noch richtige Grafikkarten bei abfallen und es Intel versucht, im Gaming-Segment Fuß zu fassen, werden wir in Laufe der Zeit sehen. Wenn ich schätzen sollte, würde ich 60/40 sagen, dass sie nicht im Grafikkarten-Segment einsteigen und im Schwerpunkt Enterprise bleiben.

Man darf auch nicht vergessen, dass die steigenden Bilanzen von Nvidia wohl vor allem durch ihre Marktdominanz bewerkstelligt wird. Sollte ein Nebenbuhler wieder mit gleichwertigen Produkten aufschlagen, muss auch Nvidia die Preise nach unten korrigieren, und das geht auf Umsatz und Gewinn. Wenn AMD vielleicht wieder aufholt, wird es bereits relativ eng im Markt. Und ein Aufholen von AMD ist nicht Unwahrscheinlich, denn ob Nvidia weiterhin solche Technologiesprünge bestreiten kann, bleibt abzuwarten. Irgendwann wird's auch da schwieriger.

Navi dürfte in den Grundzügen der Entwicklung durch sein, ähnlich wie Zen zum Zeitpunkt, als Jim Keller AMD wieder verlassen hat. Vielleicht sehen wir hier schon einen Sprung nach vorne, der Nvidia wieder ordentlich Konkurrenz und uns eine vernünftige Auswahl zu angemessenen Preisen beschert.
Dazu geht ja auch die Entwicklung der Prozesse weiter und AMD dürfte nicht mehr gezwungen sein, alles bei GF zu fertigen, da man mit Zen wohlmöglich die Mindestabnahmen auslasten kann. Dann werden die GPUs bei TSMC gefertigt und durch einen anderen Prozess kann sich bereits der Sweet-Spot für Taktraten nach oben schieben. Immerhin hängt es vor allem an den harten Taktraten, dass AMD nicht mehr rausholen kann.
 
Zuletzt bearbeitet:
@Ozmog

Wie du dem Update der News entnehmen kannst, wird Xeon-Phi durch eine CPU mit "Ice Lake"-Kernen ersetzt. Es befinden sich dann also in fast allen Produkten von der Notebook-CPU bis hin zum Xeon-Phi Nachfolger dieselben Prozessorkerne, nur eben mit vermutlich jeweils etwas unterschiedlichen Funktionen wie AVX512 etc. (AVX/2/512 ist ohnehin nichts anderes als "GPU-Technologie")

In dem Heise Artikel scheint auch ein Grund durch, der nachvollziehbar ist... Skalierbarkeit und einheitliche Prozessorkerne führen zu einer schnelleren Amortisierung der Entwicklung einer Architektur - es geht um Synergieeffekte.

Wenn dem so ist, werden da keine Grafikkarten abfallen. Ich finde, dass ist auch total falsch gedacht, denn nur weil sich moderne GPUs auch für andere Zwecke gut verwenden lassen (d.h. bei denen ähnliche Berechnungen relevant sind), bedeutet das nicht, dass GPUs das beste Design für diese Zwecke sind. Letztendlich ist auch das eine Frage von Synergieeffekten.

Und da die Entwicklung von Architekturen viele Jahre in Anspruch nimmt, sind die Entscheidungen, die hier jetzt bekannt werden, nicht erst vor kurzem getroffen worden.
 
Zuletzt bearbeitet:
Nvidia Tesla, Volta, Tegra Automotive, Marktdominanz der Pascal-GPUs (sowie die dadurch mögliche Errichtung eines GameStream-Monopols - was letztlich die Konsolen (AMDs Absatzmarkt) und Gamer-PCs (Intels CPU-Absatzmarkt im gehobenen Consumer-Bereich) obsolet machen wird) - die ganzen Zukunftsmärkte mit großen Wachstumsraten und ohne nennenswerte Konkurrenz liegen alle in Nvidias Hand. Es ist nur logisch das AMD und Intel sich zusammentun.

Denn Intel hat viele Märkte verschlafen oder falsch bedient (allen voran der Smartphone-Bereich).

Amd hatte nur die Finanzkraft um Ryzen/Vega auf Spur zu bringen und den Kernmarkt zu bedienen - für mehr hat der, im Vergleich, winzige Laden einfach keine Kraft.
 
Wie sieht es mit dem abverkauf der Teile aus? Jemand schon was mit bekommen?


Will noch etwas davon abbekommen :D
 
@Calluna
Huch, hab das Update übersehen. Na dann ändert sich die Situation, heißt dann aber nicht unbedingt, dass Intel Grafikkarten entwickeln will. Vielleicht soll auch nur die IGP überarbeitet werden und Intel geht ein Stück weiter Richtung APU, da wären die H-Modelle mit Vega schon ein erster Schritt zum Erfahrungen sammeln und zur Überbrückung für komplett eigene Produkte dieser Art.
Damit ist es aber auch wahrscheinlicher, dass Intel ein neuen Start mit dedizierten GPUs wagt, denn so viel mehr ist dann auch nicht mehr notwendig um dahin zu kommen.
Jede Konkurrenz ist gut, auch wenn sie Intel heißt. Intel kann und wird dann vermutlich auch auf FreeSync setzen, man kauft erst Vega ein und liefert erste Produkte, die eventuell auch da FreeSync nutzen können und steigt später mit eigenen Produkten mit FreeSync ein. Immerhin ist es ein offener Standard und die FreeSync-Monitor-Besitzer können dann sowohl auf AMD als auch auf Intel setzen, ohne dabei auf ihre Sync-Techniken zu verzichten.

@ usb2_2
Nützt recht wenig, wenn es dann doch am Takt hapert. Ewiges Parallelisieren scheint auch bei Grafikkarten, zumindest zur Zeit, nicht zu funktionieren. Man muss schon mit effizienten Taktraten kommen, um wieder an Nvidia anzuschließen, worauf ich allerdings stark hoffe.

@ Schnitz
GameStream muss man sehen, ob sich sowas überhaupt durchsetzen kann, nicht immer ist das der Weisheit letzter Schluss. Wenn sie allerdings die Preise für Grafikkarten immer weiter nach oben treiben und kein Konkurrent was entgegensetzt, wird das aber wohl die Konsequenz daraus werden.
Konsolen werden aber so schnell wohl nicht abgelöst.
Automotive ist auch noch eher in den Kinderschuhen, auch wenn da viel passiert. Da ist noch viel Zeit für andere auf den Zug aufzuspringen solange es noch eher ein Testballon ist, zumal bereits Gerüchte im Umlauf sind, dass Tesla (die Automobilfirma ;)) auf AMD umschwenken könnte. Denke das sollte für andere kein Hexenwerk sein, auch Chips für autonomes Fahren zu entwickeln.
Bei den Tesla-Karten muss man sehen, wie sich die Intel-Teile in Zukunft schlagen werden und ob es bei AMD vielleicht auch mal aufwärts geht.
 
@Volker kann es sein das es keine Xeon PHI auf PCIe Basis mehr zu kaufen gibt, habe gerade bei Geizhals geschaut und es ist fast nichts mehr lieferbar
 
Die Xeon Phi x200 (Knights Landing) sind nie offiziell als PCIe-Karte veröffentlicht worden und die x100 (Knights Corner) werden afaik nicht mehr produziert.
 
calluna schrieb:
nur weil sich moderne GPUs auch für andere Zwecke gut verwenden lassen (d.h. bei denen ähnliche Berechnungen relevant sind), bedeutet das nicht, dass GPUs das beste Design für diese Zwecke sind.

Was ich lustig finde, man könnte das Wort GPU auch durch CPU tauschen ;)

nur weil sich moderne CPUs auch für andere Zwecke gut verwenden lassen (d.h. bei denen ähnliche Berechnungen relevant sind), bedeutet das nicht, dass CPUs das beste Design für diese Zwecke sind.

Ich finde es ist relativ ob es nun CPU, GPU ect heißt. Wichtig ist, dass die gedachte Hardware für das Szenario effektiv funktioniert.
 
@pipip

Hast du eigentlich gelesen, was ich geschrieben habe? Davon abgesehen... aus dem Satz: "Ein GPU ist nicht die beste technische Lösung für den Anwendungsfall x" folgt nicht "Eine CPU ist die beste technische Lösung für den Anwendungsfall x".

Ich habe den Eindruck, dass du diesen Schluss gezogen hast. Zumindest wäre es eine Erklärung für deine Antwort auf meinen Beitrag. (Außerdem... CPU und GPU bezeichnet die Rolle eines Prozessors, die er üblicherweise erfüllt bzw. für die er entworfen wurde. Und da eine CPU üblicherweise so entworfen wird, dass sie für sehr viele verschiedene Anwendungsfälle geeignet ist, entspricht sie üblicherweise auch nicht der besten technischen Lösung für die einzelnen Anwendungsfälle. Im Gegensatz dazu ist eine Architektur, die für eine bestimmte Problem-Kategorie entworfen wurde, wie eine GPU, nur dann in anderen Szenarien effizient, wenn sie der ursprünglichen Problem-Kategorie ähnlich ist.)
 
Zuletzt bearbeitet:
Simon schrieb:
Die Xeon Phi x200 (Knights Landing) sind nie offiziell als PCIe-Karte veröffentlicht worden und die x100 (Knights Corner) werden afaik nicht mehr produziert.

Richtig, die waren auch nur noch dafür gedacht, dass die Organisationen, die sich gerade erst ein System mit Knights-Corner-Karten hingestellt haben, wenigstens noch einen Upgrade-Pfad haben.
Über die üblichen Lebenszyklen von HPC-Systemen hat das so ganz gut gepasst. Bis die KNL dann ersetzt werden müssten, wäre dann sowieso normalerweise ein komplett neues System dran.

Das zeigt aber auch mal wieder, wie viele Leute hier wild spekulierend weit weit außerhalb ihrer Kompetenzen herumbrabbeln und nur komplett auf dem GPU-Bereich rumreiten.
Gerade die gesockelten Standalone-KNL waren interessant und die sind etwas komplett anderes als GPU-Beschleuniger... in ganz anderen Systemstrukturen und mit völlig anderen Programmiermodellen und Software-Stacks.

Von daher ist es schon etwas verwunderlicher, dass Intel diesen neuen Bereich wohl schonwieder einstampft.
Das war ein relativ solides Konzept, das halt ein Stück mehr parallele Number-Crunching-Power bietet als normale Xeons, aber dabei noch nicht die Hardware-Strukturen und Programmieransätze von GPUs benötigt. Eigentlich ein ganz brauchbares Zwischending zwischen Xeons und GPUs.
Wir haben am Institut auch ein "kleineres" System mit "einigen" standalone KNLs. Da geht echt einiges, was auf GPU-Systemen so einfach nicht so gut funktioniert.
Man darf halt nicht vergessen, dass solche Systeme auch zum größten Teil von Kunden mit eigener Software genutzt werden. Wenn man da nicht gleich die komplette Software umschreiben muss, weil man den größten Teil der Performance jetzt nur noch aus GPUs bekommt, dann ist das auch ein nicht zu unterschätzender Vorteil.

Kann natürlich sein, dass man dieses Zwischending dank EMIB nun nicht mehr braucht. Statt der MIC (Many Integrated Core) Architektur hat man vielleicht nun die Möglichkeit auch die einzeln deutlich schnelleren Xeon-Kerne in großer Zahl auf ein Package zu bringen. Mal abwarten welche Taktraten und Kernzahlen da bei noch handhabbaren TDPs so rumkommen werden.
Oder, rein spekulativ, könnte man auch im GPU-Bereich eine Art integrierten, minimalistischen "Handler-Prozessor" einführen, der die GPUs standalone-fähig macht und Dinge wie das Networking für die GPU handhabt... Vielleicht sogar ARM-basiert?! Das würde dann womöglich auch wieder dieselben Programmiermodelle wie auf den KNLs erlauben.

Auf jeden Fall sehr interessant, was da alles gerade von der SC kommt. Bin gespannt, was die Kollegen so zu erzählen haben, wenn sie wieder da sind.

@Calluna
Das ist zwar richtig, aber im Endeffekt Wortklauberei.
Quasi alles, was keine GPU ist, ist eine CPU.
Von daher folgt gewissermaßen in der Praxis schon, dass eine Berechnung, die auf GPUs "nicht gut" läuft, überhaupt erst als "nicht gut" eingestuft wird, weil CPUs besser darin sind.
Es mangelt einfach an nennenswert verbreiteten Alternativen.
 
Zuletzt bearbeitet:
Vielleicht lassen sie die RTG zusammen mit Intel im Deep Learning was entwickeln und AMD nutzt das KnowHow um abgespeckte Varianten ohne den GPGPU-Ballast wie bei GCN für den Gaming/Custom Bereich zu nutzen?

Damit würde man dem GPU-Konkurrenten einen wichtigen Markt streitig machen, verdient im Verbund mit Intel auch in dem Bereich mit und kann sich auf GPUs im Gaming-Bereich fokussieren, sei es nun Grafikkarten oder integrierte Lösungen wie in den Konsolen...
 
Zurück
Oben