News NetSpeed: Intel kauft Spezialisten für Inter-Chip-Kommunikation

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.150
Mit der Übernahme des US-amerikanischen Unternehmens NetSpeed hat Intel nach eigenen Aussagen einen Spezialisten auf dem Bereich der SoC-Entwicklung erworben. Von besonderem Interesse sind dabei offensichtlich die Patente, die das Leitungsgewebe (engl. Fabric) zur Kommunikationen der SoC-Bestandteile untereinander betreffen.

Zur News: NetSpeed: Intel kauft Spezialisten für Inter-Chip-Kommunikation
 
Vorher war es zu 99% klar das Intel auch auf multichipdesigns setzten wird nun sind es 100%
 
  • Gefällt mir
Reaktionen: John Reese, TheBear1517, Obvision und eine weitere Person
Wie war das mit Epyc und NUMA + das Totschlagsargument gegen AMD.

Desweiteren erwarte ich, dass wir auch Intel HPC APUs sehen werden.
 
  • Gefällt mir
Reaktionen: der Unzensierte
"Was kümmert mich mein Geschwätz von Gestern" :D
Aber war ja irgendwie klar. Neue (Ver-ver-ver-verspätete) Fertigung mit niedrigen yields lässt sich mit großen Chips nicht wirtschaftlich umsetzen. Auch Intel muss aufs Geld gucken.
 
  • Gefällt mir
Reaktionen: onkas
"Von besonderem Interesse sind dabei offensichtlich die Patente" Gut, dann kann man die Mitarbeiter ja jetzt entlassen.
 
  • Gefällt mir
Reaktionen: TheBear1517 und Excel
Interessant dabei ist doch die Frage wie lange die Neuentwicklung des Multi-Chip-Designs dauert.
2, 3, 4 Jahre?
Könnte eine lange Durststrecke für Intel werden :-)
Und ich wünsche es ihnen so!
Ergänzung ()

pipip schrieb:
Desweiteren erwarte ich, dass wir auch Intel HPC APUs sehen werden.

Bin ich bei dir!
Dass Microsoft nicht mehr Berechnungen auf einer leistungsfähige GPU anstatt einer CPU durchführt ist doch nur der Klüngelei mit Intel geschuldet. Und der Tatsache dass Intel bisher schlicht nichts hat.
 
Zuletzt bearbeitet:
Das erste Bild sieht irgendwie leicht schräg aus :D
 
Spätestens nachdem AMD mal eben 32 Kerne aus dem Hut gezaubert hat war klar das Multi-Chip-Design das Ding für die Zukunft wird. Von daher ein richtiger und konsequenter Schritt von Intel. Das dann auch APU kommen dürfte ausgemachte Sache sein.
 
Nice... Also ich meine der erste Gedanke, den ich bei dieser Meldung hatte war: CCX und AMD...
Das ist definitiv ein vollständiger Triumpf, für die deutlich kleinere Chipschmiede AMD.
 
  • Gefällt mir
Reaktionen: Fragger911
@Wattwanderer
Du hast scheinbar nichts verstanden oder?
Wo warst du seit 2017?

Ist es besser, 1x 600mm² aus einem 12 Zoll Wafer zu schneiden, wo plötzlich 30mm² kaputt sind und 600mm² weggeworfen werden müssen

oder ist es besser 3x 200mm² aus einem 12 Zoll Wafer zu schneiden, wo plötzlich bei einem der 200mm² 30mm² kaputt sind und dieser eine weggeworfen werde muss, 2 aber noch Funktionieren?

aha!... Okay
 
  • Gefällt mir
Reaktionen: Simpl3Moe und TheBear1517
Wattwanderer schrieb:
Nur werden die Transistoren ja nicht billiger nur weil sie auf einem Sockel sitzen statt auf zwei, vier etc?

Hier geht es primär nicht um den Preis, sondern schlicht um die Realisierbarkeit.
Einen Monolith in der von Intel geplanten Größe/Komplexität herzustellen, scheint gescheitert zu sein.
 
Überraschend.

Ihr tut ja gerade so, als kennt ihr keine Mainboards mit zwei CPU Sockeln?
 
  • Gefällt mir
Reaktionen: Rotkaeppchen
Wattwanderer schrieb:
Ihr tut ja gerade so, als kennt ihr keine Mainboards mit zwei CPU Sockeln?
Was mal so überhaupt nicht vergleichbar mit dem MCM Design ist, wie man es jetzt von AMD kennt.
 
  • Gefällt mir
Reaktionen: Simpl3Moe
Es {{{{Infinity Fabric}}} kommt auch bei Vega zur Verbindung der GPU mit dem HBM2-Speicher zum Einsatz.

Nach meinem Verständnis ist das schlicht falsch, da die Verbindung zwischen GPU und Speicher so direkt wie möglich ist und die IF zwischen Vega und HBM2 somit nur stören würde. Liege ich falsch?
 
Wattwanderer schrieb:
Überraschend.

Ihr tut ja gerade so, als kennt ihr keine Mainboards mit zwei CPU Sockeln?

Zum einen ist bei einem Sockel die Packdichte des Systems größer (du kannst ja auch zwei Sockel mit MCMs bestücken, dann sind wieder doppelt soviele), zum anderen ist ein Interconnect zwischen Zwei Sockeln Performanceseitig nicht das gleiche wie innerhalb eines MCMs.
 
Hayda Ministral schrieb:
Nach meinem Verständnis ist das schlicht falsch, da die Verbindung zwischen GPU und Speicher so direkt wie möglich ist und die IF zwischen Vega und HBM2 somit nur stören würde. Liege ich falsch?
https://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf
In “Vega” 10, Infinity Fabric links the graphics core and the other main logic blocks on the chip, including the memory controller, the PCI Express controller, the display engine, and the video acceleration blocks.
 
  • Gefällt mir
Reaktionen: Hayda Ministral
Denke der Aufwand 2 Die zu koppeln ist gering und geht sogar ganz ohne Designanpassung, ist ja auch über Sockel hinweg möglich.

Schwieriger ist die ganze Sache skalierbar zu machen und denke das ist erst längerfristig Intels Ziel, ggf über die aktuell 8 Die bei Intel und AMD die maximal verbunden werden hinaus zu gehen.
 
Mehr Power in der Prozessor-Branche ist immer gut, herzlichen Glückwunsch zur Übernahme.
 
Zurück
Oben