News NetSpeed: Intel kauft Spezialisten für Inter-Chip-Kommunikation

Jan

Chefredakteur
Teammitglied
Dabei seit
Apr. 2001
Beiträge
10.427
#1
Mit der Übernahme des US-amerikanischen Unternehmens NetSpeed hat Intel nach eigenen Aussagen einen Spezialisten auf dem Bereich der SoC-Entwicklung erworben. Von besonderem Interesse sind dabei offensichtlich die Patente, die das Leitungsgewebe (engl. Fabric) zur Kommunikationen der SoC-Bestandteile untereinander betreffen.

Zur News: NetSpeed: Intel kauft Spezialisten für Inter-Chip-Kommunikation
 
Dabei seit
Juli 2008
Beiträge
2.949
#4
"Was kümmert mich mein Geschwätz von Gestern" :D
Aber war ja irgendwie klar. Neue (Ver-ver-ver-verspätete) Fertigung mit niedrigen yields lässt sich mit großen Chips nicht wirtschaftlich umsetzen. Auch Intel muss aufs Geld gucken.
 

Salutos

Cadet 3rd Year
Dabei seit
Sep. 2018
Beiträge
45
#7
Interessant dabei ist doch die Frage wie lange die Neuentwicklung des Multi-Chip-Designs dauert.
2, 3, 4 Jahre?
Könnte eine lange Durststrecke für Intel werden :-)
Und ich wünsche es ihnen so!
Ergänzung ()

Desweiteren erwarte ich, dass wir auch Intel HPC APUs sehen werden.
Bin ich bei dir!
Dass Microsoft nicht mehr Berechnungen auf einer leistungsfähige GPU anstatt einer CPU durchführt ist doch nur der Klüngelei mit Intel geschuldet. Und der Tatsache dass Intel bisher schlicht nichts hat.
 
Zuletzt bearbeitet:
Dabei seit
Aug. 2007
Beiträge
2.457
#8
Das erste Bild sieht irgendwie leicht schräg aus :D
 

NMA

Lieutenant
Dabei seit
März 2008
Beiträge
699
#11
Nice... Also ich meine der erste Gedanke, den ich bei dieser Meldung hatte war: CCX und AMD...
Das ist definitiv ein vollständiger Triumpf, für die deutlich kleinere Chipschmiede AMD.
 
Dabei seit
Okt. 2007
Beiträge
4.011
#12
@Wattwanderer
Du hast scheinbar nichts verstanden oder?
Wo warst du seit 2017?

Ist es besser, 1x 600mm² aus einem 12 Zoll Wafer zu schneiden, wo plötzlich 30mm² kaputt sind und 600mm² weggeworfen werden müssen

oder ist es besser 3x 200mm² aus einem 12 Zoll Wafer zu schneiden, wo plötzlich bei einem der 200mm² 30mm² kaputt sind und dieser eine weggeworfen werde muss, 2 aber noch Funktionieren?

aha!... Okay
 
Dabei seit
Nov. 2017
Beiträge
1.061
#16
Es {{{{Infinity Fabric}}} kommt auch bei Vega zur Verbindung der GPU mit dem HBM2-Speicher zum Einsatz.
Nach meinem Verständnis ist das schlicht falsch, da die Verbindung zwischen GPU und Speicher so direkt wie möglich ist und die IF zwischen Vega und HBM2 somit nur stören würde. Liege ich falsch?
 
Dabei seit
Aug. 2004
Beiträge
4.033
#17
Überraschend.

Ihr tut ja gerade so, als kennt ihr keine Mainboards mit zwei CPU Sockeln?
Zum einen ist bei einem Sockel die Packdichte des Systems größer (du kannst ja auch zwei Sockel mit MCMs bestücken, dann sind wieder doppelt soviele), zum anderen ist ein Interconnect zwischen Zwei Sockeln Performanceseitig nicht das gleiche wie innerhalb eines MCMs.
 
Dabei seit
Mai 2011
Beiträge
3.832
#18
Nach meinem Verständnis ist das schlicht falsch, da die Verbindung zwischen GPU und Speicher so direkt wie möglich ist und die IF zwischen Vega und HBM2 somit nur stören würde. Liege ich falsch?
https://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf
In “Vega” 10, Infinity Fabric links the graphics core and the other main logic blocks on the chip, including the memory controller, the PCI Express controller, the display engine, and the video acceleration blocks.
 
Dabei seit
Feb. 2007
Beiträge
20.347
#19
Denke der Aufwand 2 Die zu koppeln ist gering und geht sogar ganz ohne Designanpassung, ist ja auch über Sockel hinweg möglich.

Schwieriger ist die ganze Sache skalierbar zu machen und denke das ist erst längerfristig Intels Ziel, ggf über die aktuell 8 Die bei Intel und AMD die maximal verbunden werden hinaus zu gehen.
 
Top