News Zukünftige Intel-Produkte: 10-nm-FPGA mit PCIe 5.0, 100-Gbit-Ethernet und Wi-Fi 6

ghecko schrieb:
Intel hat sich mit Altera eine ganz schöne Cashcow eingekauft. Ich halte die Integration von FPGAs in CPU-Designs für den Hauptinnovationsvorsprung, den Intel in Zukunft von allen anderen am Markt absetzen wird. Die Möglichkeit eine FPGA als Teil einer CPU zu nutzen ist derart genial dass ich mich frage, warum bis jetzt kein anderer Hersteller auf die Idee gekommen ist.

Softcores in FPGAs gibt es schon lange und FPGAs mit Hardcores sind auch nix neues.
 
  • Gefällt mir
Reaktionen: Nagilum99
foofoobar schrieb:
Softcores in FPGAs gibt es schon lange und FPGAs mit Hardcores sind auch nix neues.
FPGAs als programmierbarer Beschleuniger für Computing als Teil eines CPU-SOC ist neu.
Dass FPGAs seit längerer zeit PPC oder ARM-cores beinhalten, die Management, Reprogramming oder offloading von Operanten durchführen, die sich nicht effizient auf dem FPGA ausführen lassen ist mir bekannt.
Interessant ist die Verwendung wie Intel sie anstrebt: programmierbare Beschleuniger die Aufgaben in Echtzeit erledigen können, als Unterstützung für x86-Hardware, die diese Funktionalität nicht bieten kann.
 
Heinzelwaffel schrieb:
Wann kommt denn mal 10GBit/s im Mainstream an?

Ich denke das wird erst passieren wenn sie auf Mainboards integriert sind. So wie halt früher bei 1 GBE auch. Damals waren 1 GBE Switches selbst für ambitionierte kleine Büros unerschwinglich noch lange nachdem alle Rechner mit 1 GBE Port ausgestattet waren.

Aktuell kenne ich aber nur Aquantia der auch Desktops bedienen will und nicht nur Server wie Intel oder Mellanox. Selbst damit bekommt sie den Preis von etwa 100 EUR pro Port nicht signifikant runter. Seit Jahren.

Die Verbreitung von 40 GBE war für mich auch eine schlechte Nachricht.

Normalerweise verläuft die Entwicklung wie folgt: Desktop 1 GBE, Server 10 GBE, Switch 100 GBIT/s. D.h. es muss 100 mal schnellere Netzwerktechnik bereitstehen als das was auf Desktop verbaut wird. Als man bei Server einen Zwischenschritt von 40 GBE hinlegte statt wie bisher üblich 10 x schneller auf 100 GBE zu gehen schwante mir schon, dass es Verzögerung geben würde.

Jetzt wo Intel ins 100 GBE Geschäft eingestiegen ist könnte es langsam losgehen.

Gute Nachricht ist, entgegen Befürchtungen werden Kupferkabel keine unüberwindliche Hürde darstellen.
 
Wattwanderer schrieb:
Ich denke das wird erst passieren wenn sie auf Mainboards integriert sind. So wie halt früher bei 1 GBE auch. Damals waren 1 GBE Switches selbst für ambitionierte kleine Büros unerschwinglich noch lange nachdem alle Rechner mit 1 GBE Port ausgestattet waren.

Für jemanden, der zu der Zeit kein Auge darauf geworfen hat, wie lange dauerte das da? Bzw. wie lange dauert das jetzt noch?
 
kest schrieb:
Es gibt nur noch einen "anderen" CPU-Hersteller: AMD.

Uh? Ok, ich hole Baldrian und Wärmende Decken, aber DU versuchst bitte das IBM, Oracle, ARM, Samsung, ....und einem halben Dutzend anderer Irrer die doch bisher glatt glaubten ebenfalls CPUs herzustellen...., beizubringen.
 
  • Gefällt mir
Reaktionen: [wege]mini und Nagilum99
Ja aber die sind anders.
CPUs von AMD und Intel haben keine Gräten.

Ich denke mal er redet von x86 CPUs mit Marktanteil.
 
Dann sag das doch gleich anstatt einen Teil seines Postings rauszupicken, ihn umzuinterpretieren und über deine Baldrian-Sucht zu sprechen. Damit verschwendest du doch seine Zeit und deine. Und ich hab nicht verstanden was du eigentlich gewollt hattest. ^^
 
Wattwanderer schrieb:
Normalerweise verläuft die Entwicklung wie folgt: Desktop 1 GBE, Server 10 GBE, Switch 100 GBIT/s. D.h. es muss 100 mal schnellere Netzwerktechnik bereitstehen als das was auf Desktop verbaut wird. Als man bei Server einen Zwischenschritt von 40 GBE hinlegte statt wie bisher üblich 10 x schneller auf 100 GBE zu gehen schwante mir schon, dass es Verzögerung geben würde.

Ich empfehle einen Blick auf die Standards zu 200GBE und 400GBE, deren Verbreitung und (ab Seite 9) die Angaben zur elektrischen Leistungsaufnahme. -> unbegrenztes Wachstum bleibt ein Mythos.
 
Wi-Fi 6 ist Dual-Band (2,4 u. 5 GHz) per Definition (im Standard festgelegt). Wi-Fi 6 nur im 2,4 GHz oder nur im 5 GHz Band wäre gegen die Spezifikation des (802.11ax) Standards.

senf.dazu schrieb:
Ich würd lieber USB4 dann auch in optisch sehen .. da kann die Strippenlänge dann nämlich auch beliebig sein. Und Networking bei Thunderbolt3 gibt's ja auch schon ansatzweise.
Da USB 4.0 auf Thunderbolt-Technologie basieren wird ist eine Umsetzung der optischen Übertragung heute bereits technisch realisierbar,
denn für lange Übertragungsstrecken überträgt Thunderbolt Daten per Glasfaser. Die erforderlichen Transceiver sind in die Stecker der Verbindungsstrippe verbaut. Ist nicht preiswert, aber funktioniert.
Bedeutet im Kabel sind sowohl Kupferdrähte (v.a. Spannungsversorgung) als auch Glasfasern (für Datenübertragung).
 
Ich arbeite ja schon mit QA-Modul und Altera FPGA, das wäre echt geiler Kram - mal meinen Abteilungsleiter in einem zukünftigen Projekt dazu drängen den zu verwenden :freak:

Aber bis auf die Anschlüsse jetzt erst mal nichts revolutionär Neues, FPGAs mit Cortex Axx gibt es schließlich schon wie Sand am Meer.
 
Hayda Ministral schrieb:
Die Beschränkung auf X86 ergibt aber (meine Meinung) so gar keinen Sinn


wenn das teil den namen fpga auch nur ansatzweise verdient, dann ist es dir doch überlassen, womit du das teil programmierst.

https://de.wikipedia.org/wiki/Field_Programmable_Gate_Array

https://www.computerbase.de/2017-12/stratix-10-mx-fpga-arm-hbm2-emib/

"Weiterhin gibt es Ableger mit verschiedenen Transceivern (Stratix 10 SX/GX/TX) oder auch speziell für den Einsatz als DSP mit bis zu 10 TFLOPS an Leistung. Im Idealfall soll eine sehr hohe Effizienz von 80 GFLOPS pro Watt geboten werden, erklärt Intel. "

alleine die vorstellung eines DSP mit 10 TFlops macht mich irgend wie ein wenig wuschig :heilig:

wenn du damit x86 betreibst, kein problem. musst du aber auch nicht.

in den frühen 90er jahren haben wir z.T. schon von sowas geträumt....eine "cpu" für alles und die software, mit der du schaltungen fütterst kostet halt die kohle.

wenn du eine graka willst, machst du eine graka daraus :evillol:

mfg

p.s.

ohne die arm´s wären die fpga´s doch quasi "nutzlos" → wenn das projekt funktionierst programmierst du halt irgend wann deinen fpga mit avx512bit "schaltungen" und entlastest damit die "cpu".

in 10nm mit hbm sind die teile unfassbar schnell und mit den ganzen anbindungen für so ziemlich alles zu gebrauchen, was man sich vorstellen kann....."the sky is the limit"

"Das wahrscheinlich bekannteste Beispiel sind FPGA-Rechner zum Brechen kryptographischer Verfahren, wie dem Data Encryption Standard (DES). Der aus 120 FPGAs bestehende Parallelrechner COPACOBANA ist ein solcher Parallelcomputer zum Codebrechen. "
 
Zuletzt bearbeitet:
@Der Nachbar- Intel ist dafür nicht Mal in der Lage für ihre Super 28 und 56 Kern Xeons den richtigen Anpressdruck bzw. eine ordentliche Halterung zu entwickeln und das bei einem Preis jenseits von Gut und Böse.
Das Hat AMD bei Epyc und TR wenigstens hin bekommen.
 
[wege]mini schrieb:
[...]
ohne die arm´s wären die fpga´s doch quasi "nutzlos" → wenn das projekt funktionierst programmierst du halt irgend wann deinen fpga mit avx512bit "schaltungen" und entlastest damit die "cpu".

in 10nm mit hbm sind die teile unfassbar schnell und mit den ganzen anbindungen für so ziemlich alles zu gebrauchen, was man sich vorstellen kann....."the sky is the limit"

"Das wahrscheinlich bekannteste Beispiel sind FPGA-Rechner zum Brechen kryptographischer Verfahren, wie dem Data Encryption Standard (DES). Der aus 120 FPGAs bestehende Parallelrechner COPACOBANA ist ein solcher Parallelcomputer zum Codebrechen. "

AVX512 in einem FPGA abzubilden ist recht sinnlos, wenn es CPUs gibt, die das in Hardware können und damit beim Durchsatz und Effizienz eine ganze Ecke besser sind. Ganz abgesehen davon, dass es sowieso die bessere Idee wäre den zu berechnenden Algorithmus direkt im FPGA abzubilden anstatt über den Umweg einer X86 Befehlssatzerweiterung zu gehen.

Für "so ziemlich alles" sind FPGAs auch nicht gut. Die Dinger haben eine Nische zwischen frei programmierbaren CPUs und fixen ASICs.
 
Piktogramm schrieb:
dass es sowieso die bessere Idee wäre den zu berechnenden Algorithmus direkt im FPGA abzubilden anstatt über den Umweg einer X86 Befehlssatzerweiterung zu gehen.

völlig richtig...wenn du aber ein x86 system am laufen hast und deine cpu hat nur unterdurchschnittliche leistung im avx512 oder gar keine register dafür, dann ist ein fpga schon mal ein ansatz.

wir reden über 2021+ und dann auch über reine entwickler systeme.

falls fpga´s als "co-prozessor" mal auf "cpu´s" im desktop landen, werden wir wohl bei 2025 sein.

aber schön wäre der gedanke schon....ein fpga neben der "cpu" als standart graka oder gerne auch als "what ever" wenn ich mit externer graka arbeite :evillol:

mfg
 
[wege]mini schrieb:
falls fpga´s als "co-prozessor" mal auf "cpu´s" im desktop landen, werden wir wohl bei 2025 sein.

ich beschäftige mich mit FPGAs schon seit mehr als 15 Jahren. Den Glauben, dass FPGA im Desktop-Bereich landet, habe ich aufgegeben. Sehe ich einfach nicht. Wenn Intel es nicht schafft seit 10 Jahren oder so eine Entwicklungsplattform anzubieten, die günstig und einfach zu bedienen ist, dann wird es nichts daraus auch in den nächsten Jahren.
Sowohl Xilinx, als auch Intel/Altera (Microsemi und Lattice klammere ich mal aus) kümmern sich gerade eher nur um "Schlachtschiffe" von FPGAs. Alles, was an Boards verfügbar ist und an FPGAs sind einfach zu teuer für Desktop. Keiner möchte so eine Beschleunigungskarte einfach mal eben so, als early adapter, in so ein Desktop-PC stecken und damit was machen.
Alles, was gerade bedient wird, ist Server-Markt / HPC. Da braucht man natürlich 10-100 GBE. Was viele vielleicht nicht wissen ist, dass auch wenn man sich so ein FPGA für 10kEuro gekauft hat (pro Stück!), zwischen 20 und 50 kEuro allein die Lizenz für 10G-100G IP-Core kostet. Da ist nichts mit Open Source und Software/FPGA-Entwicklung wie bei Linux :-( Die Ansätze sind da (Openhardware), aber es braucht einen FPGA-Hersteller, der bereit ist, die Tools offen zu legen oder einfach sagen -- alle IP-Cores kostenlos (von mir aus ohne Support).
Das würde dazu führen, dass mehr Bedarf nach FPGAs entsteht und die Preise beginnen zu purzeln.

Aber das ist nur meine Meinung :-(
 
AVX oder sonstige CPU Befehlssatzerweiterungen in einen FPGA zu integrieren ist deppert.

* Ein FPGA-Lösung die das in nennenswertem Ausmaß abbilden kann kostet Geld. In der Regel derart viel, dass man sich auch schlicht einen passende CPU kaufen könnte um entsprechende Software ausführen zu lassen.

* Befehlssatzerweiterungen von CPUs in ein FPGA zu gießen um dann darauf Software auszuführen ist Ineffizient. Da vergeudet man unheimlich viele Logikblöcke nur um Befehlsdecoder, Register etc. pp. abbilden zu können. Die Synthese und Konfiguration des FPGAs würde dann auch einige Minuten dauern und wäre dann auch noch deutlich ineffizienter als eine Implementierung der entsprechenden Befehlserweiterungen direkt in der CPU.

Genauso wie FPGAs als GPU-Ersatz kompletter Käse wären. GPUs sind heutzutage recht frei programmierbar und damit flexibel. Eben jene Flexibilität lässt sich wie bei CPUs mit FPGAs nicht effizient darstellen.

@kest
An freie IP-Blöcke glaube ich in dem Bereich auch nicht.
 
Zuletzt bearbeitet:
Wattwanderer schrieb:
Sehe schon. Wir leben in unterschiedlichen Welten und müssen uns darauf einigen, dass wir uns nicht einig sind.

10 GBE wird nur mit Kupfer eine Chance haben. Wie gering die Bereitschaft für neue Kabel sind sieht man ja schon bei Powerlan und WLAN Bridges. Dabei sind es einzelne Strippen die gelegt werden müssten. Ein ganzes Büro mit strukturierter CAT 5 Verkabelung? Ganz neu? Nie im Leben. Wir leben ja schon damit, dass einige Ports bei 100 MBIT/s hängengeblieben sind. Da kamen keine neue Kabel und das obwohl großzügig Leerrohre vorhanden sind.

Trotz beängstigenden CAT Zahlen die herumgeworfen werden, am besten CAT 43987 und so dick wie ein Arm, funktioniert CAT 5 UTP recht gut mit 10 GBE. Zumindest in Längen die in kleineren Gebäuden relevant sind.

Die Karten mit Kupfer vs Faser werden wohl erst mit 100 GBE neu gemischt aber wenn man sich anschaut wie lang 10 GBE auf sich warten lässt rechne ich mit mindestens 20 Jahre bis 100 GBE auf Desktop.
Das wir uns nicht einigen können ist voll ok ;)

Aber deiner Prognose mit dem 100GBE min 20J auf dem Desktop mag ich auch noch eine eigene (sicher inkompatible) entgegensetzen: es würd mich nicht wundern wenn die optische Variante von USB innerhalb der nächsten 2..3 Jahre kommt. Wobei Computer und hochauflösende Monitore (6k+) sehr schnell zumindest mit einigen Ports ausgestattet werden. Und Netzwerke werden dann auch auf diese Verkabelung wandern. Zwei Sorten teure Ports rechnen sich einfach nicht. Und 100GBE auf dem Consumer-Desktop gibt's sicher wenige Jahre danach - sobald dann die erste Geschwindigkeitsverdopplung des optischen USB ansteht ..

Eigentlich frag ich mich sogar was neben Ethernet mit Infiniband und Omnipath passiert. Intel kann eigentlich kein Interesse haben verschiedene optische PHY Layer für USB und Omnipath und auch Ethernet in die eigenen CPU Chips (und Chipsets) zu verfrachten - bei den höheren Protokollebenen spielts vielleicht nicht so die Rolle - aber zumindest ein gemeinsamer Multimaster-Zeitmultiplex mag aber für Consumer auch sinnvoll sein um alles mit der gleichen DMA und Rahmenformatierungshardware in den CPUs erschlagen zu können - aktive Switches bei den Geschwindigkeiten würden wohl nicht so schnell consumergerecht preiswert werden (teuer sind sowohl die schnellen Si-Switches als auch die optischen Transceiver). Und zumindest irgendeine Sorte von Datenaustausch zwischen Infiniband und Omnipath einerseits und USB und Omnipath andererseits wäre wohl auch wünschenswert - wenn nicht sogar ein einheitliches Interface. Quo vadis USB für künftige 100/200/400 G - wie nah kommt's dem Omnipath ? (Anmerkung: Omnipath 100G ist seit Jahren auf dem Markt, 200G soll noch dieses Jahr auf den Markt kommen, 400G Prototypen wurde das auch mal nachgesagt)
 
Zuletzt bearbeitet:
@senf.dazu

Wobei ich mir gar nicht sicher bin ob 100 GBE auf Dekstop überhaupt kommt.

10 GBE ja. Weil schon teilweise da aber da fängt es schon an mit Streaming. Noch ist RDP über 10 GBE immer noch holprig aber wenn man sich anschaut was einige über Internet bereits hinbekommen sieht man die Möglichkeiten. Da würde ich so wie heute NAS für Daten eine "Compute-Unit" im Keller nicht für unwahrscheinlich halten. Auf Desktop gibt es gar kein Massenspeicher und im Keller mag dieser Supercomputer seine Daten so übertragen wonach es ihm gerade ist.

Wenn ich überlege hat QNAP ja bereits ein Produkt in diese Marschrichtung im Angebot.
 
Zurück
Oben