News PCIe 8.0: Erster Entwurf für die 1 TB/s schnelle Schnittstelle steht

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
14.191
Vor rund 6 Wochen hatte die PCI-SIG die Pläne mit PCIe 8.0 veröffentlicht. Jetzt gibt es den ersten Entwurf aus der Arbeitsgruppe: Version 0.3 der Spezifikation für die 1 TB/s schnelle PCIe-8.0-Schnittstelle steht ab sofort den Mitgliedern zur Einsicht zur Verfügung.

Zur News: PCIe 8.0: Erster Entwurf für die 1 TB/s schnelle Schnittstelle steht
 
  • Gefällt mir
Reaktionen: flo.murr, MaverickM, Chismon und 6 andere
Prima !
Nur "gut", dass sich PCIe 5.0 noch nicht mal zur Gänze etabliert hat ... :freak:
 
  • Gefällt mir
Reaktionen: Husky90, usernamehere, electronish und 14 andere
Fühle mich alt mit meiner PCIe 3.0 Plattform 😅
 
  • Gefällt mir
Reaktionen: Weyoun, lyn187, Animal Mother und 20 andere
Wie lange es wohl dauert, bis wir das im Consumer Bereich sehen werden? 10 vielleicht 15 Jahre?
 
  • Gefällt mir
Reaktionen: electronish, LeckerRK, flo.murr und 5 andere
@Wolfgang.R-357: willst du lieber Stillstand?
Ich finds gut, dass man sich da Gedanken macht. Soll die PCI-SIG sich nun einfach ausruhen und warten bis es längst überfällig ist und sich dann erst darum kümmern? Bis Hardware (vor allem im Consumer-Markt) auf den Tisch kommt muss viele Jahre vorher die Spec klar sein. Und Lanes reduzieren bei gleicher Datenrate kann so schlecht auch nicht sein...

Was mich aber interessieren würde, ist wie weit es mit optischen Verbindungen aussieht.
PCI-Express-Schnittstelle: PCIe 7.0 und die Basis für optische Verbindungen stehen, PCIe 8.0 folgt
Ein Nachfolger für Oculink auf Glasfaser-Basis mit dem GPUs ohne Einschränkungen extern angehängt werden können wäre schon was feines.
Gibt es aber wohl erst mit PCIe 6.4 oder 7.0, wenn überhaupt.
 
  • Gefällt mir
Reaktionen: Cyroex, ILoveShooter132, Deinorius und 7 andere
SweetOhm schrieb:
Prima !
Nur "gut", dass sich PCIe 5.0 noch nicht mal zur Gänze etabliert hat ... :freak:
Natürlich hat sich PCIE 5 im Datacenter längst etabliert.
Wolfgang.R-357: schrieb:
Mit einer beigelegten Stickstoffkühlung?
Wo die Haltbarkeit in der Praxis bei gefühlt zwei Monaten liegt?
Das Stichwort ist Flüssigkeitskühlung. Stickstoff wird man nicht ernsthaft einsetze.
RedPanda05 schrieb:
Wie lange es wohl dauert, bis wir das im Consumer Bereich sehen werden? 10 vielleicht 15 Jahre?
Welche Datenmengen schaufeln die Consumer in 10 bis 15 Jahren?

Und was sind die Consumer bereit zu Zahlen?
 
  • Gefällt mir
Reaktionen: KeLcO, fronca, LukS und 2 andere
Auch hier treibt der Wirbel um KI den Fortschritt. Erst mit PCIe 8.0 werden 1,6T Ethernet NICs mit zwei Ports nur einen x16 Slot benötigen. Dabei hat z.B. Nvidia 1,6T Ethernet für 2026 auf der Roadmap. Der Bedarf ist also vorhanden. Passende Switches wurden von Broadcom mit dem Tomahawk 6 bereits vorbereitet.

Aufgrund der Anforderungen an die Kanalqualität wird es allerdings wohl sehr lange dauern bis der Standard beim 08/15 Konsumenten ankommt.
 
  • Gefällt mir
Reaktionen: Skysnake und apollostigma
Anoubis schrieb:
Fühle mich alt mit meiner PCIe 3.0 Plattform 😅
Bis es raus kommt und einen nennenswerten Unterschied ausmacht, ist es schon wieder veraltet. :D
Legt man hier auch nicht fest wie viel Strom über den Slot gehen soll oder ist es gar nicht die Aufgabe und wird den Mainboardherstellern überlassen?

Schön, dass es weiter geht, aber leider nicht relevant für den Desktop-User und nur wichtig für den Serverbereich.
Von Displayport und HDMI gibt es nichts neues?
 
Wenn es so weiter geht haben wir bei pcie 10 dann mehr TB/s als TB/€
 
@RedPanda05 Ich sage mal, Du liegst mit 15 Jahren für PCI-E 8.0 im richtigen Bereich. 6.0 kommt in so 2-3 Jahren, 7.0 und 8.0 werden komplexer und teurer als die alten Sprünge, da wird die Transition garantiert wesentlich länger brauchen.
ChatGPT schätzt 2038 für 8.0, ich glaube das ist optimistisch.
 
  • Gefällt mir
Reaktionen: Slim.Shady
RedPanda05 schrieb:
Wie lange es wohl dauert, bis wir das im Consumer Bereich sehen werden? 10 vielleicht 15 Jahre?
Immerhin ist Apple mit seinen Consumerschnittstellen schon bei TB5 (80..120G) auf dem Markt. Mit 40G für jede der beiden Lanes des USB-C Kabels liegt das immerhin schon zwischen PCIe5 und PCIe6 Niveau. USB/TB streitet ja auch am Prozessorgehäuse mit PCIe um die verfügbaren PINs um vom Prozessor auf die Mainboard-Platine zu kommen.

Und mit dem USB Nachfolger (dann vielleicht 160G - vielleicht ja endlich mit "passiv optischer Buchse"? Wegen Leitungslänge und USB-networking) rechne ich eigentlich täglich (Das USB 4 Version 2.0 (80G) Release ist inzwischen auch schon 3J alt: Okt'22). Die USB5 elektroopischenTransceiver dann (noch) auf dem Mainboard (statt wie jetzt in den USB-Steckern des Kabels *), oder gleich im Prozessorgehäuse)?

Sprich zwischen PCIe6 (64G je Lane) und PCIe7 (128G) wären wir mit USB5? dann wohl auch schon so gut wie angekommen. :) Gleich morgen. Obwohl man das bei optisch nicht mehr so ganz genau sagen kann. Mehr als z.B. eine Glasfaser je Richtung wird das ja wohl noch lang nicht brauchen? Wellenlängen gibt's ja eigentlich reichlich .. sprich das gute alte USB1..2 Kabel könnte vom Prinzip noch lange passen: 2 Glasfasern für Daten (gut für 10Tbps?)+ 2 Glasfasern für Power Over (48VDC, bis zu 240W)? Sonst nix.

Oder war deine Frage wann unsere deutschen Internet Datenraten (Festnetz) bei 1 TBit/s ankommen?
Die Telekom könnte das doch bestimmt schon 1G für 70€ mtl. 1T für dann 70000€ mtl. (is halt 1000x schneller). Und die 1 Mio € für die Leitungssonderverlegung muß natürlich als Einstandspreis bezahlt werden. Aber nur einmalig. Der Kunde ist halt König. Aber die Deutschen brauchen das halt nicht - 100 MBit/s reichen doch völlig für die nächsten 10J? Und 1GbE ebenso. Die Kunden bestrafen ja sogar Glasfaser mit 10..30% Quote sagen die Provider. (Der Kunde denkt sich - wenn ich bei dem Wechsel auf Glasfaser kein Bit/s mehr an Datenrate kriege beim unveränderten Preis - warum sollte ich .. ich mache halt auf stillen Protest bis es einen sichtbaren Schritt nach vorn bei Preis/Leistung gibt. Wie echtes 1G/0.5G für den alten Kupferpreis.)

*) https://www.owc.com/solutions/usb4-cables (PS an dem Kabel (100€) sind die Enden mit den Transceivern teuer - echte superminiaturisierte high-tech Silicon-Optics Schaltkreise. Schneidet man es durch hätte man zwei Transceiver für zwei USB 40Gbps Ports am Rechner (a 50€). Fänd ich kaufenswerter als 140€ Aufpreis für das Upgrade von 1GbE auf 10GbE an den Macs. ;) So ein optisches (= laange Kabel) 40G Netzwerk (per USB-Networking) für 50€ Updatepreis wär auch schon was.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: apollostigma
Die CPU ist ja von den PCIe ja nicht so weit weg, macht des echt den Braten Fett Signale von der CPU auszulesen, Optisch umzuwandeln, 20cm über Glasfaser zu schicken und in eine PCIe Karte wieder zu übersetzen, warscheindlich wieder Elektrisch Digital.
Kann man da Schaltzeitenmäsig irgendwas gewinnen auf dieser kurzen Strecken das sich das umwandeln lohnt ? Oder gibt es bald CPU`s und Graka`s mit direkter Optischer schnittstelle an den Chips, dann könnte es Geil werden.
 
@DragonScience
Klar lohnt sich das. Du hast immer Leitungsverluste, bei Optisch nicht. Und es wird einiges an Energie gespart was wieder zu weniger Hitze führt.
 
DragonScience schrieb:
Die CPU ist ja von den PCIe ja nicht so weit weg, macht des echt den Braten Fett Signale von der CPU auszulesen, Optisch umzuwandeln, 20cm über Glasfaser zu schicken und in eine PCIe Karte wieder zu übersetzen, warscheindlich wieder Elektrisch Digital.
Kann man da Schaltzeitenmäsig irgendwas gewinnen auf dieser kurzen Strecken das sich das umwandeln lohnt ?
Es geht um Server und auch um CXL das auf PCIE aufsetzt. Bei den Servern kommen längere Distanzen zusammen. Wenn man den Speicherpool für ein ganzes Rack haben will sind es nicht nur ein paar cm.
DragonScience schrieb:
Oder gibt es bald CPU`s und Graka`s mit direkter Optischer schnittstelle an den Chips, dann könnte es Geil werden.
Das ist ein heißes Thema bei AI Beschleunigern. Aber auch hier dauert es noch ein bisschen. Bei den Gaming GPUs ist das total uninteressant, das will niemand bezahlen.
 
  • Gefällt mir
Reaktionen: DragonScience
DragonScience schrieb:
Die CPU ist ja von den PCIe ja nicht so weit weg, macht des echt den Braten Fett Signale von der CPU auszulesen, Optisch umzuwandeln, 20cm über Glasfaser zu schicken und in eine PCIe Karte wieder zu übersetzen, warscheindlich wieder Elektrisch Digital.
Kann man da Schaltzeitenmäsig irgendwas gewinnen auf dieser kurzen Strecken das sich das umwandeln lohnt ? Oder gibt es bald CPU`s und Graka`s mit direkter Optischer schnittstelle an den Chips, dann könnte es Geil werden.
Ab irgendeiner Signalrate werden die PCIe Kupferleitungen dann so kurz das sie im Prozessorgehäuse bleiben und nicht mehr über dessen PINs zum Mainboard gehen können. Geschweige denn auch noch über Kupfer Steckverbinder zu den Erweiterungskarten. Wenn das schon bei PCIe8 der Fall wäre, wäre PCIe8 eben die Signalbeschreibung für die Anbindung der elektrooptischen Transceiver intern im Prozessorgehäuse. Denn die verschiedenen Si-Chips im Prozessorgehäuse werden wohl noch auf längere Sicht die Signale elektrisch an die Nachbarchips im Prozessorgehäuse mit herkömmlich Si aber auch Si-Photonics für die optische IO liefern. Aber im Artikel klang ja auch an das bei PCIe8 noch untersucht wird wie man Steckverbinder dafür gestalten müßte ..
 
  • Gefällt mir
Reaktionen: DragonScience
Das sich auf längere Strecken Glasfaser lohnt ist unumstritten, aber ob die Umwandlung in einem Rechner schon so gut ist, das sich 20-30cm Glasfaser besser performen als reine Kupferleitungen mit direkten Verbindungen bin ich mir jetzt nicht sicher. Wird interessant wie PCIe 8.0-9.0 dann aussieht aber vorstellen kann ich mir es nicht. Außer die Glasfaser schnittstelle wäre direkt von der CPU raus.
Mal schaun was die Zukunft bringt.
 
Zurück
Oben