News PCIe 8.0: Erster Entwurf für die 1 TB/s schnelle Schnittstelle steht

bensen schrieb:
Nvidia verkabelt das ganze NVL72 mit Kupfer. Ich meine sogar Inter-Rack die ganze zweite Ebene bei NVL576 ist alles Kupfer.
Es geht um die Zukunft, aktuell gibt es keine praktikable Lösung für Optische Verkabelung im Board oder Rack. Der Übergang von elektrisch auf optisch muss im Package stattfinden, sondern ist bei diesen Distanzen der Vorteil der optischen Datenübertragung futsch.

1758351648298.png


Das ist eine Folie von TSMC zu COUPE, der von TSMC propagierten Variante von Co Packaged Optics. Nvidia wird als erster Kunde gehandelt. Wann ist die Frage, denn billig wird das ganze nicht.
Ergänzung ()

bensen schrieb:
Wenn es egal wäre, hätte es nicht so früh breitflächig PCIe 5.0 gegeben. Aber es wird halt nicht um jeden Preis implementiert und es wird immer aufwändiger. Wird also mit jeder neuen Generation zunehmend langsamer bis in den Consumerbereich durchsickern.
Die Frage ist schlicht und einfach welche Anwendungsfälle für PCIe 6 es auf dem PC gibt es tatsächlich. Die Plattform generell teurer zu machen nur weil eine Handvoll Anwender es braucht und die Enthusiasten alles kaufen was Leading Edge ist, kann fatal enden.

Bei den Servern sind PCIe 6 ff erforderlich, weil die Datenmengen explodieren die durch sie Gegend geschoben werden.

bensen schrieb:
Als erstes vielleicht nur ein M.2 Slot. Ist am nächsten am CPU Sockel dran. Das geht definitiv noch ohne Retimer (PCIe 6.0). Beim ersten PCIe Slot wird es schon grenzwertig.
Das funktioniert nur, wenn die Leiterplatte keine zu hohe Dämpfung hat. Geht das tatsächlich mit dem aktuell verwendeten Leiterplattenmaterial oder muss man für PCIe 6 nochmal höher ins Regal greifen?

Dass es bei der Einführung von PCIe 6 nicht rund läuft halte ich für gesetzt. Der aktuelle Standard ist 6.4. Und das bevor sich PCIe 6 überhaupt etabliert hat.

Es gibt das Interview mit dem CEO von Silicon Motion wo er behauptet PCIe 6 käme für die Consumer erst ab 2030. Da der Typ in dem Interview viel gequasselt hat, bin ich nicht sicher ob er tatsächlich den Konsens der Branche wiedergegeben hat oder eben gequasselt hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mut4nt und SweetOhm
ETI1120 schrieb:
Welche Datenmengen schaufeln die Consumer in 10 bis 15 Jahren?

Und was sind die Consumer bereit zu Zahlen?
Na da rechnen wir doch mal.
Für den wandgroßen Bildschirm sagen wir mal im Arbeitszimmer von 3,50x2,40 m² brauchen wir erstmal um bis auf Nasenspitzenabstand herangehen zu können und immer noch keine Pixel mehr sehen so bei 300dpi dann 41338x28346 Pixel.
Für eine natürlich Bewegung muß es auch eine ordentliche Framerate sein die 60 Hz oder gar 24Hz aus Filmzeiten sind da wirklich out.
Daneben fällt es bei einem großen Bildschirm immer mehr auf das der ja nicht wie ein reales Abbild des dahinter (oder davor) wirkt sondern wie ein schödes Poster. Also brauchen wir 3D - und für jedes betrachtende Auge 2 oder Vielfaches von 2. Und ein für jede Augenposition relativ zum Bildschirm ein höchstpersönliche gerendertes eigenes Bild.
Also müßte z.B. jede MikroLED im Bildschirm eigentlich hunderte LEDs die zumindest in einige hundert horizonale Winkel abstrahlen kann um einzelne Augen (nebeneinander) treffen zu können. (Maximaler Betrachtungsabstand z.B. 6m => 20m Halbkreislänge/6cm Augenabstand= 333 hor. Raumrichtungen je Pixel nötig.

Also statt heute bei 4K mit etwa 8 Mio Pixel dann eben morgen bei 40k Bildschirme mit der 100 fachen Pixelzahl. Ach ne jeweils 333 Abstrahlrichtungen macht etwa Faktor 30000 bei der Pixelzahl. Bei üblicher Verdopplung (2^15=32768) alle 2..3J macht das dann 30..45J bis dieser Bildschirm existiert.

Und die Datenrate .. die ist noch schlimmer. Als 30000. Denn man braucht ja nicht nur ein Bild für alle Betrachter sondern ein Bild je Betrachter und Auge. Und außerdem wirklich ne bessere Framerate als 24Hz (auf die alle Filme und Kodierverfahren ausgelegt sind). Statt 24Mbps für 4K dann eben .. das 30000x10xN Fache.

Du siehst - bei der Datenrate gibt's keine Beschränkung. Alles was die Technik hergibt wird in gleicher Geschwindigkeit aufgefressen. Selbst in 40J noch. Sogar schon für schödes dann vielleicht interaktives Video. Interaktiv mit Realität an anderen Orten oder mit KI bei den "Lern"- und "Unterhaltungs"inhalten. Einschlafen im Bett am virtuellen Strand bei Meeresrauschen z.B.

Bisher hat die Technik so um die 30% mehr jährlich hergegeben macht 1.3^40=36000 in 40J. Paßt doch. Irgendwo in dem Zahlensalat taucht auch ne 30000 auf. Auch wenn man eigentlich - mehr - "braucht".

Und zahlen tun wir das "Gleiche" wie heute .. einen angemessenen Bruchteil unseres Einkommens (bei 20h Woche Arbeit natürlich - man braucht ja auch Zeit um zu konsumieren)

(Übrigens ein 4k@60 Bildschirm wird heute mit 15G unkomprimiert beschickt .. bei einem Videocodec mit hoher Latenz(viele Frames) und mieser Bildrate (24Hz) werden draus die besagten 24M Bit/s)

(Übrigens - wenn jeder statt wandgroßem Bildschirm ne VR Brille auf hat - werden die Ansprüche an die Pixelzahl nicht so viel geringer - aber ich mag eh lieber die Idee von Wand oder wenigstens Fenstergroßen 3D Bildschirmen. Selbst wenn die in 40J immer noch nur semiperfekt aber vielleicht gerade gut genug sind um zu bleiben - man stelle sich vor im Bett liegt man ja, die Augen sind also nicht - horizontal - nebeneinander)
 
Zuletzt bearbeitet:
SweetOhm schrieb:
Prima !
Nur "gut", dass sich PCIe 5.0 noch nicht mal zur Gänze etabliert hat ... :freak:
Ich hatte von 2014-2022 noch PCI 3.0 und hatte nie das Bedürfnis mehr zu benötigen.
DIe Grafikkarte die RX 6600 läuft PCI 4.0 mit 8x. Merke keinen Unterschied die RX 6600 ist definitiv schneller obwohl ja PCI 3.0 16x und PCI 4.0 8x identisch sein soll. 2028 dann wohl 7.0 mit dem nächsten PC dann wohl Ryzen. Liebe Grüße.
 
  • Gefällt mir
Reaktionen: SweetOhm
senf.dazu schrieb:
Na da rechnen wir doch mal.
Für den wandgroßen Bildschirm sagen wir mal im Arbeitszimmer von 3,50x2,40 m² brauchen wir erstmal um bis auf Nasenspitzenabstand herangehen zu können und immer noch keine Pixel mehr sehen so bei 300dpi dann 41338x28346 Pixel.
  1. Seit wann werden Bildschirme mit PCIe angeschossen?
  2. Man kann immer tolle Forderungen definieren, aber der optische Anschluss an der Bildschirm ist nur ein Problem um da zu realisieren.
 
Wenigstens die Hardware entwickelt sich immer weiter. Im Gegensatz zu manch anderen Dingen aktuell.

Ich freu mir :-)
 
Steven Coolmay schrieb:
Du hast immer Leitungsverluste, bei Optisch nicht.
Klar hat auch optisch Leitungsverluste, das Signal verhält sich halt anders. Und in bestimmten Bereichen der Datenrate, Leitungsart, Leistungsbedarfe etc eben vorteilhafter als elektrische Signale.

Noch dazu kann man optisch via Wellenlänge über die gleiche Verbindung multiplexen, wohingegen der Raum für Leiterbahnen auf Chips (an den Kanten) und auf den Boards (in der Fläche) bei 100+ PCIe-Lanes und RAM-Channels und den Cache-Verbindungen der Chiplets sehr schnell sehr knapp wird, weil die alle einzeln geführt werden müssen.
 
ETI1120 schrieb:
Es geht um die Zukunft, aktuell gibt es keine praktikable Lösung für Optische Verkabelung im Board oder Rack.
Es ging um deine Aussage "nur ein paar cm". Es geht auch 1-2 m mit Kupfer (über Kabel).
ETI1120 schrieb:
Der Übergang von elektrisch auf optisch muss im Package stattfinden
Das hab ich ja geschrieben.

ETI1120 schrieb:
Die Frage ist schlicht und einfach welche Anwendungsfälle für PCIe 6 es auf dem PC gibt es tatsächlich. Die Plattform generell teurer zu machen nur weil eine Handvoll Anwender es braucht und die Enthusiasten alles kaufen was Leading Edge ist, kann fatal enden.
Das würde ich so pauschal nicht sagen. PCIe 5.0 hatte auch keinen großen Nutzen für Consumer.
Wenn die Hersteller meinen, das taugt als Zugpferd für's high-end und die Kosten sind nicht zu exzessiv, dann werden sie es implementieren. Praktischer Nutzen hin oder her.
ETI1120 schrieb:
Das funktioniert nur, wenn die Leiterplatte keine zu hohe Dämpfung hat. Geht das tatsächlich mit dem aktuell verwendeten Leiterplattenmaterial oder muss man für PCIe 6 nochmal höher ins Regal greifen?
Ich finde leider den Artikel nicht mehr, der das thematisiert hatte. Was ich mir gemerkt hatte war, dass maximal 7 cm von Sockel bis Port ohne Retimer geht.
Ich bin ehrlich gesagt auch überfragt, was bei den aktuellen Boards zum Einsatz kommt. Da wird PCIe 5.0 ja auch schon über weitere Distanzen geroutet (2 x16/8 Ports und 2x M.2).
ETI1120 schrieb:
Dass es bei der Einführung von PCIe 6 nicht rund läuft halte ich für gesetzt. Der aktuelle Standard ist 6.4. Und das bevor sich PCIe 6 überhaupt etabliert hat.
Das ist zumindest im Consumerbereich nicht so relevant. Bis das dort kommt gibt's dauert es ja noch ne Weile.
ETI1120 schrieb:
Es gibt das Interview mit dem CEO von Silicon Motion wo er behauptet PCIe 6 käme für die Consumer erst ab 2030.
SMI hatte einen Consumer Controller für 2028 auf der Roadmap. Ende 2028-2029 ist dann nicht komplett unrealistisch.
Nova Lake + Refresh sicher nicht, aber die Plattform danach.
 
MaverickM schrieb:
Darfst Du auch, der Q9650 erschien 2008. Das ist 17 Jahre her. Nächstes Jahr darf er sogar schon harten Alkohol trinken :D
Nene, das System aus der Signatur ist nicht gemeint 😅 Das basiert sogar noch auf PCIe 2.0.

Im Hauptsystem arbeitet ein i7-7700k.
 
Santa Clause schrieb:
Erst mit PCIe 8.0 werden 1,6T Ethernet NICs mit zwei Ports nur einen x16 Slot benötigen. Dabei hat z.B. Nvidia 1,6T Ethernet für 2026 auf der Roadmap. Der Bedarf ist also vorhanden. Passende Switches wurden von Broadcom mit dem Tomahawk 6 bereits vorbereitet.

Aufgrund der Anforderungen an die Kanalqualität wird es allerdings wohl sehr lange dauern bis der Standard beim 08/15 Konsumenten ankommt.
Falls das überhaupt jemals kommt, den praktischen Mehrwert für Verbraucher seh ich da nicht. Sind ja nicht einmal alle mit 2,5Gbit unterwegs. :lol:

senf.dazu schrieb:
Statt 24Mbps für 4K dann eben .. das 30000x10xN Fache.

Du siehst - bei der Datenrate gibt's keine Beschränkung. Alles was die Technik hergibt wird in gleicher Geschwindigkeit aufgefressen.
Natürlich gibt's da Beschränkungen; Ein 4K-Frame in vollen 12bit wiegt rund 100MB - ein reines 40K-Signal entspricht Faktor ~128, und wäre entsprechend schon ~12,8GB pro Bild. Bei deinem 30k Faktor wären das dann gute 3TB, die innerhalb von 17ms berechnet werden wollen.

Ich lehne mich mal aus dem Fenster und behaupte, dass du solche VRAM Größen auch in 30 Jahren nicht sehen wirst. :p

Zumal die These noch leichter zu widerlegen ist: HDMI 2.1 mit den 48Gbps wird bald zehn Jahre alt, aber dass man die Bandbreite auch tatsächlich voll ausnutzt, bleibt weiterhin eine Ausnahme denn die Regel.
 
Eorzorian schrieb:
Bis es raus kommt und einen nennenswerten Unterschied ausmacht, ist es sind wir schon wieder veraltet. :D
Ich hab das mal korrigiert für dich. ;)
 
bensen schrieb:
Es ging um deine Aussage "nur ein paar cm". Es geht auch 1-2 m mit Kupfer (über Kabel).
Es ging mir darum, dass es auch bei optischer Datenübertragung erst Mal nicht um den Client geht. Die notwendigen Übertragungslängen sind ein Faktor. Die Datenmengen und die die Kosten sind weitere.

Ich denke wir sind uns einig, dass diese 1 bis 2 m Kupferkabel gute Kandidaten sind, um durch optische Datenübertragung per CPO abgelöst zu werden.

bensen schrieb:
Das würde ich so pauschal nicht sagen. PCIe 5.0 hatte auch keinen großen Nutzen für Consumer.
Wenn die Hersteller meinen, das taugt als Zugpferd für's high-end und die Kosten sind nicht zu exzessiv, dann werden sie es implementieren. Praktischer Nutzen hin oder her.
Keine Frage, und es ist eigentlich meine Befürchtung, dass wieder ein Standard wegen PR anstatt wegen Technischen Nutzen eingeführt wird.

Die PC Plattform ist groß und dominierend geworden, weil der Wettbewerb der Anbieter dazu geführt hat, dass das technisch notwendige mit den geringsten Kosten umgesetzt wurde.

Und dann ist halt die Frage was passiert, wenn man die Kosten nach oben pusht, ohne damit einen Nutzen zu erzeugen. Der PC Markt schrumpft seit 2010. Der Anteil der Notebooks überwiegt und nimmt langfristig zu. Wir werden sehen, ob der Anteil der Desktops aktuell tatsächlich zunimmt, oder ob die Marktforscher sich wieder einmal in ihren Zahlen verheddern.

Und dann gibt es die Entwicklung, dass immer mehr Mini-PCs mit Notebooktechnik auf dem Markt erscheinen. Noch haben sie einen Premium Preis (mit modernen Prozessoren). Wenn aber die Plattformkosten bei den Desktops weiter steigen, ...

bensen schrieb:
Das ist zumindest im Consumerbereich nicht so relevant. Bis das dort kommt gibt's dauert es ja noch ne Weile.

SMI hatte einen Consumer Controller für 2028 auf der Roadmap. Ende 2028-2029 ist dann nicht komplett unrealistisch.
Nova Lake + Refresh sicher nicht, aber die Plattform danach.
Falls PCIe 6.x einen realen Nutzen bringen sollte, wäre es gut wenn die Technik verfügbar würde. Ich sehe allerdings die Anwendung nicht. AI-Anwendungen profitieren von der engen Kopplung zwischen CPU und GPU und brauchen möglichst viel Speicher. Falls das Kosten-Nutzen-Verhältnis nicht stimmt, wird es der Desktop PC-Plattform schaden.
 
Wieso definiert die SIG nur die Geschwindigkeit? Wieso können die nicht auch die Stromzufuhr für Grafikkarten erhöhen? 75W ist nun wirklich nicht mehr zeitgemäß.
 
Die definieren alles mögliche inkl Stromzufuhr, Spannungsregler, Initialisierungsalgorithmus und mechanischen Sockel. Sogar die Länge, Breite und Tiefe der Erweiterungskarten inkl Abstand zwischen den Slots ist definiert.

Das interessiert nur den Consumer eher weniger, daher wird darüber nicht berichtet zumal sich da ziemlich wenig/nichts tut.

Und 75W über den Sockel sind ziemlich Viel für das MB. Das ist schon ok so wenn alles andere über Kabel kommt.
 
  • Gefällt mir
Reaktionen: ETI1120
ETI1120 schrieb:
Falls PCIe 6.x einen realen Nutzen bringen sollte, wäre es gut wenn die Technik verfügbar würde. Ich sehe allerdings die Anwendung nicht. AI-Anwendungen profitieren von der engen Kopplung zwischen CPU und GPU und brauchen möglichst viel Speicher. Falls das Kosten-Nutzen-Verhältnis nicht stimmt, wird es der Desktop PC-Plattform schaden.
PCIe 6.0 ff. müsste man viel näher an die CPU bringen, also gleich auf den Träger der DIE's.

Socket AM6 wäre dazu aber zu kompakt ...
 
Nikflin schrieb:
Wieso definiert die SIG nur die Geschwindigkeit? Wieso können die nicht auch die Stromzufuhr für Grafikkarten erhöhen? 75W ist nun wirklich nicht mehr zeitgemäß.
Sie könnten. Aber was wäre der Gewinn? Ob man nun den Zusatzstecker vom Netzteil zusätzlich ins Mainboard steckt, oder direkt in die Erweiterungskarte (der PCI SIG ist egal, was das für eine ist), macht für den Nutzer kaum einen Unterschied, macht das Mainboard aber viel teurer. 75W (bei 12V) ist schon viel für eine Platine.
 
RKCPU schrieb:
PCIe 6.0 ff. müsste man viel näher an die CPU bringen, also gleich auf den Träger der DIE's.
Das wird doch gemacht. Es läuft unter Co Packaged Optics (COP).

Es wird damit keine PCIe Slots geben.
RKCPU schrieb:
Socket AM6 wäre dazu aber zu kompakt ...
Socket AM6 wird kein COP bekommen, weil man es von den Datenraten nicht braucht, alle Kosten sprengt und das Ende von DIY wäre. Niemand lässt Konsumer an optische Verbindungen ran.
 
ETI1120 schrieb:
Niemand lässt Konsumer an optische Verbindungen ran.
TOSLINK sagt: Doch.

Und auch andere Stecker für optische Verbindungen sind nicht wirklich komplexer als Koax-Antennenkabel oder ähnliches. Das würde also nicht unbedingt das Problem dabei sein.
 
Nikflin schrieb:
Wieso definiert die SIG nur die Geschwindigkeit? Wieso können die nicht auch die Stromzufuhr für Grafikkarten erhöhen? 75W ist nun wirklich nicht mehr zeitgemäß.
Die PCIe-SIG kann die Stromversorgung nur dann ändern, wenn sie die Kompatibilität der PCIe Steckkarten über Board wirft.

Die Idee die Steckkarten übers Mainboard zu versorgen war an sich gut. Es gibt Grenzen was man übers Board jagen sollte. 75 W ist da ganz vernünftig.

Kannst ja schauen was Asus da macht:
https://www.computerbase.de/news/gr...ftig-250-watt-aus-dem-pcie-slot-ziehen.94403/

Ich kann nicht nachvollziehen was der ganze Unsinn soll, Kabel zu verstecken oder Kabel durch Leiterbahnen zu ersetzen.

Wenn man etwas ändern will sollte man bei der antiquitierten Stromversorgung mit dem 20 + 4 Pin Stecker anfangen. 3,3 V und 5 V sind als Spannungsebenen nicht mehr Zeitgemäß.

Die 3,3 V sind IMO auch beim PCIe Steckplatz zwar sehr traditionell aber technisch fragwürdig.
Ergänzung ()

stefan92x schrieb:
TOSLINK sagt: Doch.
Hatte ich nicht auf dem Schirm.

stefan92x schrieb:
Und auch andere Stecker für optische Verbindungen sind nicht wirklich komplexer als Koax-Antennenkabel oder ähnliches. Das würde also nicht unbedingt das Problem dabei sein.
Komplexer vielleicht nicht, aber es muss erheblich präziser sein und beim Einstecken darf sich kein Staub einschleichen.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Komplexer vielleicht nicht, aber es muss erheblich präziser sein und beim Einstecken darf sich kein Staub einschleichen.
Als jemand, der aus der Automatisierungstechnik kommt, kann ich dazu nur sagen: Ja, stimmt. Trotzdem lustig, wie in dem Bereich LWL ohne Ende verbaut wird, während die IT LWL meidet wie der Teufel das Weihwasser.
 
Ist halt Paranoia...

Staub kann ein Problem sein, aber ich habe das selbst in der IT nicht erlebt. Das ganze Zeug ist VIEL robuster als man denkt. Was wirklich Probleme macht sind unterschiedlich abgeschliffene Kabelenden. Da kann man tatsächlich einfach durch einstecken des falschen Types etwas kaputt machen. Würde ich im Consumer Bereich aber eben drauf achten das es genau einen Typ gibt bzw Stecker die inkompatibel sind damit das alles Fail safe ist.

Und ja ich habe schon Kabel in Ports gesteckt die bestimmt 5+ Jahre ohne Staubschutz rumstehen und Kabel aus der Krabbelkiste. Tut alles.

Wenn man auf die maximalen Distanzen geht wird es interessant. Aber wer macht das schon?
 
  • Gefällt mir
Reaktionen: ETI1120 und stefan92x
Zurück
Oben