News PCI Express 6.0: Standard für bis zu 256 GB/s am x16-Slot veröffentlicht

drago-museweni schrieb:
Noch besser wenn man es zuteilen könnte, je nach bedarf.
Bei mir ist es wohl so, (muss ich nochmal genau schauen), das ich zwischen U.2 und M.2 wählen kann/muss.
Edit:
Der 2. M.2 ist mit 2 x 4.0 angebunden. Der teilt sich eine Lane mit einem 4.0x1 Steckplatz. Wie Doof ist das denn? :confused_alt: Naja, wäre immerhin per Adapter noch eine SATA Platte möglich.
 
Zuletzt bearbeitet: (Ergänzt)
Herrenlos schrieb:
Daher ist wohl die Frage (Ironie), wie stark eine dieser GK von PCI-E 6.0 profitieren werden?
Mal Hand aufs Herz: Fortschritt und Entwicklung sind mir immer willkommen, aber was bringt so etwas, wenn sich kein Normalsterblicher eine GK leisten kann?
Die Miner und Cloudfarmen dieser Welt.
 
Summerbreeze schrieb:
Von TB 3 oder 4 auch keine Spur?
TB ist doch eher eine Laptopgeschichte mit den Dockingstation und z. B. 2-3 zusätzlichen 4K Monitoren oder ggf. eGPU (Nische). Dafür sind die mobilen Ableger zuständig.

Summerbreeze schrieb:
Was machen eigentlich die Leute hier, die ohne Thunderbold oftmals nicht mehr leben zu können scheinen?
Siehe oben. Wer jetzt TB braucht, muss solange Tiger Lake nehmen. Von insgesamt 3000 lieferbaren Modellen, haben ca. 1/3 einen TB Anschluss. Geht ab 469 € los. Also alles gut.
 
  • Gefällt mir
Reaktionen: jemandanders
Macht natürlich Sinn, da PCIe 5.0 noch nicht einmal ansatzweise genutzt wird.
Am besten noch PCIe 7.0 entwickeln.

john.smiles schrieb:
Cool, dann kann AMD Einsteigerkarten mit PCIe 6.0 x1 bauen :D
:D:D
Ich glaube das war nicht der Zweck von PCIe 4/5/6.
So viel Aufwand nur damit GPUs Lanes einsparen.:rolleyes:
 
Also ich frage mich ob die 8k Nutzer davon profitieren werden von solch hoher Bandbreite. Wenn nicht dann wird es halt ganz sicher 16k sein. Je höher also die Auflösung desto besser für die Bandbreite. Und auch raytracing braucht Bandbreite. Je kleiner also die Auflösung desto weniger die Bandbreite wo benötigt wird. Ich stelle mir das wirklich einfach vor. Und bei mir wird in Zukunft auch noch full HD Standard sein. Ich frage mich ab welcher auflösung man von raytracing nix mehr sieht und auch nicht mehr profitieren kann. Bei 720x576p sieht man jedenfalls kein raytracing mehr. Das wäre mal interessant mit wie wenig die aktuellen gpus mit so ner niedrigen aufslöunf bei Bandbreite auskommen würden bzw werden.
 
Eigentlich ist es ja ok, dass ein neuer Standard recht früh verabschiedet wird. Die Verdoppelung der Bandbreite ist ja wohl nur ein Wert. Ich kenne die Spezifikationen nicht genauer aber da steckt ja bestimmt noch viel mehr dahinter. So was dann marktreif zu entwickeln dauert ja auch eine Zeit. Woher sollen die Hersteller sonst wissen, wohin die Reise gehen soll, will man kompatible Hardware entwickeln.
Daß hier mit theoretischen Maximalwerten geworben wird, die selten in der Praxis erzielt werden, wissen die wahrscheinlich auch. Mal abgesehen, daß es bestimmt noch andere Anwendungen, wie der Consumerbereich gibt.
 
  • Gefällt mir
Reaktionen: TechFunk
ghecko schrieb:
Bei künftigen Speicherkonzepten macht es aus Latenzgründen keinen Sinn mehr, mehr als einen NVMe-Controller zwischen CPU und dem Speicher zu platzieren. Immer mehr sitzt direkt auf den PCIe Lanes.
Ich habe noch keine "NVME-Controler" gesehen. Genausowenig wie "AHCI-Controler". Du meinst eher einen PCIe-Switch. Und im Falle von RAID eventuell Hardware die Checksummen berechnet, wenn man meint, das die Rechenleistung der CPU nicht ausreicht.
ghecko schrieb:
SATA wird auf die Nutzung bei mechanischen Laufwerken reduziert
Selbst da stehen ja schon Überlegungen im Raum, auch dafür PCIe zu verwenden. Knackpunkt dabei ist wohl die Verkabelung, die nicht wesentlich teurer werden darf als für SATA.
 
mkossmann schrieb:
Ich habe noch keine "NVME-Controler" gesehen
Was auch immer auf der SSD für ein Controller sitzt, wird mit NVMe angesprochen. Auf einer 980 Pro von Samsung nennt sich dieser S4LV003.
Bildschirmfoto_2022-01-12_13-43-13.png

mkossmann schrieb:
Genausowenig wie "AHCI-Controler"
Zwischen CPU und einer SATA-SSD sitzt meist der Chipsatz des Boards. Und zwischen dem und den Flashzellen sitzt, wie bei der NVMe, ein Controller der über AHCI angesprochen wird.
Bei der MX500 ist das zb. ein Silicon Motion SM2258
Bildschirmfoto_2022-01-12_13-45-11.png

mkossmann schrieb:
Selbst da stehen ja schon Überlegungen im Raum, auch dafür PCIe zu verwenden.
Wie oben schon verlinkt, das war schon der Fall. Nannte sich SATAe, wurde aber ersetzt durch U.2.
Beides halt im Serverbereich, auf dem Desktop hat sich M.2 durchgesetzt.
Screenshot 2022-01-12 at 13-40-08 SATAe - SATA Express.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge
Ich bin immer noch verblüfft das PCIe 4.0 fast einfach übersprungen wurde im Vergleich zu PCIe 3.0.
Denke 5.0 werden wird uns dann wohl was länger jetzt erhalten bleiben.
 
Und ich doofer Mensch habe noch nicht einmal eine Lösung gefunden, wie man eine PCIe Gen4-fähige Backplane an den M.2-Slot eines Mainboards anschließen kann, ohne dass es PCIe-Bus-Fehler hagelt :(

Bei SFF-Kabeln für PCIe ist Schrott glaube ich noch weiter verbreitet als bei HDMI, DisplayPort & Co.

(Hinweis: Leute, bei denen es "fehlerfrei" zu funktionieren scheint, haben im BIOS PCIe Advanced Error Reporting nicht aktiviert)
 
coral81 schrieb:
Die Miner und Cloudfarmen dieser Welt.
Nunja, ich denke das man da wohl irgendwann für solche Zwecke noch Leistungsfähigere Hardware entwerfen muss dass die lächerlich langsame "Gamer-Hardware" eben nicht mehr die Anforderungen erfüllt Geld zu drucken. Und Clouds werden aufgrund ihres CO2 Profils sowieso bald verboten :D
 
Da wäre ich ja mal auf zahlen zu den Fehlerraten bei der Übertragung gespannt. Am Ende lohnt es sich dann für CB Mainboardtests zu machen um zu vergleichen wer die besten PCIe Lanes hat. Bei Grafikkarten gibts dann als Sondertest irgendwann interne EMV weil zum Spulenfiepen noch Störung der Signale dazukommt.
Solange da hochfrequente Signale über Kupfer gehen kann ich mir nur schwer vorstellen dass sich das nicht hin und wieder beißt. Dazu gibts afaik keine Möglichkeit für den normalen User eine hohe Fehlerrate bei PCIe zu erkennen wenn nicht gerade die Graka ungewöhnlich langsam wird bei bandbreitenlastigen Anwendungen.
Oder ist die Fehlerkorrektur so gut, bzw das Problem nicht so ausgeprägt?

deo schrieb:
Da HDDs schon fast komplett aus den Consumer PC verbannt wurden, ist es an der Zeit, das auch bei den Standard Betriebssystemen zu machen, indem der Code davon auch entfernt wird und alles auf hohe IOPS ausgelegt wird. Leute, die unbedingt 8TB und mehr Datenspeicher wollen, müssen dann auf NAS zugreifen und die PC bleiben von diesen Bremsen verschont. Wo soll es hinführen, wenn aktuelle OS immer noch für HDD optimiert werden?
Not sure if sarcasm or not. :/
Das ist doch schon standard seit 'immer'. Jedes neue OS ist größer, startet langsamer und bringt mehr bloat der nicht funktional ist aber immer geladen werden muss.
Nicht umsonst gab es schon zu XP Zeiten witzeleien dass Microsoft Windows so designed dass aktuell genutzte Hardware schon mit dem Betriebssystem gut ausgelastet ist. Sonst glaubt der Nutzer noch dass er keinen schnelleren PC braucht.
Aber keine Sorge, Win13 wird vorraussichtlich auf SATA3 SSDs so langsam sein wie Win11 heute von einer schnelleren HDD.
Soweit ich das mitbekommen habe sind einige Spieleentwickler schon davon abgerückt HDD-freundlich im Hintergrund vorzuladen sondern greifen einfach direkt und blockierend auf die Daten zu. SSDs sind ja schnell genug, who cares? Ruckelts eben wenn die SSD auch mal kurz ausgelastet ist.
Optimierung ist eine zunehmend verkannte Kunst.
Ich wüsste nicht inwiefern eine Optimierung für potentiell schnarchlahme I/O für schnelle Systeme schädlich wäre.

Konsequente weiterführung wäre die Software nur auf RAM auszulegen. Wer Flashspeicher nutzt ist dann selbst schuld.
Bis sich jemand daran erinnert dass CPU Cache noch schneller ist. Aber dafür müsste man ja wieder sparsam bei der Größe sein, also eher unwahrscheinlich. ^^
 
Bigeagle schrieb:
Ich wüsste nicht inwiefern eine Optimierung für potentiell schnarchlahme I/O für schnelle Systeme schädlich wäre.
Bei Spielen: Je mehr Freiheiten Spieler haben, desto weniger ist vorhersehbar, welche Daten als nächstes geladen werden müssen. Gleichzeitig werden Assets oft so groß, dass sie nur sehr begrenzt in Ram bzw. VRam vorgehalten werden können. Irgendwann wird Prefetching dann einfach sinnlos, wenn man nur geringe Trefferquoten erreicht, aber dafür recht viel CPU-Zeit auf Fetch und Release von Speicher werfen muss.
 
@Piktogramm Ich bezweifle dass es so schlimm ist. Einmal weil prefetching bei CPUs einer der großen Leistungsfaktoren ist wo man auch richtig raten muss welchen Pfad die Verzweigung nimmt und zum anderen weil Spieler ja durchaus ein großes Maß an vorhersehbaren Handlungen vollziehen.
Umsehen ist nicht unvorhersehbar. Vorwärts laufen auch nicht.

Spiele wie Path of Exile verzichten vor allem aus Exploitschutz auf Caching, da verrät man dem Client eben erst welcher Effekt, oder welcher Gegner spawnt wenn es denn tatsächlich passiert. Deswegen ruckeln diverse Events grauenvoll obwohl man technisch problemlos vorher die Daten laden könnte.
Aber viele Anwendungen können durchaus ganz und vollständig lokal laufen und es ist ja nicht so als müsste man laufend das halbe Spiel laden und wieder verwerfen weil der Spieler sich zufällig durch die Spielwelt portet. Nicht mal in Portal.
MMOs dagegen folgen meist relativ gut vorhersehbaren Pfaden. Ich bin mir sicher dass es da für Gebietswechsel reichlich 'ausgetretene' Pfade gibt wenn man Statistik darauf machen würde. Weil Spiele üblicherweise eine innere Logik haben, sinnvolle Abläufe und die Spieler einige davon bevorzugen.

Oder hab ich das Genre 'random facerolling' verpasst?
 
ghecko schrieb:
Puh, Boards dafür werden nicht trivial. Und Riser immer unrealistischer.
Wer sich für schwarze Signalmagie auf PCBs interessiert:
Auf PAM4 wird auch eingegangen.
Danke für das Video! War sehr interessant zu sehen was da alles beachtet werden muss! Und die Frage stellt sich natürlich, wie die das weiterhin alle 3 Jahre verdoppeln wollen.

Ich frage mich ja ob es vielleicht irgendwann einen "Nachfolger" der aktuellen PCB-Technologie geben muss, um die Signalqualität weiter zu verbessern?
Z.B weg vom Aufbau in Schichten hin zu extrem präzisen "SciFi"-3D-Druckern die die Boards Mikrometer für Mikrometer aufbauen? Dann könnten sie gleich Miniatur-Koaxkabel im Board verlegen. Dann wären Vias, Stubs und Backdrilling Geschichte. Vermutlich könnten dann auch viele kleine SMDs (Widerstände und Kondensatoren) direkt im Board aufgebaut werden.
Wenn jemand weiß ob es in der Richtung was gibt / geforscht wird, würde mich das interessieren.
Bzw, ich bin natürlich auch daran interessiert was da in Zukunft (z.B für PCIe) geplant ist. Falls da jemand einen guten Vortrag gesehen hat, wäre ich über einen Link sehr dankbar. :)
 
MP X10L schrieb:
Ich frage mich ja ob es vielleicht irgendwann einen "Nachfolger" der aktuellen PCB-Technologie geben muss, um die Signalqualität weiter zu verbessern?
Jein, der Nachfolger wird vermutlich optische Signalübertragung mit Glasfasern sein.
 
Glasfaser ist längst überfällig (imho).
Light Peak wurde leider nie richtig umgesetzt. Intel hat stattdessen das minderwertigere Thunderbolt durchgeboxt. 😔

Naja. Vielleicht hat man auch Angst vor optischen Verbindungen, da die nur schwer zu toppen sind?
Aus marktwirtschaftlicher Sicht wäre es ja unklug, eine so hochwertige Technologie auf den Markt zu bringen.
Dann könnte man die Kupferverbindungen nicht weiter ausschlachten und die Kunden abkassieren. Das sind wiegesagt nur meine persönlichen Gedankengänge dazu.
 
  • Gefällt mir
Reaktionen: LeckerRK
MP X10L schrieb:
Vermutlich könnten dann auch viele kleine SMDs (Widerstände und Kondensatoren) direkt im Board aufgebaut werden
An ins Board integrierte Power Mosfets wird zumindest an meiner Uni geforscht :D

Es ist viel möglich, die Fertigungstechnologien für prozedual aufgebaute bzw gedruckte 3D-Schaltkreise ist theoretisch da, nur eben sehr teuer. Und es wird sich zeigen, wie viel uns der Ausbau der Bandbreite künftig wert ist, denn es wird auf längere Sicht teurer bleiben Boards abseits der traditionellen Fertigungsmethode mit höherer Signalintegrität zu erzeugen. Ich vermute, es wird auf die Integration von LWL hinauslaufen, die sind bezüglich Störeinflüsse schlicht der robustere Weg um künftig die Bandbreite auszubauen. Je höher die Frequenz, desto komplexer wird die Leitergeometrie der elektrischen Signalübertragung.
 
  • Gefällt mir
Reaktionen: Piktogramm
Zurück
Oben