News Spezifikation 1.0: Die Nachfrage nach PCIe 4.0 ist „beispiellos“

deine 24 3.0 Chipsatz Lanes sind für n Arsch weil sie im Endeffekt und auch tatsächlich in der Bandbreite lediglich 4 Lanes entsprechen , die angeschlossenen Geräte buhlen gegenseitig um die Bandbreite zum Prozessor der lediglich mit 4 Lanes angebunden ist . Das ändert sich auch nicht falls Intel noch mehr Chipsatz Lanes reinpacken sollte .
Nicht umsonst verlangt Intel für weitere Lanes auch mehr Geld beim Skylake X , außerdem sind die von dir genannten 8 2.0 Lanes " Gereral Purpose " und entsprechen in der Bandbreite , na was wohl ? - 4 Pci 3.0 Lanes
Anhang anzeigen 677585
6 x Usb 3.1 Gen1 , 2 x Usb 3.1 Gen 2 , 4 x Sata 6 und 6 x USB 2.0 die Lanes dafür sind fest bei AMD vergeben , während sie bei deinen 24 Intel Lanes darunterfallen , einmal ganz davon abgesehen das Intel kein USB 3.1 Gen2 bietet weil sie Thunderbolt pushen wollen
Dazu kommt noch die NVME SSD mit 4 Pci 3.0 - allerdings hängt die direkt an der CPU und ist von Chipsatz unabhängig .
 
Zuletzt bearbeitet:
Holt schrieb:
Es gibt doch sogar bis zu 40 bei Intel Z270 und Z370.
AMD bietet bei AM4 nur 20 PCIe 3.0 Lanes plus bis zu 8 PCIe 2.0 Lanes beim X370/X470, aber Intel hat im Mainstream neben den 16 PCIe 3.0 Lanes für die Graka auch noch mal zusätzlich bis zu 24 PCIe 3.0 Lanes vom Chipsatz, eben um USB Host Controller oder PCIe SSDs da anbinden zu können. Außer wenn man ein RAID 0 aus den PCIe SSDs baut, hat man in der Prxis auch kein Problem mit dem DMI Flaschenhals, da PCIe ja vollduplex ist.

Intel hat im Mainstream (zb für die I7 8700 Reihe) ganz sicher nicht 16+24Pci-e lanes; ich nehme an das war ein Tippfehler von dir.
 
@S1l3nt: Für was sollte denn beim Raytracing per PCIe in Richtung CPU bzw. RAM zugegriffen werden? Natürlich wird das, aber die Bandbreite reicht dafür aus. Die in Deinem verlinkten Artikel genannten 25 TFLops Rechenleistung wird rein innerhalb der Grafikkarte gefordert und dort liegen auch bereits alle Daten vor (im VRAM und den Caches).
 
surfinghorse schrieb:
Intel hat im Mainstream (zb für die I7 8700 Reihe) ganz sicher nicht 16+24Pci-e lanes; ich nehme an das war ein Tippfehler von dir.

Das ist kein Tippfehler. Die CPU bietet 16 Lanes und der Chipsatz 24, die von der Bandbreite insgesamt aber über eine Verbindung an der CPU hängen, die ungefähr 4 Lanes entspricht. Damit stehen genügend Lanes für alle möglichen Geräte bereit, man kann aber nicht gleichzeitig auf alle Geräte mit der vollen Geschwindigkeit zugreifen.

Solange aber "nur" eine PCIe-SSD am Chipsatz hängt, ist die quasi nicht limitiert. Wenn man jetzt einen Raid-Verbund aus 3 oder 4 PCIe-SSDs an den Chipsatz hängt, dann steigt die Geschwindigkeit eben nicht mehr so weit an, wie vielleicht erhofft, bei ungefähr 4 GB/s ist dann Schluss, was aber natürlich je nach SSD immer noch ein ordentlicher Leistungsschub ist.
 
Faust2011 schrieb:
@S1l3nt: Für was sollte denn beim Raytracing per PCIe in Richtung CPU bzw. RAM zugegriffen werden? Natürlich wird das, aber die Bandbreite reicht dafür aus. Die in Deinem verlinkten Artikel genannten 25 TFLops Rechenleistung wird rein innerhalb der Grafikkarte gefordert und dort liegen auch bereits alle Daten vor (im VRAM und den Caches).

Die 25 TFLOPS wurden ja 4 Tesla-V100-Beschleunigerkarten erreicht,wenn jetzt aber eine einzige Karte diese Leistung hätte,bräuchte die dann nicht auch eine Höhre Banbreite im PCIe ?????
 
Nein, und das war ja genau das, was ich im letzten Satz in meinem Post an Dich sagen wollte. Mit den 25 TFlops wird die "Szene berechnet" und dann die Daten direkt an den Monitor geschickt. Vom eigentlichen Programm/Spiel kommen immern nur sogenannten DrawCalls, d.h. Zeichenbefehle, die keine große Bandbreite auf dem PCIe brauchen. Immer wieder müssen natürlich (insbesondere für neue 3D-Szenen) die entsprechenden Objektdaten (also die Spielwelt) auf die Grafikkarte kopiert werden (über den PCIe) - aber selbst das ist mit PCIe 3.0 performance-unkritisch.

Für das eigentliche Rendering / Ray-Tracing zählt nur die Performance in der Grafikkarte, also die 25 TFlops. Und diese werden dabei nicht vom PCIe limitiert.
 
ich glaube nicht das man bei PCIe 4.0 16 Lanes für Grafik bereitstellen wird , eher denke ich das es 8 x 4.0 Lanes werden bzw 2 Slots a 8 Lanes . Es ist ja bekannt das die heutigen Graka s bereits die 16 3.0 Lanes nicht auslasten und zu 95 % auch noch mit 16 x 2.0 auskämen .
Weniger Lanes macht das Design einfacher , nicht nur beim Motherboard sondern auch beim Sockel ( weniger Pins ) und bei der CPU , ich fände es super wenn Zen2 schon 4.0 unterstützen würde , allerdings sind die Chancen dafür nicht sonderlich hoch .
 
Wenn du 2x 8 Lanes an zwei Steckplätze verteilen willst, ist das Design genauso wie heute, das würde defakto nichts sparen.
Dann lieber 5.0 mit nur 4 Lanes.
 
Chris-W201-Fan schrieb:
Dann lieber 5.0 mit nur 4 Lanes.

Dann mache ich mir aber Gedanken um den kleinen Slot, bei dem Gewicht von aktuellen Grafikkarten. Ich habe schon genug Bilder gesehen, wo der PCIe X16-Slot gebrochen ist.

Die Kombination aus schwerer Karte, billigem Gehäuse aus dünnwandigem Blech und hohem Drehmoment am kurzen Slot ... für den Transport würde ich spätestens dann die Grafikkarte ausbauen, was gerade bei schweren Karten allerdings im Allgemeinen ratsam ist.
 
Es gibt schon heute HEDT Plattformen die 2 Slots mit 16 3.0 Lanes haben ... , natürlich könnte man auch bei 4.0 im Consumerbereich bei 2 Slots auf 2 x 4 4.0 Lanes runtergehen , das ist letztlich ne Entscheidung die die CPU und Mainboardhersteller zu treffen haben .
Fakt ist : die 24 3.0 Lanes eines Ryzen sind schon recht eng bemessen , die 20 einer Intel CPU ebenso .
Will man kompromisslos 2 oder 3 NVME Drives einbinden , braucht man mehr Lanes ... oder eben Pci 4.0 .
SATA 6 wird es genauso ergehen wie SATA 3 oder SATA 2 oder SATA , die Bandbreitenlimitierung auf ca 550 mb/sec bremst mittlerweile jede neue SATA SSD aus , sie arbeiten mittlerweile alle am oberen Limit von SATA 6 .
Ergänzung ()

elektrisch nur mit 8 Lanes angeschlossen zu sein , bedeutet nicht automatisch einen kürzeren Slot , denk mal an ne 2 teKarte im 2 Slot , im Consumerbereich schaltet der Chipsatz dann von 1 x 16 auf in der Regel auf 2 x 8 Lanes um , an der eigentlichen Slotlänge ändert sich nichts
 
HEDT ist aber nicht Mainstream und da sehe ich die PCIe Nutzung nicht so schnell als wichtig an, bei HEDT hat AMD aber beispielsweise 64 (?) Lanes aktuell?
Wenn da eine Knappheit vorhanden ist, kann ich auch nicht mehr helfen ;)
 
Es sind 60 + 4 für den Chipsatz :D , aber HEDT ist relativ teuer , so dringend brauch ich die Lanes dann doch nicht ... . Der Z490 von AMD könnte interessant sein , zumindest gerüchteweise hat er 2 x PCIe 4 x3.0 M2 NVME Steckplätze , einer zwar über den Chipsatz realisiert , aber zumindest sollte der noch 90 -95 % der eigentlichen Leistung bringen und das im Mainstreambereich und Sockel AM4 :D
 
Natürlich ist HEDT teuer. Aber you get what you pay for. Immerhin bieten Threadripper und Skylake-X in manchen Punkten (Kerne, Lanes, Ramcontroller) deutlich mehr als die Mainstreamplattform. Im Gegensatz zu Kaby Lake X.

Und mehr als eine NVMe-SSD würde ich persönlich nicht mehr als Mainstream bezeichnen. Wer mehr als eine mit voller Geschwindigkeit nutzen möchte, muss dann halt wohl oder übel mehr investieren. Schließlich ist es nicht so, dass man nicht mehr NVMe-SSDs nutzen kann, sondern man kann nur unter Umständen nicht die volle Geschwindigkeit ausnutzen. Aber um das zu können muss man erstmal Quelle und Ziel haben, was schnell genug ist. 16 GB RAM sind auch bei 2 Lanes Anbindung in 8 Sekunden voll, sofern die SSD dauerhaft 2 GB/s schafft. Insofern würde die "reduzierte Geschwindigkeit" mir persönlich immer noch vollkommen ausreichen. Und irgendeinen Flaschenhals gibt es immer. Sei es nun die Schnittstelle, die SSD oder was auch immer.

Natürlich ist mehr Bandbreite/Reserve immer wünschenswert. Nur sehe ich derzeit noch keine ernsthaft limitierenden Einschränkungen im Mainstreambereich. Wenn ich in meinem PC aktuell irgendwo Flaschenhälse sehe, dann wäre das zu allererst die Netzwerkschnittstelle, die wie im Mainstreambereich üblich "nur" mit einem Gigabit pro Sekunde arbeitet.
 
Spätestens wenn der User der Flaschenhals ist, ist jede weiter Steigerung der Geschwindigkeit eigentlich nonsens.
 
dem möchte ich widersprechen ... , oft ist es doch so , das man bei der SSD Größe erst mal Abstriche macht wenn man komplett neu aufrüstet zb 512 MB statt 1 TB oder gar 4 TB dazu kommt das die SSD s mit der Zeit billiger werden , man später günstiger aufrüsten kann , so das es kaum Sinn macht sofort zur größten Variante zu greifen .
Soll man deswegen seine erste NVME wegwerfen ( oder bei e-bay verticken ) ? mehr Bandbreite tut Not .. , hier geht s um Pci 4.0 selbst die nur 20 Lanes einer Intel CPU aus dem Mainstream würden mit 4.0 das equivalent zu 40 3.0 Lanes bilden , wer nicht einsieht das das nur von Vorteil sein kann tut mir leid ... - obwohl ich bei Intel denke , das sie da Anzahl der Lanes nochmal kürzen würden ... , jede eingesparte Lane spart Intel Geld ... , wäre da nicht AMD ...
Ich finde jedenfalls nicht das 1 M2 Slot für NVME ausreicht ... , meine letzte Plattform hab ich 8 Jahre genutzt , von 2009 - 2017 , das war nen AMD 1090 T - ein echter 6 Kerner.
Mal sehn was so n Z 490 Mobo ende des Jahres kosten soll , derzeit hab ich ne 512 GB NVME - 960EVO für s System und ne 1 TB 860 EVO Sata 6 für Games und noch ne alte 2 TB HDD -> diese wird demnächst rausfliegen aus dem Desktop . Dank USB 3.0/3.1Gen1 ist der USB schnell genug für HDD s , diese müssen nicht mehr im Desktop sein . 18 TB hab ich in Form Externer Laufwerke darunter 2 x 5 TB es gibt jetzt schon zwar 10 TB HDD s , aber abgesehen davon das man große Datenmengen verliert wenn die HDD crasht , schon mal versucht 10 TB mit 150 MB / sec zu beschreiben ? = min 1 Tag , wenn s viele kleine Dateien sind auch gern länger ...
 
1. Laut den Tests von CB schafft die Samsung 970 gerade so 2 GB/s bei realen Anwendungen. Da hast du gerade mal 2 Lanes pro SSD ausgereizt.

2. Wenn du 2 SSDs einbaust, dann werden wohl selten beide die volle Geschwindigkeit in eine Richtung (Lesen ODER Schreiben) ausnutzen. Folglich wären real heutzutage selbst 3 SSDs kaum eingebremst.

3. Wenn man von einer SSD liest und auf eine andere schreibt, also eine Situation hat, in der die SSDs die höchsten Geschwindigkeiten schaffen, dann reichen 4 Lanes zum Chipsatz aus, weil diese voll duplexfähig sind.

4. Wenn du dir direkt die große SSD von Samsung kaufen würdest, hätte die SSD selbst auch maximal 2 GB/s, da wären 2 SSDs sogar bis zu doppelt so schnell.

5. Du willst mir erzählen, dass du das Geld für mehr als eine 1 TB NVMe SSD hast, bzw. sogar für die 4 TB-Version, hast aber kein Geld für die Highend-Plattform übrig? Das meinst du nicht ernst oder?

6. Gucken wir uns mal die Zeitzahlen an: Wenn du kleine Dateien laden möchtest, dann ist es so oder so ein Wimpernschlag, ohne dass man subjektiv einen Unterschied wahrnehmen kann. Wenn du größere Dateien laden willst - sagen wir 10 GB - dann wären es mit 4 Lanes mindestens 2,5 s, mit realen SSDs derzeit 5 s, genau wie bei 2 Lanes. Also nicht instantan, aber auch nicht lange genug für eine Kaffeepause. Wenn du die letzten Sekundenbruchteile herausholen willst dann musst du halt das Geld für die HEDT-Plattform ausgeben. Bei einem Preis für das Gesamtsystem von weit über 1000 € oder mit SSDs auch schnell über 2000 € sind die 100 bis 200 € Aufpreis auch wieder relativ klein, zumal man zusätzlich noch schnelleren Arbeitsspeicher und mehr Kerne bekommen kann.
 
Dezor schrieb:
2. Wenn du 2 SSDs einbaust, dann werden wohl selten beide die volle Geschwindigkeit in eine Richtung (Lesen ODER Schreiben) ausnutzen. Folglich wären real heutzutage selbst 3 SSDs kaum eingebremst.

4. Wenn du dir direkt die große SSD von Samsung kaufen würdest, hätte die SSD selbst auch maximal 2 GB/s, da wären 2 SSDs sogar bis zu doppelt so schnell.

Vorsicht, da muss man ein wenig aufpassen, gerade wenn man plant mehrere SSDs zu einem RAID-0 zusammenzuschalten, um die maximale Performance herauszuholen. PCIe-Geräte können als Busmaster arbeiten und ohne Hilfe der CPU Daten direkt ins RAM transferieren. Allerdings sind im Mainstream-Bereich die PCIe-Lanes zur Anbindung von SSDs über den Chipsatz angebunden, und dieser ist per DMI 3.0 mit der CPU und dem RAM (!) verbunden. Und genau das ist der Engpass (!), denn DMI 3.0 kann nur knapp 4 GB/sec übertragen.
 
Mag sein, aber wenn die SSDs nicht am Chipsatz hängen, dann dürfte der Chipsatz kaum Bandbreite benötigen.

Außerdem ist das wieder ein Luxusproblem von denjenigen, für die eigentlich die HEDT-Plattformen gedacht sind. Denn wenn man Anwendungen hat, bei denen man davon profitiert, Daten so schnell in den Arbeitsspeicher zu schaufeln, dann will man mit den Daten auch irgendetwas machen. Und das Irgendwas wird idR von mehr Kernen und bei der weiteren Bearbeitung von schnellem Arbeitsspeicher profitieren -> also typische HEDT-Anwendungen.

Und bei den Preisen von 2 SSDs, ist der Aufpreis für die Plattform dann auch wieder relativ.

Natürlich gibt es Situationen, in denen DMI 3.0 limitiert. Aber im Mainstreambereich ist das derzeit die Ausnahme. In Zukunft wird das eher ein Problem sein, aber in Zukunft werden dort auch schnellere Standards eingeführt. Aber für Otto-Normalverbraucher sehe ich bei den Mainstreamplattformen kaum Limitierungen, für Pro-User und Prosumer sind nicht die Mainstream- sondern die HEDT-Plattformen gedacht.
 
Zurück
Oben