News PCIe 8.0: Nächster Entwurf auf dem Weg zur fertigen Spezifikation

SaschaHa schrieb:
@XTR³M³
Was Gaming betrifft, ist 3.0 x16 auch noch vollkommen ausreichend. Problematisch wird es dann bei x8, da sollten dann schon mindestens 4.0 her. Was hingegen ComfyUI, Ollama oder andere AI-Angelegenheiten angeht, wären PCIe 6.0 x16 aufwärts schon enorm hilfreich, um volllaufenden VRAM zumindest etwas zu kompensieren. Entsprechend schneller RAM (>8000 MT/s bei 128 bit für volle Leistung) vorausgesetzt.

ja, das stimmt schon, bei grossen datenmengen die zwischen der GPU und dem hauptspeicher hin-/her geschaufelt werden, ist es natürlich deutlich besser um so mehr bandbreite. aber da eher die wenigsten AI workloads am gaming PC machen, und die, dies machen auch wahrscheinlich den passenden unterbau haben... eher nebensache :D
Ergänzung ()

BorstiNumberOne schrieb:
Und ich habe schon PCI 5.0, aber nur 3.0 Geräte. Ist doch in Ordnung, solange es einem für die eigenen Anwendungen ausreicht. 😊

mit dem wechsel vom B350 auf B550(nur wegen der spannungsversorgung, der 5950X ist unter allcorelast verhungert, da das board nur 160W liefern konnte, jetzt ist die CPU das limit bei 300W verbrauch :D ) kam auch grad PCIe 4.0 mit, somit wurde dann die 990pro grad auf ihr natürliches lvl gehoben. der 9070 XT isses glaube ich schnurz :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BorstiNumberOne
Wolfgang.R-357: schrieb:
Ist zu vernachlässigen, solange du darauf keine 5.0 Karte betreibst die mit x8 angebunden ist, dann läuft die Karte mit 3.0 x8
aus dem Grund habe ich meinem 3.0er System kurz nach Release der 4000er Serie noch eine RTX 3060 gegönnt. Dank vollem x16-Interface hält sich der Verlust 4.0 x16 -> 3.0 x16 in Grenzen.
 
XTR³M³ schrieb:
selbst mit ner 5090 hast von 5.0 16x auf 3.0 16x im schnitt nur 5-6% verlust... also nix wo man sich sorgen machen müsste... oder kurz: eine 5090 ist die erste karte wo überhaupt nen unterschied zu sehen ist,
Das Argument kommt leider regelmäßig. Die jeweilige Highend-Karte ist nicht das Szenario "schau, selbst da bringt es wenig". Im Gegenteil. Sie hat mit enorm viel Bandbreite, Cache und Speicher technisch die besten Voraussetzungen.

Dort, wo Brot- und - Butter - Karten mit x4 oder x8 sowie 8GB Speicher auf eine ältere Infrastruktur treffen, dort sind potenzielle Probleme zu Hause. Genau dort wird in aller Regel nicht so viel investiert und dies kann tragisch sein, dann dort würde es tatsächlich zählen.


Auch gerne genannt wird:
"Schau, im Benchmark XY von 2025 bringt Mehrleistung AB nichts. Deswegen wird es sich niemals rentieren."
Die Frage ist, was es bringt, auf einem 8 Jahren alten System. Wie bspw. einem B350.
 
  • Gefällt mir
Reaktionen: XTR³M³ und stefan92x
Kadett_Pirx schrieb:
max Leitungslänge 5 mm?
Ohne retimer hatte 7,5 cm zum Slot für PCIe 6.0 gelesen. Das langt für den ersten x16 Slot.
Bin gespannt wie das dann mit 7.0 und 8.0 funktioniert.
 
Zwirbelkatz schrieb:
Das Argument kommt leider regelmäßig. Die jeweilige Highend-Karte ist nicht das Szenario "schau, selbst da bringt es wenig". Im Gegenteil. Sie hat mit enorm viel Bandbreite, Cache und Speicher technisch die besten Voraussetzungen.

Dort, wo Brot- und - Butter - Karten mit x4 oder x8 sowie 8GB Speicher auf eine ältere Infrastruktur treffen, dort sind potenzielle Probleme zu Hause. Genau dort wird in aller Regel nicht so viel investiert und dies kann tragisch sein, dann dort würde es tatsächlich zählen.
Nix im Gegenteil. Es gibt auch genug Brot und Butter Karten mit x16. Da ist der Unterschied im Vergleich zur 5090 noch irrelevanter.
Dass x8 in Verbindung mit VRAM-Mangel sich deutlich auswirkt, ist bekannt. Da sind wir ab einer rtx 5070 aber weit von entfernt.
 
  • Gefällt mir
Reaktionen: XTR³M³
Zwirbelkatz schrieb:
Das Argument kommt leider regelmäßig. Die jeweilige Highend-Karte ist nicht das Szenario "schau, selbst da bringt es wenig". Im Gegenteil. Sie hat mit enorm viel Bandbreite, Cache und Speicher technisch die besten Voraussetzungen.
Die High End Karte benötigt diese Bandbreite aber auch, weil sie die meisten Frames berechnen kann.
Das sieht man sehr schön an den Werten der RTX 5090, bei 1920x1080 und 2560x1440 verliert sie mit Gen 3 auf Gen 5 immer hin 4 %, bei 3840x2160 nur noch 2 %.

https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-pci-express-scaling/29.html

Die Werte können je nach Spiel varieren.

Wenn man die RTX 5090 mit x8 Gen 5 betreibt, verliert man in allen Auflösungen nach den Zahlen von TPU bei aller 3 Aufösungen 1 %.
Zwirbelkatz schrieb:
Dort, wo Brot- und - Butter - Karten mit x4 oder x8 sowie 8GB Speicher auf eine ältere Infrastruktur treffen, dort sind potenzielle Probleme zu Hause. Genau dort wird in aller Regel nicht so viel investiert und dies kann tragisch sein, dann dort würde es tatsächlich zählen.
Gab es außer den Navi 24 Karten weitere mit nur x4?

Wenn ich mir den Test der RX6600 XT, die ein x8 Interface hat, anschaue, dann war Gen 4 x8 auf Gen 3 x8 bei einigen Spielen merklich, aber im Schnitt eben nur 2 %.
https://www.computerbase.de/artikel...cie_40_oder_30_macht_bei_x8_einen_unterschied

Tragisch war eingentlich nur die RX6500 mit 4 GByte wenn die auf ein Board mit PCIe Gen 3 gesteckt wurde.

https://www.computerbase.de/artikel...-3#abschnitt_benchmark_mit_pcie_40_vs_pcie_30

Allerdings muss man 2 Dinge dazu sagen,
  1. Navi 24 war so oder so eine komplette Krüke. Angeblich hat AMD sie dafür konzipiert gemeinsam mit Rembrandt in Notebooks eingesetzt zu werden und deshalb am PCIe Interface und bei den Decodern gespart.
  2. Damals waren Boards mit PCIe Gen 3 im Grafikkartenslot erheblich weiter verbreitet als heute.

Wie man bei diesem Test sieht, hat die RTX 3050 von PCIe Gen 4 X8 auf PCIe Gen 3 X8 nur 1 % verloren.



Der Punkt ist, wenn die Grafikkarte mit PCIe 3.0 angeschlossen wird, kann man Leistung verlieren, wenn man eine Grafikkarte mit x8 Interface einsteckt. Das muss man eben beachten.
Ergänzung ()

bensen schrieb:
@ETI1120 Und was soll mir das sagen? Steht nichts dazu.
Wir haben wohl verschiedene Bildnummern angesehen
Ich meinte dieses

1778186354633.png


Und hier das mit dem neuen Connector

1778186585279.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: XTR³M³
Zwirbelkatz schrieb:
Dort, wo Brot- und - Butter - Karten mit x4 oder x8 sowie 8GB Speicher auf eine ältere Infrastruktur treffen, dort sind potenzielle Probleme zu Hause. Genau dort wird in aller Regel nicht so viel investiert und dies kann tragisch sein, dann dort würde es tatsächlich zählen.

wer sich sone krüppelkarte kauft(muss man einfach so sagen) die 8GB UND nen 8x interface vereint, der wird eh keinen unterschied merken, weil null ahnung und nicht schlau gemacht.
 
  • Gefällt mir
Reaktionen: Jadedrache
Zeddi2k6 schrieb:
Die PCI-SIG nennt marketing-strategisch immer die Summe aus RX und TX da PCIe Full-Duplex-fähig ist. Bei einem PCIe 5.0x1-Link kannst du also zeitgleich bis zu 4 GByte/s senden und 4 GByte/s empfangen. Ob diese Angabe so sinnhaft ist sei mal dahingestellt, zumindest ist das unüblich. Ich verkaufe 1000BASE-T Ethernet ja auch nicht als 2 GBit/s nur weil ich 1 Gbit senden und zeitgleich empfangen kann.
Die Tabelle bei Wikipedia über PCIe sieht so aus das alle Werte nur halb so groß sind.

1000BASE-T hat meines Wissens 4 Aderpärchen mit je 250 Megabit = 1000 Megabit.
Zwischen Senden und Empfangen muss umgeschaltet werden, da geht es nur in eine Richtung.
 
JoergB schrieb:
Die Tabelle bei Wikipedia über PCIe sieht so aus das alle Werte nur halb so groß sind.
Das hat doch der Post auf den Du antwortest ausführlich beschrieben. Die PCI SIG hält sich nicht an die Konvention. Deshalb sind die Angaben der PCI SIG für die Bandbreite um den Faktor 2 zu hoch.
 
  • Gefällt mir
Reaktionen: Piktogramm
JoergB schrieb:
1000BASE-T hat meines Wissens 4 Aderpärchen mit je 250 Megabit = 1000 Megabit.
Zwischen Senden und Empfangen muss umgeschaltet werden, da geht es nur in eine Richtung.
Nö 1000Base-T ist Full-Duplex im Standard. Letzteres ist gängig und erlaubt das Senden wie Empfangen auf allen Adernpaaren gleichzeitig. Da einer Gegenstelle ja bekannt ist, welche Signale gerade eingekoppelt, kann der Zustand auf dem Signalpaar gemessen werden und sollte sich eine Differenz ergeben auf das eingehende Signal geschlossen werden.


PS: ein Ethernet 100Base oder 1000Base hatte HalfDuplex, keine Ahnung, findet sich real eh nirgends. Wobei ich nicht 1000Base-TX meine, das war nochmal anders.
 
Jadedrache schrieb:
Es gibt auch genug Brot und Butter Karten mit x16.
Aktuell gibt es genau eine. Also als Neuware. Die RX 9060 XT. Die RTX 5070 ist ab 570€ keinesfalls Brot-und-Butter. Die (ggf. gebraucht gekauften) RX7000er bieten bereits kein natives FSR 4,x mehr.

Es wäre schön, wenn der Stellenwert der PCI-E-Anbindung und derjenige der Grafikkarte etwas besser bekannt wäre. :)

XTR³M³ schrieb:
weil null ahnung und nicht schlau gemacht.
Leider zahlt man für eine betroffene x8 8GB RTX 5060 mit 300€ gutes Geld. Mangelndes, vorheriges Hintergrundwissen bedeutet nicht, dass man nicht spürt, dass "irgendetwas" gründlich schieflaufen kann.

Genau solche Karten landen als Bundle in einem PC auf einem A520-Brett mit beschnittenem Ryzen 5500.
Eigentlich ist das dann Technik von vor ~5 Jahren. Gemäß pcie-3.0 eigentlich noch älter.

ETI1120 schrieb:
Tragisch war eingentlich nur die RX6500 mit 4 GByte wenn die auf ein Board mit PCIe Gen 3 gesteckt wurde.
Ich denke, das kann bedauerlicherweise auch mit aktuelleren Karten passieren, denen der Speicher ausgeht. Und einige Nutzer behalten ihre Karten deutlich länger als 5 Jahre. Weswegen man auch mit moderneren Titeln und deren Anforderungen rechnen sollte.

Selbstverständlich gibt es Regler. Unbestritten. Die Frage ist, wie weit möchte man reduzieren, nachdem man viele hundert €uronen auf den Tisch geblättert hat, um etwas Gutes zu kaufen.
 
Zwirbelkatz schrieb:
Aktuell gibt es genau eine. Also als Neuware. Die RX 9060 XT. Die RTX 5070 ist ab 570€ keinesfalls Brot-und-Butter. Die (ggf. gebraucht gekauften) RX7000er bieten bereits kein natives FSR 4,x mehr.

Es wäre schön, wenn der Stellenwert der PCI-E-Anbindung und derjenige der Grafikkarte etwas besser bekannt wäre. :)
Jetzt werden die Bedingungen geändert oder wie? Von Neuware und FSR4 war nie die Rede.
Brot und Butter definiere ich auch anders in den heutigen Zeiten.
Es wäre schön wenn bekannt wäre, dass VRAM Mangel erst mit PCI E 3.0 x8 relevant wird. Und selbst das ist nicht pauschal so. Die rtx 5600 verliert im VRAM Killer Cyberpunk belanglose 2 fps.
 
Zwirbelkatz schrieb:
Ich denke, das kann bedauerlicherweise auch mit aktuelleren Karten passieren, denen der Speicher ausgeht.
Die RTX 5060 hat eine Speicherbandbreite von 448 GB/s.

PCIe 5.0 x 16 kommt kommt auf 64 GB/s. Das kann man eventuell ausnutzen, wenn das was nachgeladen bereits im Speicher ist. Wenn es von der SSD nachgeladen werden muss, ... Von den Latenzen die die zugriffe haben fangen wir besser gar nicht erst an.

Wenn man zuwenig Grafikspeicher hat, kann man das nicht mit dem einem schnelleren PCIe-Bus kompensieren. Es geht nur noch um schlimm oder noch schlimmer.

Das einzige was bei Games relevant ist darauf zu achten, dass man für die Grafikkarte mindesten PCI Gen 3 x 16 hat. bei PCIe Gen 4 reichen auch 8 Lanes.

Wenn man lokale AI betreiben will oder die GPU für Anwendungen einsetzen will, kann das anders aussehen.

Zwirbelkatz schrieb:
Und einige Nutzer behalten ihre Karten deutlich länger als 5 Jahre.
Ich habe meine seit über 6 Jahre drin. Aber für das was ich spiele reicht sie immer noch locker. Wo ich ins grübeln komme ist AI, da komme ich mit der GPU auf keinen grünen Zweig.

Ich habe mir damals ein X570 Board geholt weil bei den anderen damals verfügbaren AM4 Boards der "Chipsatz" nur PCIe 2.0 unterstützt hat. Auf PCIe 4.0 hätte ich auch verzichtet, aber auf PCIe 2.0 wollte ich nicht zurück.
Zwirbelkatz schrieb:
Weswegen man auch mit moderneren Titeln und deren Anforderungen rechnen sollte.
Meine Meinung: Wenn man moderne Titel spielt muss man Geld ausgeben oder Kompromisse eingehen.

Auch ohne die aktuelle Situation ist klar, dass GPUs teurer werden. Die neuen Nodes bringen nicht mehr den Zuwachs an Transistoren wie früher. Also werden nicht nur die Wafer teurer, sondern auch die Dies größer.

Zwirbelkatz schrieb:
Selbstverständlich gibt es Regler. Unbestritten. Die Frage ist, wie weit möchte man reduzieren, nachdem man viele hundert €uronen auf den Tisch geblättert hat, um etwas Gutes zu kaufen.
Es fängt IMO damit an das Geld dort auszugeben wo es was bringt und nicht sinnlos Geld für hohle Phrasen wie PCIe 5.0 rausschmeißen.

Wenn es nur um Games geht, sollte man IMO zuerst auf die Grafikkarte achten und eine dazu passende CPU holen. Bei PCIe 4.0 gibt es keine Probleme. Weder bei der Grafikkarte noch bei den SSDs.

Wenn die Grafikkarte 16 Lanes hat, kann man beim Board auf PCIe 3.0 zurück. Mit dem Risiko, dass man sich beim aufrüsten auf eine neue Grafikkarte in Zugzwang bringt. Die wenigsten werden bei der SSD einen Unterschied merken.
 
Sapphire Forum
Zurück
Oben