News PCI Express 5.0: Spezifikation für bis zu 64 GB/s veröffentlicht

Du brauchst eine Graka mit 4.0 Interface wenn du die Graka mit 8x 4.0 mit derselben Bandbreite wie 16 x 3.0 anbinden willst , erst Navi wird ein 4.0 Interface haben ...
Alte Karten würden nur mit 8x 3.0 laufen , wenn man keine 16 Lanes bereitstellt
 
  • Gefällt mir
Reaktionen: Baal Netbeck und Alphanerd
Botcruscher schrieb:
Marketing-Geschwätz.
die Kundschaft verarschen.
In einem anderen Forum hat man mal sachlich überlegt, wo die Unterschiede liegen, und kam auf folgende Punkte:
  • bei früheren Lösungen lag der Chipsatz an anderer Position auf dem Board
  • der Kühler konnte damals beliebig in die Höhe wachsen
  • die Forderung der Kunden nach möglichst vielen M.2-Slots beißt sich mit einer Heatpipe (die durchaus möglich wäre!).
Du denkst jetzt bestimmt in deinem Wahn, ich wollte die Hersteller krampfhaft verteidigen.
Aber ich denke eher: "So dumm (oder niederträchtig), wie du glaubst, sind die Hersteller vielleicht gar nicht."

Der passive Gigabyte-Kühler bedeckt das halbe Board, und sieht schon ziemlich aufwändig aus.
Ein dezenter Notebook-Kühler, der meistens still steht, aber Reserven für die volle Nutzung aller Features (und die Gewährleistung) vorhält, muss nicht die dümmste Lösung sein.

Dass die Hersteller ansonsten nicht immer in die richtige Richtung laufen (RGB, Plastik-Abdeckungen), da gebe ich dir Recht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Disco Pongo, Smartbomb, drmaniac und 9 andere
Botcruscher schrieb:
Entschuldige aber das ist Marketing-Geschwätz. Von den ursprünglich genannten 15TDP sind jetzt noch sagenhafte 11W für den 570 übrig. Das ist jetzt ein Bereich in dem hunderte ITX Bretter mit einem Stück Alu passiv laufen.

Du vergisst in all deinem Geschreibsel über mehrere Threads hinweg, dass du die Plattformen von damals nicht mehr mit den heutigen vergleichen kannst. Heute befinden sich M2 Slots auf den Boards, was den Platz sowieso noch mehr einschränkt. Dazu kommt, dass die Chips kleiner geworden sind und damit weniger Fläche haben um die Hitze abzugeben, zudem darf eine gewisse Höhe nicht überschritten werden, sonst kommt man sich mit der GPU in den Weg.

Auf anderen Seiten versucht man das wenigstens mal technisch zu betrachten und kommt zu dem Schluss, dass es momentan gar nicht anders geht. Hier im Forum gibt es nur 2-3 Spezis die einfach nur die ganze Zeit in jedem Thread schreiben müssen, wie scheiße das ist.
 
  • Gefällt mir
Reaktionen: Kenshin_01, drmaniac, Wintermute und 2 andere
grossmaul schrieb:
Geil wäre ja, dass man dann noch Adapter(karten) Anbietet, die von 2x PCIe 4.0 auf 4x PCIe 3.0 konvertieren, oder von 1x PCIe 5.0 auf 4x PCIe 3.0.

So wie ich das verstehe, geschieht das ja aktuell so, wenn man eine PCIe 3.0 x4 SSD in einen M.2 Slot mit PCIe 4.0 x4 steckt, dann werden die PCIe 4.0 Lanes zu PCIe 3.0 degradiert, aber trotzdem sind die kompletten vier Lanes blockiert anstatt nur zwei, was die selbe Geschwindigkeit wäre...
Das ist aber normalerweise auch nicht so tragisch - wenn die Slots durch den Chipsatz bereitgestellt werden teilen die sich eh alle einen PCIe3.0x4 oder neuerdings auch mal PCIe4.0x4 als Anbindung mit Flaschenhals Effekt zur CPU. Richtig viel PCIe gibt's eigentlich nur an Server-CPUs - aber bei denen gibt's auch mehr als 2 Consumer DRAM Kanäle die den Datensalat ja im Endeffekt liefern müssen ohne die CPU zu behindern.
 
bei früheren Lösungen lag der Chipsatz an anderer Position auf dem Board
Heatpipe. PCIe Slots...
der Kühler konnte damals beliebig in die Höhe wachsen
Heatpipe. PCIe Slots...
die Forderung der Kunden nach möglichst vielen M.2-Slots beißt sich mit einer Heatpipe (die durchaus möglich wäre).
Gigabyte beweist das Gegenteil... Platz ist kein Argument. Zur Not kommt der Kühler Zwischen die PCIe Slots oder an den MoBo-Rand. Rückseite geht ebenfalls...

Du denkst jetzt bestimmt in deinem Wahn, ich wollte die Hersteller krampfhaft verteidigen.
Aber ich denke eher: "So doof (oder niederträchtig), wie du meinst, sind die Hersteller vielleicht gar nicht.
Macht ihr. Weil ihr auf die TDP von 11W wie bei hunderten ITX Systemen und 28,6W bei anderen Chipsätzen nicht eingeht. Das kein Platz wäre ist auch absurd.
 
  • Gefällt mir
Reaktionen: CMDCake
Botcruscher schrieb:
Gigabyte beweist das Gegenteil...
Dieser Kühler, der die untere Board-Hälfte bedeckt, ist ziemlich aufwändig.

Zwischen den PCIe-Slots sind M.2-Steckplätze. Auf der Board-Rückseite ist kein Luftzug.
 
Zuletzt bearbeitet:
Botcruscher schrieb:
Macht ihr. Weil ihr auf die TDP von 11W wie bei hunderten ITX Systemen und 28,6W bei anderen Chipsätzen nicht eingeht. Das kein Platz wäre ist auch absurd.
Eine Southbrige die direkt unter einer 300W Grafikkarte liegt, ist was ganz anderes als eine Northbridge, die schön frei steht und mehrere Zentimeter hoch sein darf.

Man sieht doch was Gigabyte dort für eine extreme Lösung auffahren muss.
 
  • Gefällt mir
Reaktionen: Disco Pongo, Wintermute, Transistor 22 und 2 andere
Eine PCH unter einer 300W GraKa wird von dieser eh (warm) zwangsbelüftet. Ob PCH dann noch einen Minilüfter hat ist egal.
Keine Ahnung was an der Heatpipe des Aorus auswendig sein soll. Alles zwischen den Slots ist Show oder für die M2. Da bleibt nicht viel für 777 500€+. MSI ist ja auch schon am zurückrudern. PCIe 4.0 ist die einzig große Neuerung. Mit 5 wird das Thema Verstärker noch interessanter.

PS: Bei eurer Idee eines 8x Slost mach ich mir dann Gedanken um das Gewicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeusTheGod
MK one schrieb:
Macht AMD doch schon beim 570 so , nur ist es doch so das viele noch ne 3.0 Graka haben und diese mit 16 Lanes anbinden wollen , deswegen bietet der X570 entweder 16x oder 8x/8x , das gejammer möchte ich hören wenn ein 2080 TI Besitzer seine GraKa nicht mit 16 Lanes anbinden kann

In der "Übergangszeit" wäre es kein Problem, die Slots mechanisch noch weiterhin x16 auszulegen, oder zumindest nach hinten zu öffnen. Bleibt aber eh ein Wunschdenken, zumindest in den kommenden 10 Jahren, ausser die Grafikkartehersteller einigen sich darauf nur noch Karten mit x8 anzubieten.

grossmaul schrieb:
Geil wäre ja, dass man dann noch Adapter(karten) Anbietet, die von 2x PCIe 4.0 auf 4x PCIe 3.0 konvertieren, oder von 1x PCIe 5.0 auf 4x PCIe 3.0.

Du gehörst vermutlich auch zu denen, die einen Switch als Netzwerkmehrfachsteckdose sehen oder?

Chips die sowas können gibt es seit Jahren, sie sind aber teuer und kosten ein Vermögen. Deshalb sieht man solche Chips auch nur in speziellen Serverboards.
787554

https://www.broadcom.com/products/pcie-switches-bridges/pcie-switches
 
Zuletzt bearbeitet:
Botcruscher schrieb:
Eine PCH unter einer 300W GraKa wird von dieser eh warm zwangsbelüftet. Ob PCH dann noch einen Minilüfter hat ist egal.
Du willst also sagen: An einer Position mit schwierigen thermischen Bedingungen (Erwärmung durch die Graka) soll man die bessere aktive Kühlung durch eine schlechtere passive ersetzen? Klingt jetzt nicht so logisch.
Jeder aktive Luftzug (auch mit langsam drehendem Lüfter) ist besser als gar keiner.
 
Cool Master schrieb:
Bis PCIe 5.0 da ist wird man auch bei den Chipsätzen die Struktur auf ~7 nm runter bekommen haben. Also alles halb so wild.

Nein, das wird man eher nicht nutzen. I/O skaliert da nicht mehr gut. Da wird man weiter auf 14nm, oder vielleicht noch 12nm, setzen.
Ergänzung ()

xexex schrieb:
Chips die sowas können gibt es seit Jahren, sie sind aber teuer und kosten ein Vermögen.

Nein, die sind eigentlich relativ billig. Nur sind die Boardhersteller zu geizig $5 oder $10 mehr pro Board zu bezahlen. Es gab ne Zeit lang relativ normal bepreiste Intel-Boards mit PEX-Switches.
 
Botcruscher schrieb:
Nur bei AMD. Intel schafft auch 25W durchgängig passiv.

Da Aorus auf der Computex ein X570 ohne Lüfter gezeigt hat... liegt es wieso oft daran das die Designer über die Techniker gewonnen haben...
 
  • Gefällt mir
Reaktionen: peru3232
Da können die Grakahersteller ja von den Einstiegsmodellen den vram in Zukunft weglassen und man nutzt den ram als vram :D
 
dersuperpro1337 schrieb:
Wo wäre aber das Problem eine GPU, die z.Zt. nicht mal PCIe 3.0 x16 ausreizt in einen PCIe 4.0 x8 Slot (elektrisch natürlich, nicht physisch) zu stecken. Der Kram ist doch backwards compatible.

Dann soll also NVidia mal eben ne Spezialkarte mit PCIe4x8 auflegen obwohl der Markt im Augenblick hauptsächlich Rechner mit PCIe3x16 nutzt ? Glaube nicht das das passieren wird - wenn die was machen dann eine PCIe4.0x16 Karte, die aber auch mit x8 oder x4 klarkommt .. PCIe4 im low cost Sektor dürfte wohl erstmal nicht passieren.

Und die Beschränkung das "nicht mal" PCIe3.0x16 komplett genutzt wird ist nicht eine Beschränkung der Graphikkarte sondern eine der Spielesoftware. Manchmal limitiert aber sicher auch das Motherboard oder die Rechnerkonfiguration die der DAU eingestellt hat.

Das PCIe3.0x16 schon seit vielen Jahren für "ernsthafte" (GP)GPU Anwendungen ein Nadelöhr ist trifft aber auch für Netzwerkkarten zu - 100G Omnipath oder Infiniband oder Ethernet Karten brauchen den kompletten PCIe3.0x16 - für die in den Startlöchern stehenden 200G Karten fehlt da aber ein Faktor 2.
 
Zuletzt bearbeitet:
xexex schrieb:
Man sollte einfach mal langsam PCIe x16 Slots sterben lassen, das würde kleinere und einfachere Boards ermöglichen. Grafikkarten kommen selbst mit PCIe 3.0 x8 selten an die Leistungsgrenze, für PCIe 5.0 x16 sehe ich da erst recht keinen wirklichen Nutzen.
Na, da hast du aber einen älteren Test in Erinnerung. Da gabs doch letztens nen aktuellen mit ner 2080Ti. Da hat man von x16 auf x8 PCIe 3.0 schon bei manchen Spielen nen ordentlichen Rückstand. Im Mittel dann nur nen kleinen, aber selbst das will man nicht, wenn man sich für viel Geld ne teurere Karte kauft.
Klar, x16 4.0 oder gar 5.0 wird heute keinen Vorteil bringen bei Games.

senf.dazu schrieb:
Bei den ersten Intel 10nm Consumer (Mobil) Prozessoren scheint überhaupt wenig PCIe an dem CPU Chip selber zu sein - dafür 4xTB3(USB4?) - der PCI3.0x16 Slot ist dann über den Chipsatz realisiert - der allerdings mit im Prozessorgehäuse sitzt. Vielleicht ist der ja (ganz wie beim X570 bei AMD) mit PCIe4.0x4 respektive DMI4.0x4 an die CPU angebunden ?
Mh? Wo siehst du ein Schaubild, dass IO von der CPU zeigt? Die 16 Lanes des PCH sind zusätzlich.
Ich kann mir aber durchaus vorstellen, dass die 16 Lanes der CPU mit den TB-Ports geshared sind. Bei ner TDP von 15W wäre das sonst Overkill.
PCIe 4.0 wird Icelake gar nicht haben. Der PCH wird mit PCIe 3.0 angebunden sein.

aldaric schrieb:
Np. Auch Intel sagte bereits in einem Tech-Talk das die Komplexität bei PCIe4.0 und 5.0 derart steigt, dass die Chipsätze gekühlt werden müssen.
Schreibst du immer wieder. Mich würde mal ein Link zu diesem Tech-Talk interessieren.

HaZweiOh schrieb:
In einem anderen Forum hat man mal sachlich überlegt, wo die Unterschiede liegen, und kam auf folgende Punkte:
  • bei früheren Lösungen lag der Chipsatz an anderer Position auf dem Board
  • der Kühler konnte damals beliebig in die Höhe wachsen
  • die Forderung der Kunden nach möglichst vielen M.2-Slots beißt sich mit einer Heatpipe (die durchaus möglich wäre!).
Das MSI Godlike zeigt ja was möglich ist. Es hat 3x M2 und Heatpipes mit Kühler. Hätte man jetzt richtige Lamellenkühler auf Höhe der SpaWas und Rippenkühler auf der ganzen Fläche des Kühler/Lüfter-Gelumpe, hätte man eine richtig potente Kühlung. Es kostet aber einfach viel Geld. Der Lüfter ist billiger.

xexex schrieb:
In der "Übergangszeit" wäre es kein Problem, die Slots mechanisch noch weiterhin x16 auszulegen, oder zumindest nach hinten zu öffnen. Bleibt aber eh ein Wunschdenken, zumindest in den kommenden 10 Jahren, ausser die Grafikkartehersteller einigen sich darauf nur noch Karten mit x8 anzubieten.
Es geht ja nicht um das mechanische. Mit PCIe 3.0 x8 würde man die Topkarten ausbremsen.

Sinnfrei schrieb:
Nein, die sind eigentlich relativ billig. Nur sind die Boardhersteller zu geizig $5 oder $10 mehr pro Board zu bezahlen. Es gab ne Zeit lang relativ normal bepreiste Intel-Boards mit PEX-Switches.
Die waren mal vergleichsweise billig, bis Broadcom den Laden aufgekauft hat und die Preise extrem angezogen hat.
Gab mal nen lustigen Abschnitt in einem Artikel dazu (Anandtech glaub ich)
Das ist der Grund warum früher viele eingesetzt wurden (48fach für PEG-Ports und 8fach für die Erweiterung des PCH) aber plötzlich nirgends mehr zu finden waren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck und CMDCake
bensen schrieb:
Es geht ja nicht um das mechanische. Mit PCIe 3.0 x8 würde man die Topkarten ausbremsen.

Wir reden über PCIe 5.0, dass man nicht plötzlich PCIe 3.0 x16 abschafft, dürfte klar sein.

Die Anforderungen an die Leistungen dürften bei PCIe 5.0 nicht ohne sein und auch der Platzbedarf von PCIe x16 Slots ist nicht zu unterschätzen. In meinen Augen würde es schlichtweg sinn machen, mittelfristig die x16 Slots gänzlich abzuschaffen oder sie zumindest aus dem GPU Bereich komplett zu verbannen.
 
Zuletzt bearbeitet:
xexex schrieb:
Ich glaube das vertust du dich völligst!

Nein, Retail-VK-Preise haben da keine wirkliche Relevanz. Niemand verkauft ein Mainboard für $280 wenn so ein Chip alleine schon $85 gekostet hätte. Zu der Zeit haben die sicher nicht mehr als $10 in den entsprechenden Chargen gekostet.
 
Die PLX Chips sind eh ziemliche Verarsche. Die verfügbare Bandbreite steigt ja nicht, sie wird nur nicht mehr fix 50/50 getrennt sondern dynamischer.
in einer x8/x8 konstellation kann jede Karte max. 8GB/s fahren, Mit einem PLX ist halt auch mal 10/6 GB/s drin bei Bedarf, aber das 16GB/s Limit bleibt ja.

Die wichtigste Komponente für schnellere PCIe Standards sind aktuell NVMe Raidcontroller.
Wenn du 16 SSDs an die Backplane klemmen willst dann muss der Controller auch genug Power dafür haben. Broardcom hat schon seit nem Jahr etwa PCIe 4.0 x16 NVMe Controller im Katalog, bringt halt nix ohne passende Boards.
 
Zurück
Oben