X570 - Grafikkarte im PCI Express 4.0 x1 Slots möglich?

eehm schrieb:
aber der hat eine andere Architektur. :(
als welche AM4-APU mit 6 kernen?

der PRO 5755G unterstützt ECC. so oder so hätte man mit nem Cezanne nur PCIe3.0.

Kann ich dann ggf. in die PCIe 4.0 x1-Slots mit anderen Adaptern je eine M2 SSD einsetzten?
Gibt es solche Adapter überhaupt?
klar gibts die, da die x1-slots hier offen sind passen die x4-karten ja. laufen dann natürlich nur mit x1.
 
Da er nur 2 NVMe nutzt, würde x8 (4060 GPU) x4/x4 (Riser) ja auch reichen. Aber das scheint auch nicht zu gehen.
 
AMD-Flo schrieb:
Wenn ich das richtig verstehe, werden die 16 Lanes in je 4 Lanes pro SSD aufgeteilt, also muss das Board eine Aufteilung in x4/x4/x4/x4 ermöglichen, was es vermutlich nicht kann.
Ja, läuft bei mir in meinem Hauptserver so mit einem Gigabyte MC12-LE0. Da geht das mit 4x4x4x4.

Deathangel008 schrieb:
als welche AM4-APU mit 6 kernen?

der PRO 5755G unterstützt ECC. so oder so hätte man mit nem Cezanne nur PCIe3.0.
Ich war de rfesten Meinung, das nur die PRO APUs am Ende ECC können, aber so sicher bin ich mir dann doch nicht mehr! :D
 
eehm schrieb:
Ich habe folgendes auf dem Server mit Proxmox vor.
  • VM1: Videoschnitt mit Davinci und Bildbearbeitung mit Capture One
    Windows 11 - 16 vCPUs - 32GB RAM - GPU-Passthrough: RTX4060

  • VM2: Linux Büro Rechner
    Linux Mint: - 16 vCPUs - 16GB RAM - GPU-Passthrough: P600

  • VM3: TrueNAS Backup und schneller VM-Storage
    TrueNAS - 2 vCPUs - 16GB RAM - HBA-Passthrough für HDDs sowie Asus Hyper-Passthroug für schnellen VM-Storage unter ZFS
Die Asus Hyper M.2-Karte muss in den ersten Slot, der mit x16 angebunden sein und der Bifurcation x4x4x4x4 unterstützen muss. Normalerweise sollte X570 Bifurcation können, bei Asrock finde ich aber nichts dazu.
Die 4060 muss dann in den zweiten Slot und läuft nur mit x4, ob das bei Videoschnitt einen Unterschied macht? Keine Ahnung, das musst du herausfinden.
Die P600 kommt in den x1 Slot, könnte für Office reichen. Edit: Strom. Hm, keine Ahnung, ob ein x1 Slot genug Strom für eine Grafikkarte liefern kann.

Welche AM4 CPU bringt denn 34 Threads und hat noch Reserven für Proxmox selber? Oder soll das nicht alles gleichzeitig laufen?
 
eehm schrieb:
Ja, läuft bei mir in meinem Hauptserver so mit einem Gigabyte MC12-LE0. Da geht das mit 4x4x4x4.
Davon habe ich auch 3 Stück 😁

Warum machst du dein ZFS Storage nicht auf dem Hauptserver?

Evtl. Erübrigt sich dann auch der Bedarf an ECC RAM und entsprechender CPU.

Die AM4 APUs mit 50 am Ende unterstützen ECC - 5750G ist das Max (ich habe 4650G auf meinem MC12-LE0)
 
@eehm @HerrRossi
habe ein ähnliches Setup - mit GIGABYTE B550 AORUS Elite V2 - da steckt meine PCIe nvme Karte auch im 1. 16x slot - eben wegen der Bifurcation - und ich hab auch keine so teure von Asus gekauft :D eher das Cheapomodell für ein paar euro von Ali :D


Die Frage is halt ob Videoschnitt so viel bandbreite bräuchte...
 
  • Gefällt mir
Reaktionen: HerrRossi
HerrRossi schrieb:
Die Asus Hyper M.2-Karte muss in den ersten Slot, der mit x16 angebunden sein und der Bifurcation x4x4x4x4 unterstützen muss. Normalerweise sollte X570 Bifurcation können, bei Asrock finde ich aber nichts dazu.
Danke für den Hinweis.
Die werde ich streichen. Dann löse ich das High-Speed-Speicher-Thema für die Videoschnitt VM auf einen anderen weg.
Fand die Karte nur so praktisch und läuft seit über einem Jahr im Hauptserver ohne Probleme.
Dann kann die 4060 in den PCIe 4.0 x16 und die P600 in den PCIe 4.0 x16 (x4 Anbindung).

HerrRossi schrieb:
Welche AM4 CPU bringt denn 34 Threads und hat noch Reserven für Proxmox selber? Oder soll das nicht alles gleichzeitig laufen?
Der Ryzen 9 5950X hat doch 16 Kerne und 32 Threads. Wenn ich dann 34 vCPUs verteile ist das wahrlich nicht überbucht aus meiner Sicht. Oder?


Dig.Minimalist schrieb:
Warum machst du dein ZFS Storage nicht auf dem Hauptserver?
Das mache ich so, aber der zweite Server ist zusätzlich mein Windows-PC im Arbeitszimmer, daher auch die Grafikarte. Jetzt will ich noch die Linux-Kiste im Arbeitszimmer verbannen, daher die zweite Grafikkarte.
Und dann ist er noch mein zweites ZFS Storage. Ich brauche ja zwei um mein Backup per Replication zu sichern. ;)
 
eehm schrieb:
Der Ryzen 9 5950X hat doch 16 Kerne und 32 Threads. Wenn ich dann 34 vCPUs verteile ist das wahrlich nicht überbucht aus meiner Sicht. Oder?
Ist ja nichtmals Faktor 1,5-2, sehe da gar kein Problem.
eehm schrieb:
ch brauche ja zwei um mein Backup per Replication zu sichern. ;)
Dafür reichen dann auch ein paar drehende Platter.

eehm schrieb:
Dann löse ich das High-Speed-Speicher-Thema für die Videoschnitt VM auf einen anderen weg.
Das sollte ja auch übers Netzwerk gar nicht so schlecht klappen, welche Anbindung steckt zwischen den Kisten?
 
VDC schrieb:
Das sollte ja auch übers Netzwerk gar nicht so schlecht klappen, welche Anbindung steckt zwischen den Kisten?
Ich habe aus Kostengründen nur einen 24 Port 1Gbit Switch im Keller. Die Unifi Geräte mit 2,5 G Bit und mehr waren einfach arg teuer.
Verkabelt ist aber alles Duplex mit Kabeln, dass mindestens 10 Gbit gehen sollten.
Aber dann müsste ich halt einen kleineren Switch noch kaufen um nur die Server zu verbinden. Weiß auch nicht, ob es da von Unifi was "preiswertes" gibt!
 
Ich habe nur bescheidene Erfahrungen mit Proxmox, aber ich betreibe hier sowohl eine Windows 11 VM als auch mehrere Debian/Cachy VMs, alle mit KDE und anderen Desktops, und das läuft alles gleichzeitig auf der iGPU des i7 7700 in einem Lenovo 910m tiny.
 
eehm schrieb:
Wenn ich dann 34 vCPUs verteile ist das wahrlich nicht überbucht aus meiner Sicht. Oder?
Bei VMs sehe ich das kritischer als bei LXC oder Dockercontainern. Bei mir ging es dabei aber immer um Gaming VMs, da wollte ich die volle CPU Leistung haben.

Dann löse ich das High-Speed-Speicher-Thema für die Videoschnitt VM auf einen anderen weg.
Du könntest zwei SSD ja auch direkt auf's Board packen und an die VM weiter reichen, das ist mit PCIe M.2 mW. problemlos möglich, wenn die IOMMU Groups sauber sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eehm
HerrRossi schrieb:
Du könntest zwei SSD ja auch direkt auf's Board packen und an die VM weiter reichen, das ist mit PCIe M.2 mW. problemlos möglich, wenn die IOMMU Groups sauber sind.
Ja so werde ich das auch machen.
Gehen halt jetzt dann leider nur 2 Stück, aber da kann man wohl nix machen ....! :(
 
Die kannst du ja auch in RAID packen, falls dir der Speed nicht reicht. Aber auch ohne RAID sollte die Datenrate von PCIe 4.0 x4 für 4K-Videos reichen, kommt aber natürlich auch auf die SSD selber an.
 
Zurück
Oben