Notiz Jetzt verfügbar: Intel Xeon W-3175X für 2.999 USD offiziell im Handel

Krautmaster schrieb:
Ganz gleich ob AMD oder Intel oder sonstwas. Ich sehe zb AM4 hier nicht wirklich im Vorteil nur weil man 4 PCIe Lanes auf der CPU Seite mehr hat. Dafür hat der Chipsatz bezüglich Anzahl Defizite.
Du meinst also der X570 hätte keinen AM4 Sockel ? Ich schätze mal was da an Bandbreite freigesetz wird passt zur HEDT = 24 physische Lanes a 4.0 statt 3.0 aus Kompatibilitätsgründen .
Und die Premium Boards dürften Swiche haben um bei denen die wollen , 8 4.0 Graka Lanes auf die Slots aufzuteilen .
Noch gibt es wenige 4.0 Steckkarten , aber eine 10 Gbit Lan Karte passt dann in einen 1X Slot ....
 
Krautmaster schrieb:
was hatte meine Aussage mit X570 zu tun?
na was wohl , wenn du dich auf AM4 berufst und nicht auf X370/470 oderB450/350 und deren 8 x 2.0 chipsatz Lanes
Der Ryzen 3xxx wird auf dem Sockel AM4 24 physische 4.0 Lanes bereitstellen = dieselbe Bandbreite wie 48 mal 3.0 Lanes . Ziemlich viel Bandbreite im Mainstream oder ?
Der X570 wird mit 4 x 4.0 angebunden sein , = 8 x 3.0 Lanes , ausgehend werden es 3.0 Lanes sein , mindestens 8 echte 3.0 Lanes , ob mehr , wird sich zeigen müssen
 
Zuletzt bearbeitet:
viel Bandbreite ja, aber wie komm ich nun zum Genuss von zwei PCIe SSDs + GPU? Du beantwortest meine Frage nicht.

Das muss ja kein Raid oder sonstwas sein. Ich will einfach nach nem Jahr noch ne z. 970 Evo PCIe M.2 einbauen weil Platz alle und so.
Jetzt mag ich bei Intel zb bei diesem 80€ Board nicht beide simultan mit je 4 Gb/s belesen können, aber ich hab beide SSDs für sich 100% im Zugriff wenn ich nicht gerade noch parallel mit 10Gb/s Lan auf meinen PC kopiere.

Bei AM4 sehe ich da nur die Möglichkeit die SSD auf PCIe 2.0 zu betreiben. Ist das nun besser?

Jedenfalls halte ich nen AM4 System iwann mal mit 2 PCIe SSDs betreiben zu wollen wür wahrscheinlicher als dass mir die 44 PCIe Lanes im HEDT nicht ausreichen, oder mir DMI nen Strich durch die Performance macht da ich doch mal von beiden SSDs gleichzeitig lesen muss.

Ich hoffe zb auch stark dass AMD wenn sie ihren Chipsatz schon bald mit PCie 4.0 anbinden auch die Lanes auf dem Chipsatz ausbauen.
Ergänzung ()

MK one schrieb:
mindestens 8 echte 3.0 Lanes , ob mehr , wird sich zeigen müssen
dann hat man ja dasselbe Dilemma wie jetzt. Man kann zwar eine PCIe Gen4 4x SSD an der CPU betreiben, die zweite müsste aber auf PCIe 3.0 Niveau abfallen. Nicht dass es nen Unterschied machen würde was Real Case Performance angeht, aber vorher predigst du noch was von SSD Raid, also scheint dir Bandbreite ja wichtig zu sein.
 
Glückwunsch an Intel für die Leistungskrone.
Ich würde mir für die Zukunft wünschen, dass Intel das Pimmelfechten mit AMD auf einer seriöseren Ebene austrägt.
 
  • Gefällt mir
Reaktionen: Kalsarikännit
2018-11-26 (8).png
2018-11-26 (5).png



es geht auch bei AM4 ... , mit einem 130 Euro B450 Board , keine VROC Keys nötig und ich habe trotz NVME Boot Raid noch die Möglichkeit eine dritte per PCIe Adapter zu nutzen , oder ne andere Erweiterungskarte die hohe Bandbreite braucht ( 4 X PCIe3.0 )
Ja es kostet 8 GraKa Lanes und nein , die aktuellen GraKa benötigen keine 16 Lanes , nur AMD Crossfire könnte da Bandbreite nutzen , NV s Brücke braucht kein PCIe Bandbreite
 
okay, du schaltest deine GPU also auf 8x zurück um deine SSDs im Raid 0 zu betreiben? :freaky:

Interessant. Dir gehen also schon die Lanes aus aber Bandbreite is dir offensichtlich sehr wichtig, ein Raid 0 wert haha.

Edit: Naja gut, jedem das seine. Ich hoffe für dich dass du die verlorene Leistung durch geringere Latenz beim SSD Raid durch das + an Bandbreite wieder wegmacht, und dass deine GPU wirklich nichts von 16x PCIe anfangen kann. Da frage ich mich wieso man überhaupt 16x Slots und PCIe 16x verbaut, bei GPU als auch Boards. Ggf Microruckler? Einbruch nur an manchen Stellen. Die meisten kaufen sich ja nen Board / CPU mit vielen Lanes um genau das zu verhindern, also die GPU auf 8x zu fahren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ctrl
Krautmaster schrieb:
Und wie betreibe ich an AM4 zb zwei PCIe M.2 SSDs + GPU?

Natürlich mit dem Wunsch bei beiden SSD auch mal die volle Geschwindigkeit überhaupt abrufen zu können, nicht zwingend zeitgleich.

Ne schöne Übersicht gibts hier
http://www.pcgameshardware.de/Mainb...X399-und-Co-1260929/galerie/2902744/?fullsize
Du vergleichst HDET mit Mainstream Anwendungsgebiete. Starker Tobak.
Die Wahrscheinlichkeit für seltener Hardwareanforderung steigen massiv mit der passenden Nutzerschicht.

Und es ist und bleibt einfach so, 4 Lanes bleiben 4 Lanes und sind keine 24. Ein USB Hub/Switch macht auch nicht aus einem 3.0 USB Port vier 3.0USB Ports.

Davon ab, das Intel im HEDT Bereich immer knausert und die Bandbreite im Mainstream ehr schneller steigen lässt. Eben weil das DMI in dem Bereich keinen juckt. Das ist genau für sämtlichen Controller gut, die kein Schwein dauerhaft braucht.

Und da treten eben genau 60 gegen 44 Lanes an. Alles andere ist Marketing bla bla.

Und man kann sich gerne drüber unterhalten, ob 44 gegen 60 den Riesen Unterschied machen und wenn sie es tun, ob nicht MehrSockel Xeons oder Epycs mehr Sinn machen. Aber zu sagen, Intel hat 68 Lanes auf dem HEDT ist einfach stumpf falsch.
 
  • Gefällt mir
Reaktionen: I'm unknown
auch bei den 44 vs 60 hast du sicher zig Komponenten die genauso gut am PCIe Switch hinterm Chipsatz hängen können, ohne dass es einen Unterschied macht. Audio, GB Lan, einfache SATA Ports.

Ich kam mit dem Beispiel AM4 weil die Diskussion dieselbe ist. Für viele hier sind die CPU Lanes wohl das einzige was zählt, sei es HEDT, sei es Mainstream Plattform. Dabei scheitert es gern an ganz anderer Stelle. Das mit den Shared Lanes war nur ein Beispiel. Und das mit den 2 M.2 SSDs an AM4 sollte auch dir nen Denkanstoß geben,

Wenn der dritte M.2 Slot eben zB fix mit den PCIe 2.0 lanes des Chipsatz verdrahtet ist bringt dir das eben wenig wenn deine CPU 60 Lanes hat. Und man braucht wie gesagt auch im HEDT erstmal nen Anwendungsfall um 40 Lanes voll zu machen. Quadro Crossfire oder sowas. Oder den genannten 40Gb Ethernet Sniffer den jeder HEDT Besitzer zu Hause haben dürfte ;)

Also ich glaube der geringste Unterschied zwischen dem Xeon hier und dem Threadripper sind noch die Lanes.
 
Krautmaster schrieb:
okay, du schaltest deine GPU also auf 8x zurück um deine SSDs im Raid 0 zu betreiben? :freaky:

Interessant. Dir gehen also schon die Lanes aus aber Bandbreite is dir offensichtlich sehr wichtig, ein Raid 0 wert haha.
tja , dann bringe mir doch mal Beispiele wieviel man mit 8X statt 16 X verliert , bitte keine Beispiele mit Titan X Im Crossfireverbund oder ähnlichen Nonsens:freaky:
Du must ja verdammt wichtige Daten auf deinen Rechner haben das du so fixiert bist auf ansonsten vollkommen überflüssigen Raid 1 ....
verbraucht nur den Speicherplatz des 2 ten Laufwerks für .... nix
Ich brauch kein Raid 1 , meine Daten lassen sich jederzeit per Backup wiederherstellen und der PC wird ausschliesslich privat genutzt ....
Kleiner Hinweis : SSD s haben keine beweglichen Teile und eher stürzt das Haus über einem zusammen als das Erschütterungen eine SSD erschüttern ...

Was machst du mit deinem PC ? bindest du ihn an weil er weglaufen könnte? :freaky:

Ich habe keine Daten auf den PC / NVME Laufwerken die sich nicht wieder herstellen liessen .... ergo müßte man ein Idiot sein wenn man trotzdem Raid 1 verwenden würde ....
Es kommt ja soooooooooo oft vor das der SSD Controller abnippelt oder die SSD tot ist , klar , jede Woche mindestens 1 mal :freaky:
 
  • Gefällt mir
Reaktionen: Transistor 22
wie gesagt, jedem das seine. Bist jedenfalls der erste Kandidat der mir hier mit dieser Strategie begegnet. Die meisten PCie 8x vs 16x Test sind übrigens schon alt, auf 3 mal langsameren GPU entstanden.

Es gibt wohl was aktuelles.
https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/3.html

Die wie Frametimes sind weiß man allerdings nicht.

Edit. Wieso betreibst du deine GPU nicht am Chipsatz und machst dir nen 4x Raid aus M2 SSDs= ;)
 
Zuletzt bearbeitet:
Ich sehe so ein System nicht als Spielzeug sondern Arbeitstier. Und genau dafür wird mehr als nur eine SSD, eine Gaming Karte und ein 10 Gbit Ethernet für den Router mit 1 Gbit benötigt...
 
Krautmaster schrieb:
wie gesagt, jedem das seine. Bist jedenfalls der erste Kandidat der mir hier mit dieser Strategie begegnet. Die meisten PCie 8x vs 16x Test sind übrigens schon alt, auf 3 mal langsameren GPU entstanden.
macht überhaupt keinen Unterschied , im Gegenteil , grade die High End GraKa s versuchen wo es nur geht Zugriffe über den im Vergleich langsamen PCIe Bus zu vermeiden , wewegen wohl die 11 / 12 / 16 GB VRam , auch die Effekte und Filter werden nach Möglichkeit von den Shadern der GraKa selbst berechnet
Selbst mit nur 1 einzigen 3.0 Lane sind oft noch 50 - 60 & der normalen Leistung drin
Nur Karten mit 4 GB oder weniger VRam benötigen tatsächlich Bandbreite weil Texturen ausgelagert werden müssen

reicht dir ne 1080 ?
 
Krautmaster schrieb:
Hat eigentlich jemand einen Test in einem Real Case Szenario welches ein solches DMI Limit bzw dem AMD Pendant aufzeigt?
Hab zwar keinen Link, wenn man aber Crossfire über den Chipsatz laufen lässt, dann reicht es nicht für die höchstmögliche Leistung. Das wurde zeitweise aber tatsächlich so genutzt und als kompatibel verkauft, da es das technisch ja auch war.

Heute ist das aber komplett irrelevant. 10GBit LAN und die boot M.2 (zwangsläufig über den Chipsatz bei Intel) könnten auch ausreichen.

Thunderbolt 3, über den Chipsatz mit PCIe versorgt, stößt heute gut und gerne an diese Grenze, wenn man das Display im Notebooks nutzt. Das liegt an der Geschwindigkeit von nur 4 Lanes und dem Datenverkehr in beide Richtungen. Reine PCIe 3.0 *4 Verbindungen gehen da besser. Deshalb verlieren die GPUs ohne TB, dafür direkt PCIe, auch weniger Leistung. Da kann aber auch der doppelte Overhead dran schuld sein.

Edit: Bei Serverprozessoren sollte das aber kein Problem sein, da die mehrere DMI Links haben.
 
iamunknown schrieb:
Ich sehe so ein System nicht als Spielzeug sondern Arbeitstier. Und genau dafür wird mehr als nur eine SSD, eine Gaming Karte und ein 10 Gbit Ethernet für den Router mit 1 Gbit benötigt...

Gut, da der Großteil der Firmen wohl den Xeon Platinum durchaus als Arbeitstier sieht wird das wohl im Schnitt auch ganz gut gehen bei der Anzahl Lanes.

10 GB Ethernet reichen prinzipiell 2 Lanes. Und bei nem Arbeitstier braucht es meist auch wirklich keine PCIe 16x für ne GPU. Die wenigsten Plattformen werden da wohl an die Grenzen stoßen. Eher CPU / Ram seitig.

@usb2_2

TB3 hab ich mich bisher nicht sonderlich viel beschäftigt. Generell kommen beim Ansteuern von Display natürlich viel Bandbreite zustande. Gibts da auch nen AMD Pendant?

Die 4x Anbindung des Chipsatzes haben ja beide Plattformen. Die wird natürlich baldigst auf PCIe G4 Niveau gehoben sobald das mal in den CPU Standard ist.
 
Zuletzt bearbeitet:
das freut mich für dich. Mag bei eurem Use Case so sein. Unsere 2 Sockel Blade Server auf Arbeit sind wie gesagt fast ausschließlich über den maximalen RAM Ausbau und SAN / LAN limitiert. Solange das PCIe seitig für Fabric reicht ist alles gut. Und da reichen vermutlich 4 Lanes. Dafür wären übrigens auch die Epycs ziemlich ideal.

Aber wenn du schon vom Fach bist, mich würde interessieren mit wie viel Gb/s ihr eure Systeme auslastet und was an PCIe Bandbreite drüber geht. Mal schauen wie viel 3.0 Lanes das so entspricht. Kannste ja sicher Zahlen liefern.

Ich tippe mal auf Kommunikationsbranche.
 
Krautmaster schrieb:
wie gesagt, jedem das seine. Bist jedenfalls der erste Kandidat der mir hier mit dieser Strategie begegnet. Die meisten PCie 8x vs 16x Test sind übrigens schon alt, auf 3 mal langsameren GPU entstanden.

Es gibt wohl was aktuelles.
https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/3.html

Die wie Frametimes sind weiß man allerdings nicht.

Edit. Wieso betreibst du deine GPU nicht am Chipsatz und machst dir nen 4x Raid aus M2 SSDs= ;)

ich hab ne RX580 ..... :rolleyes:, aber klar , es bricht einem 2080 Ti Nutzer ja das Genick wenn we mit 8X 204 FPS hat statt 208 mit 16X

deus-ex-mankind-divided_3840-2160.png
deus-ex-mankind-divided_1920-1080.png

man beachte die sagenhaften 0,2 FPS in 4 K unterschied bei FHD ( eigentlich keine Domäne einer 1200 Euro Karte ... ) sind es 2.1 FPS
im Grunde gibt es nur ein Game das etwas ausreißt , das ist WWII mit 207 ( 8X) statt 217 ( 16X) , wie sich das wohl auf einem 144Hz Monitor bemerkbar macht ? Hmmm

das nächste was kommt ist ne Ryzen 3xxx CPU , wer weiß , möglicherweise stellt Asus ja ein Bios bereit um dem 1 sten PCIe SLOT auf 4.0 zu hieven ? wobei ich wegen des Switches so meine bedenken habe
https://www.tomshardware.com/news/amd-ryzen-pcie-4.0-motherboard,38401.html
Dann kommt ne Navi GraKa , keine 2080 TI ... , 1080er Leistung für 300 Euro , reicht ...
 
Zuletzt bearbeitet:
Zurück
Oben