Bandbreiteneinschätzung der Infrastruktur

Michi777

Commander
Registriert
Apr. 2009
Beiträge
2.094
Hallo!

bald steht auch im Büro 2 die Serverneuanschaffung mit Virtualisierung an und um bezüglich Datenträger, Anbindung, Switches die richtige Einschätzung treffen zu können, hier das Beispiel und die Fragen.

Beispiel:
Öffnen und Abspeichern eine ~600MB CAD-Datei.
Dauert mit 1m30sek auf Gigabitanbindung und 2m30sek auf 100Mbit Anbindung.
Im Taskmanager verfolgt sieht man dass er im ersten Beispiel nur 250Mbit Praxisleistung nutzt und ich denke das liegt an der 7200rpm SATA Festplatte in der NAS (=Flaschenhals), denn Clientt hat eine Samsung Evo 850 SSD.
Bei 100Mbit Anbidnung nutzt er nur 77Mbit bie diesem Praxisbeispiel.

Um die Gigabitanbindung mehr auszureizen, denke ich somit dass mit dem neuen Server (HP DL380G10 mit HPE 12G SAS SSD's im Raid5) dies behoben sein sollte.

Jetzt habe ich auch die relativ neuen Switches "HP 2530 48G" diesbezüglich geprüft und diese können ja pro Port 1GB erreichen.
Je nach Switchhardware verarbeitet ja ein Switch eine gewissen Datenmenge pro Sekunde und ich konnte in Praxistests auch nahe 1GB kommen (Kopieren einer großen Datei).

Fragen:
1)Durchangsangabe von 77,3Mpps bei HP 2530

Doch jetzt sehe ich dass unter Durchang 77,3Mpps angegeben sind, was ja unter 100Mbit wäre und die 1GB Leistung komplett dezimieren würde.
Diesen Wert verstehe ich nicht und wollte nachfragen wie der zu verstehen ist.
Siehe Anhang.

2)SAS vs SATA SSD Praxisnutzen bei Fileserver
Auch ob in dieser Konstellation HP DL380G10 (SAS SSD Raid 5) zu Switch "HP 2530 48G" zu Client "1GB pro Dose" ein spürbarer Nutzen wäre wenn man HPE SAS 12G SSD oder HP SATA 6G SSD verbaut.

Vielen Dank im Voraus!
 

Anhänge

  • durchgang switch.jpg
    durchgang switch.jpg
    101,8 KB · Aufrufe: 403
1) MPPS steht für "Millions of Packets per second", hat also nichts mit der Bandbreite zu tun.

2) Um wie viele SSDs im RAID 5 geht es denn?
Es kommt hierbei auf die Anzahl der SSDs und auf die Schreib- und Lesegeschwindigkeit der einzelnen SSDs an, 1GBit hast du allerdings bei aktuellen SSDs in einem Raid 5 recht schnell erreicht, da würde SAS oder SATA keinen großen Unterschied mehr machen.
 
Ich würd mal über 'n schönes Synology mit M.2 SSD-Cache nachdenken :-))
 
@Necareor:
Okay danke, du hast den Wert somit mir aufgeklärt.
3 SSD mit je 800GB im Raid 5 wären es im Server dann.
SATA3 kann halt und 600Mb\s und SAS 12mb\s und somit hat die SAS-Variante 1000Mbit Schreibrate und somit 400Mbit Vorteil gegenüber der SATA Variante.

@RedGunPanda
Ja bei kommenden NAS und wenn es gebraucht wird würde ich aufgrund der tollen Preise der EVO 970er Serie auch M2 SSD's einsetzen, sowie auch bei den neuen PC's.
Aber im Zuge dieser Serverneuanschaffung gehen wir von Synology NAS (iSCSI eingebunden am Server) auf Hardware-Raid mit verbauten Platten für die Produktivumgebung und nur noch die Backups auf die NAS.
 
Michi777 schrieb:
SATA3 kann halt und 600Mb\s und SAS 12mb\s und somit hat die SAS-Variante 1000Mbit Schreibrate und somit 400Mbit Vorteil gegenüber der SATA Variante.
Dem kann ich nicht so ganz folgen, SAS hat 12Gb/s und SATA 6Gb/s, beides liegt meilenweit über den 1Gb/s der Netzwerk-Ports. Ich glaube, du hast da Mbit/s und MByte/s etwas durcheinander gebracht.

Eine einzelne SSD mit 125 MByte/s Schreib- und Lesegeschwindigkeit lastet einen 1Gbit/s-Switch-Port bereits komplett aus.
 
Übersehe ich, welchen Server du jetzt hast? Weil rein Gigabit reizen schon NAS wie DS114 mit einer einzelnen WD Red voll aus.
250 Mbit laut Task-Manager wäre grob 25 MB womit deine 600 MB in einer halben Minute kopiert sein müssten.
Teste echtes Kopieren und Verschieben, wie schnell ist es da? Weil "Speichern unter..." kann durch ganz andere Sachen beeinflusst sein. Wie schnell speichern sich die 600 MB CAD auf z.B. HDD?
 
Also 6 SATA 5400rpm HDDs im RAID 6 lasten eine 1GBit/s Ethernetleitung voll aus (112 bis 113 Megabyte/s Netto). Mit einem Core i3 im Server klappt das sogar mit aktiver Festplattenverschlüsselung bei voller Geschwindigkeit. Mehr als 112-113 MB/s gehen über ne 1GBit/s Leitung Netto nicht herüber. 1000 MBit/s sind zwar 125 MB/s, die restlichen 12,5 MB/s gehen jedoch an Overhead drauf. Ich denke also SSD sind unnötig, sofern der Server nur mit 1GBit/s angebunden ist. Ggf. ist auch das CAD-Programm schuld. In dem es die Datei nicht am Stück liest sondern "häppchenweise" (10% laden -> verarbeiten -> nächsten 10% laden usw., das dauert länger. Sollen denn mehrere gleichzeitig auf dem Server arbeiten? Wenn nicht, sind HDD im RAID 6 wirklich ausreichend. Zumindest sofern es nicht auf die IOPS ankommt.
 
Ich denke auch, dass hier etwas mit den Werten verwechselt wurde. Prinzipiell kann man sagen, dass eine gewöhnliche 7.200rps HDD Schreib-/Leseraten erreichen, die eine Gigabit Verbindung ausreizen können. Wie @scooter010 schon geschrieben hat, ist die Verwendung von SAS Festplatten bzw. SSDs je sinnvoller, desto schneller die Anbindung des Servers / NAS im Netzwerk ist.

Sollten Server / NAS mehrere Netzwerkkarten besitzen, möchte ich hier auch nochmal SMB3.0 Multichannel in den Raum werfen. Damit ist es möglich mehrere Netzwerkverbindungen zu bündeln und somit 2 Gigabit und mehr zu erreichen. Bitte nicht mit Link Aggregation verwechseln! Um SMB 3.0 Multichannel zu nutzen gibt es allerdings Anforderungen die zu erfüllen sind: Hier

Ansonsten bleibt nur noch eine 10G NIC...
 
Ah tut mir Leid, habe das Thema SATA Bus Limitierung und Fortschrittsentwicklung von M2 PCIe SSD's mitreingebracht, wie die Angabe ja sagte 6 bzw12 Gigabit kann die Schnittstelle.
Doch was hat nun den starken Geschwindigkeitunterschied von z.B. Evo 850 SATA 3 SSD zu Evo 970 PCIe M2 SSD gebracht wenn nicht die SATA Limitierung?

Ja, also den Server werde ich mit 4GB anbinden und das am Switch möglichst gut einstellen, denke einen Trunkverbund der Ports oder was empfiehlt sich da im Zusammenspiel mit dem ProCurve 2530 Switch am Besten?
 
Wenn du SSD willst, ok, bei einem raid 6 hat man auch bis zu 18 Gbit lesend (1x Daten + 2x Parität mit jeweils 6 Gbit Schnittstelle. Das ist auch wieder nur das Netzwerk der Flaschenhals. Mit anderen Worten: SSD sind zwar deutlich schneller als HDD, aber in deinem Szenario wird das am Client/PC 0 Beschleunigen. Das nützt nur lokal am Server etwas, wenn auf den SSD Datenbanken liegen, mit denen der Server Operationen im Speicher durchführen muss.
Natürlich ist die SATA SSD langsamer als die 4xpcie SSD. Es gibt auch noch schnellere SSD mit 8 oder 16 Fach Anbindung. Aber was nützt es, wenn das LAN nicht schnell genug ist?
 
Ja ich hab mir das mal anschaulich zusammengeschrieben und stimmt das Netzwerk macht sogar mit moderner Aufpatchung nur 4GB's mit (außer 10GB Karte nachrüsten), somit wäre SATA SSD auch ausreichend, wenn aber nicht viel teurer nehme ich gerne die SAS, dann bleibt noch kscheid was für interne Kommunikation mit sich selbst und den zwei Virtuellen über.

Somit ist das aktuelle Praxisleistungslimit wohl auf die aktuelle 2GB Anbindung des ML350 G5 Servers und NAS zu schließen anstatt auf die WD Black 7200RPM RAID 1
 

Anhänge

  • Anbindungsaufstellung.JPG
    Anbindungsaufstellung.JPG
    19,2 KB · Aufrufe: 350
Meine Frage war nicht warum nvme und nicht SATA sondern warum überhaupt SSD und nicht HDD. Wie viele Datenträger willst du denn einsetzen?
 
@scooter010:
Brauchen so 2,4TB Nutzleistung für Produktives (da rest auf NAS archiviert).
Da SSD's nicht mehr so teuer sind, sehr lange Laufzeiten haben, der letzte mechanische Bauteil sind und die Investition für viele Jahre eingesetzt wird wollte ich auf SSD Only setzen.

Es arbeiten so 25 Architekten auf diesem Server (Mail, Fileserver, Domainserver, Backupserver, 1 virtueller gehostet) und jeder kriegt nun 1GB statt 100Mbit aufgepatched.

Aber stimmt Bandbreitetechnisch beschränkt das Netzwerk und wir haben auch wenig Datenbanken und ebenso findet bis auf das Öffnen\Speichern\Synchronisieren alles auf der lokalen Platte ab (temp VZ) bei Autodeskprodukten.
 
Platten im RAIDx funktionieren nur bedingt. Es geht nicht nur um den reinen Durchsatz, der ist selten das Problem. Vielmehr ist es die Zugriffsdauer bei verteilten Nutzern. Und da ist ein RAID6 echt Mist.
Wir hatten das hier mit 30 ACAD Arbeitsplätzen laufen, nicht akzeptabel. Unser Datenbestand ist jetzt in mehrere RAID1 zerlegt und per DFS zusammengefasst. Die Projekte mit den DWGs liegen auf einem simplen RAID1 mit D3 S4510 1,9TB. Und das funktioniert völlig reibungslos und schnell. Auf Platten liegen hier nur noch Archive und unwichtige Daten.
 
Steht denn überhaupt schon fest, warum 600 MB Zweieinhalb Minuten brauchen? Reine 600 MB werden auch von Billig-NAS mit Gigabit ausgereizt, also unter 10 Sekunden. Wenn du mit anderen Dateikopien 1000 Mbit (~100 MegaByte) erreichst, teste mal, wie lange die 600 MB CAD-Datei beim lokalen Speichern braucht. Oder ob beim langen Zweieinhalbminuten-Speichern irgendwo die Rechenlast im Server hochschlägt.
 
Zurück
Oben