Test NAS-Neuauflagen im Test: Synology DS718+ & DS218+ gegen QNAP TS‑253B

@Weyoun

du musst dich mal besser informieren.
Nur weil eine CPU 4 oder sagen wir 64 PCI-Express Lanes hat, muss der vorhandene PCI-e Slot nicht auch mit 4 lanes angebunden sein.

Die verfügbaren Lanes werden entsprechen beim Hardware-Design verteilt.
Du kannst auch eine PCI-e x1 TV-Karte in einen x16 Slot packen...kein Ding.

Der Flaschenhals ist am Ende eh ein anderer. 10GB ethernet für Privatanwender ist sowieso overkill.
evtl. nützlich wenn man das Storage via iSCSI direkt an nen 10GB Adapter klemmt. (VMware Speicher etc.)
 
Overkill ist relativ...

Tastatur über USB ist auch Overkill.

Solange 10GBE aktuell mit etwa 230 EUR pro Port (NIC + Switch) zu Buche schlägt wird noch abgewogen ob man sie braucht. Wenn der Preis auf 1 GBE Niveau gekommen ist wird keiner mehr überlegen.

Erinnert mich an Seagate Dockstar. HDD via USB 2.0, ultralahme CPU aber mit 1GBE NIC.
 
Weyoun schrieb:
Ich rede nicht vom eigentlichen Netzwerk-Protokoll, sondern ganz oben von Layer 1 vom OSI-Modell, den Physical Layer

Und was ändert das an der "Problematik"?

Auf Layer 1 hängt ein PHY mit 8 Adern am Switch und kann somit 10Gbit mit dieser Gegenstelle aushandeln. Mit wie vielen Leitungen er an der CPU hängt hat keinen Einfluss auf diese Seite der Verbindung.

Auf der CPU Seite hängt der Chip dann mit 4 Datenleitungen an der CPU und kann pro Adernpaar mit 500MB/s mit der CPU Daten austauschen. Hier ist es ebenfalls egal mit welcher Geschwindigkeit der Netzwerkchip am Switch hängt.

Vereinfacht ausgedrückt, hat der Netzwerkchip die Aufgabe, die Pakete zwischen den beiden Seiten weiterzuleiten und kann Pakete für einen kurzen Zeitraum zwischenspeichern oder die Gegenstelle anweisen keine Pakete mehr zu senden.

Weyoun schrieb:
Und wie passt dann bitte eine PCIe2 x4 Karte (die Zusatzkarte von QNAP hat einen x4-Anschluss) in einen PCIe2 x2 Slot?

Physikalisch und elektrisch sind zwei unterschiedliche paar Schuhe. Im PC befinden sich heutzutage häufig mehrere PCIe x16 Slots die elektrisch nur mit 8x, 4x oder gar 1x an die CPU angebunden sind. Manche Slots haben am Ende einen Schlitz, damit längere Karten passen. PCIe Leitungen können beliebig zusammengeschaltet werden. Eine Grafikkarte mit PCIe3.0 x16 Anschluss, funktioniert auch in einem PCIe2.0 x1 Slot, wenn man sie mechanisch dort reinbekommt. Umgekehrt funktioniert auch eine PCIe1.0x1 Karte in einem PCIe3.0x16 Slot.
PCIe_J1900_SoC_ITX_Mainboard_IMG_1857.JPG

LL


McPole schrieb:
Der Flaschenhals ist am Ende eh ein anderer. 10GB ethernet für Privatanwender ist sowieso overkill.

Sorry aber dem kann ich so nicht zustimmen. Über Gigabit Ethernet können bestenfalls irgendwas mit 110MB/s übertragen werden. Das ist selbst bei einer normalen Festplatte schon viel zu wenig um sie mit voller Geschwindigkeit ansprechen zu können. Über SSDs reden wir am besten gar nicht erst.

Selbst 10GB Ethernet ist im Privathaushalt heute zu wenig, weshalb einige NAS Systeme auch eine TB3 Schnittstelle haben. Ein NAS dürfte in vielen Haushalten zur Datensicherung dienen, bei heutigen Festplattengrössen von bis zu 12TB, will doch niemand mehr die Daten über eine Gigabit Ethernet Verbindung quetschen.
 
Zuletzt bearbeitet:
Zum Thema Virtualisierung: VMM ist Beta und läuft auf der DS218+ nicht ab Werk mit 2 GB RAM. VMM braucht 4 GB RAM. Insofern kann die DS218+ rein theoretisch zwar VMM, aber eben nicht im Auslieferungszustand des Testmodells. (Bei der DS718+ sieht es da aber nicht anders aus.)
 
Zuletzt bearbeitet:
Ergänzend dazu: Man kann die 218+ und 718+ ohne Probleme mit handelsüblichen Bausteinen auf 16 GB aufrüsten, allerdings sieht das Synology nicht gerne und hat dementsprechend gemäß Garantiebedingungen nur die eigenen 4GB-Module vorgesehen. Deshalb auch die 6 GB beim Speicheraubau.
 
xexex schrieb:
Sorry aber dem kann ich so nicht zustimmen. Über Gigabit Ethernet können bestenfalls irgendwas mit 110MB/s übertragen werden. Das ist selbst bei einer normalen Festplatte schon viel zu wenig um sie mit voller Geschwindigkeit ansprechen zu können. Über SSDs reden wir am besten gar nicht erst.

Selbst 10GB Ethernet ist im Privathaushalt heute zu wenig, weshalb einige NAS Systeme auch eine TB3 Schnittstelle haben. Ein NAS dürfte in vielen Haushalten zur Datensicherung dienen, bei heutigen Festplattengrössen von bis zu 12TB, will doch niemand mehr die Daten über eine Gigabit Ethernet Verbindung quetschen.

Normale Festplatten schaffen auch nicht viel mehr als 100-130mb/s. Wo nimmst du deine Infos her????

Achso bzgl. 10GBE.... Wer hat denn zu Hause bitte ne 10GBE Struktur am laufen mit 10GB Switchen und nem Rechner mit 10GBE LAN-Adapter ???
......und wenn, sowas ist noch nicht wirklich bezahlbar. Da sind die Hersteller erstmal am Zuge das massentauglich zu machen.
Erste Anfänge gibt es ja bereits bei Asus und Netgear.
Wird aber wohl noch 1 bis 2 Jahre dauern.
 
McPole schrieb:
Normale Festplatten schaffen auch nicht viel mehr als 100-130mb/s. Wo nimmst du deine Infos her????

Ich bitte dich! Selbst die vergleichsweise langsamen WD RED Platten schaffen zwischen 150-210MB/s.
https://www.technikaffe.de/anleitun...tten_mit_10tb_und_niedriger_leistungsaufnahme
Ein Raid-5 aus 4 solchen Platten würde zwischen 450-630MB/s übertragen, wenn er nicht durch die schnarch langsame 1GB Lan Schnittstelle beschränkt wäre.

Ein 10Gbit Switch für den "Hausgebrauch" kostet um die 400€ und wem 2 Ports ausreichen ist sogar unter 200€ dabei.

Das mag viel Geld sein, wer allerdings mal >5TB mal zwischendurch auf ein NAS sichern will und dafür statt 13h+ nur noch etwas mehr als eine Stunde benötigt, weiß den Unterschied schnell zu schätzen.
 
Zuletzt bearbeitet:
xexex schrieb:
Ich bitte dich! Selbst die vergleichsweise langsamen WD RED Platten schaffen zwischen 150-210MB/s.
https://www.technikaffe.de/anleitun...tten_mit_10tb_und_niedriger_leistungsaufnahme
Ein Raid-5 aus 4 solchen Platten würde zwischen 450-630MB/s übertragen, wenn er nicht durch die schnarch langsame 1GB Lan Schnittstelle beschränkt wäre.

Ein 10Gbit Switch für den "Hausgebrauch" kostet um die 400€ und wem 2 Ports ausreichen ist sogar unter 200€ dabei.

Das mag viel Geld sein, wer allerdings mal >5TB mal zwischendurch auf ein NAS sichern will und dafür statt 13h+ nur noch etwas mehr als eine Stunde benötigt, weiß den Unterschied schnell zu schätzen.

WD100EFAX ist ne 350€ Festplatte - ich glaube du überschätzt den Markt hier ein wenig. 98% der User hier eiert noch mit seiner Fritzbox oder nem Speedport rum und nutzt WLAN Standard N.

Ausserdem gehts hier um Synologys und QNAPs mit 2 Platten. Raid 5 is da nich.

Wenn du also deinen Kram aufbauen willst aus 400€ Switch + 700€ NAS + 4x 350€ Festplatten + was weiß ich noch alles..... DANN BIST DU KLAR DIE AUSNAHME ! 2%

Kosten / Nutzen !

Wen interessierts ob mein NAS in der Nacht 8 Stunden sichert?? Schonmal was von inkrementellen Backups gehört?
Durch Backupsystem wie Acronis wird eh die Geschwindigkeit gedrosselt (Komprimierung etc.) Da ist der Backupprozess der Flaschenhals. Auch mit Robocopy bisste bei vielen kleinen Files im Limit des Storages - etliche andere Flaschenhälse.
1GBE wird uns leider noch lange begleiten.
 
McPole schrieb:
WD100EFAX ist ne 350€ Festplatte

Selbst die WD40EFRX schafft 150MB/s kosten 120€ und wird von Netzwerkschnittstelle ausgebremst.

Wie ich bereits in diesem Thread geschrieben habe, kann das vorgestellte QNAP NAS mit 10 Platten und 2 SSDs umgehen und auch das 4 Plattensystem QNAP TS‑453B kostet derzeit 660€.

Es soll Leute geben die alle 2 Jahre mehr für eine Grafikkarte ausgeben.
 
Zuletzt bearbeitet:
xexex schrieb:
Selbst die WD40EFRX schafft 150MB/s kosten 120€ und wird von Netzwerkschnittstelle ausgebremst.

Das sind Herrstellerangaben unter Optimalbedingungen. Mach den Praxistest !
Versuch doch mal viele kleine Daten zu kopieren oder eine Sicherung anzulegen und schau mal was da an Daten über die Leitung geht.
Deine Einschätzung ist hier total falsch.
 
McPole schrieb:
Mach den Praxistest

WD RED
seq_read-wd-red.png


WD RED Pro
seq_read-wd-red-pro.png


https://www.anandtech.com/show/9606/wd-red-pro-6-tb-review-a-nas-hdd-for-the-performance-conscious/3

Und kommt mit jetzt bitte nicht mit Random Read/Write. Bei einer Datensicherung sind die Werte irrelevant.

Ich habe auch nie gesagt, dass jeder unbedingt 10GB Ethernet braucht. Allerdings dürfte für >90% der Anwender 10GB Ethernet nützlicher sein, als jedes Jahr eine noch schnellere USB oder Thunderbolt Schnittstelle.
 
Zuletzt bearbeitet:
xexex schrieb:
https://www.anandtech.com/show/9606/wd-red-pro-6-tb-review-a-nas-hdd-for-the-performance-conscious/3

Und kommt mit jetzt bitte nicht mit Random Read/Write. Bei einer Datensicherung sind die Werte irrelevant.

Ich habe auch nie gesagt, dass jeder unbedingt 10GB Ethernet braucht. Allerdings dürfte für >90% der Anwender 10GB Ethernet nützlicher sein, als jedes Jahr eine noch schnellere USB oder Thunderbolt Schnittstelle.

Wir reden von Praxis Tests und du postest Benchmarks wo Daten lokal von A nach B geschoben werden und nicht übers Netzwerk????

o mann..... ich lass es sein. du hast gewonnen
 
McPole schrieb:
Wir reden von Praxis Tests und du postest Benchmarks wo Daten lokal von A nach B geschoben werden und nicht übers Netzwerk????

Heeee? Wenn eine Festplatte 200MB/s in einem PC schafft, dann schafft sie auch im NAS 200MB/s, außer sie wird durch eine arschlangsame 1GB Netzwerkschnittstelle oder einen langsamen NAS Prozessor ausgebremst.

Wie bereits verlinkt schafft das vorgestellte NAS System >600Mbit Durchsatz. Bleibt also das lahme 1GB Ethernet als Flaschenhals.
TS-453B_10GbE_02.png


Es geht hier nicht um gewinnen, sondern um die Tatsache, dass selbst mit einer einzigen gängigen WD RED Festplatte und einem Mittelklasse NAS 1GB Ethernet der Flaschenhals ist. Mit SSDs, RAID0, 5 oder 10 wird das ganze dann erst recht lächerlich.

An 10GB Ethernet ist also gar nichts Overkill, wenn man ein halbwegs aktuelles NAS System mit halbwegs aktuellen Platten mit betreiben will. Wer kein Wert auf die Geschwindigkeit legt, der kann sich auch für den Bruchteil des Preises ein TS-231P kaufen.

600€ für ein NAS System zur Dateiablage oder Sicherungszwecken auszugeben, um es dann mit 1GBE zu betreiben, ist wie einen Sportwagen mit angezogener Handbremse zu fahren. Das vorgestellte NAS System macht also nur Sinn, wenn man es wegen der diversen Zusatzfeatures beschafft.
 
Zuletzt bearbeitet:
Kenneth Coldy schrieb:
Zunächst möchte ich Dich mal bitten Deinen Tonfall zu mäßigen.

Richtig. Und nach Abzug des Overhead erhält man rund 10 Gbit Nutzdatenrate.

Genau deswegen mein Post. Wie auch beim von dir falsch korrigierten Weyoun ergänzt oder korrigierst du nun meine korrekte Aussage mit nicht unkorrekten, aber unvollständigen Informationen. Weyoun schreibt korrekterweise, dass PCIe2.0 x2 eine theoretische Nettobandbreite von 1GB/s hat, du meinst, dass sei falsch, es seien 2x5=10Gb/s, was nicht falsch ist, aber bei 8b/10b-Kodierung nunmal nicht 1,25, sondern 1GB/s entspricht. 10Gbit/s erhält man nicht nach, sondern vor Abzug des Overheads, daraus werden 8Gb/s netto oder eben 1GB/s.

10GbE ist hier nicht das Problem, das alleine kann per PCIe2.0x2 ausreichend schnell angebunden werden. Weyoun mit seiner Behauptung, die Ethernetbandbreite würde sich der PCIe-Bandbreite anpassen, sei nur mal an GbE über PCI erinnert - deutlich schneller als FE, aber tatsächlich ein ganzes Stück entfernt von GbE über PCIe x1. So sähe es auch mit 10GbE über PCIe2.0/3.0 aus, da wäre immernoch soviel drin, wie die PCIe-Lane hergibt, bei PCIe3.0x1 trotz nominell nur 8GbE netto wahrscheinlich fast 1GB/s.

Das Problem sind QM2-KArten mit 2xM.2 NVMe bzw. die DS918+ mit 2xM.2 NVMe, aber nur 2 PCIe Lanes. Da kann ein M.2-SSD maximal 1GB/s erreichen, bzw. zwei maximal 500MB/s. Das reicht für einen Systembeschleuniger, man sollte aber eher eine Intel 600p als eine Samsung 960 Evo einsetzen. Der Sinn von zwei Slots erschliesst sich mir in beiden Fällen garnicht. Wenn jetzt noch 10GbE und eine SSD gleichzeitig laufen, dann wird es wirklich eng. Aber wie jemand hier im Thread schon sagte, das ist halt die Plattform. Wer mehr will braucht einen Atom-Server-SoC, einen Broadwell-DE-SoC oder ein Sockelbasiertes System zu entsprechendem Mehrpreis.

Shandriano schrieb:
Seid doch einmal Ehrlich zu einander, es ist Fakt das alle 3 Systeme ganz einfach mal zu Teuer sind für das was sie Bieten. Man kommt halt mit einem Selbstbau Nas System nicht nur Wesentlich günstiger bei weg sondern man hat auch viel mehr Möglichkeiten später das ganze zu Erweitern und das ist nun einmal Fakt. Die Installation beim Selbstbau bekommt selbst jeder Laie hin, also zählt dieses Argument nicht. Des weiteren erschließt sich mir der Sinn nicht wirklich warum ein 2 Bay NAS eine Link Aggregation können müsste denn hierfür müsste auch ein entsprechendes Stück Hardware an Switch auch die Link Aggregation unterstützen und es müssten mindestens 5 Clients und mehr gleichzeitig auf das Nas zugreifen damit die Link AG überhaupt Sinn ergibt und das ist meistens bei einem 2-Bay NAS nicht der Fall.

Mein Tipp für alle die sich ein NAS zu legen möchten:
Kauft euch gleich ein NAS mit mindestens 4-Bay oder mehr steigt auf Selbstbau um, euer Geldbeutel wird es euch danken.
Als ich mal im falschen Forum eine Kaufberatung zu 4-bay NAS wollte verweigerte man mir auch vehement jede Äußerung zu Fertiggeräten und wollte mich vom Eigenbau oder HP-Server bekehren. Blödsinn. Wenn man nur irgendein Gerät will, aus dem man möglichst billig ein NAS machen kann, dann mag das stimmen, aber wenn man ein möglichst kompaktes, leises, stromsparendes NAS mit weiteren Funktionen haben möchte und als Laie sofort loslegen will, dann nimmt man besser ein fertiges.
Das fängt schon bei den Mainboards un Gehäusen an. 2-4xGbE onboard, 4xSATA mit ordentlichem Controller und ein PCIe x2 wie hier kriegst du auf keinem bezahlbaren ITX-Board mit SoC, da musst du schon eines mit Sockel nehmen und das ist dann gleich wieder ne Nummer größer und brauch einen ordentlichen Kühler usw. Gehäuse kann man zu bezahlbaren Preisen auch nur ITX-Cubes usw. nehmen, die selten für NAS gedacht sind.

Weyoun schrieb:
Und wie passt dann bitte eine PCIe2 x4 Karte (die Zusatzkarte von QNAP hat einen x4-Anschluss) in einen PCIe2 x2 Slot?
Also wenn du nichtmal daran denken kannst, dass üblicherweise x4 oder x16-Slots für alles über x1 genutzt werden und die 453B natürlich so einen haben wird, was man ja auch daran sieht, dass die für dieses NAS beworbenen QM2-Karten PCIe2.0x4 haben, dann solltest du Dinge nicht so vehement abstreiten.

xexex schrieb:
Selbst 10GB Ethernet ist im Privathaushalt heute zu wenig, weshalb einige NAS Systeme auch eine TB3 Schnittstelle haben. Ein NAS dürfte in vielen Haushalten zur Datensicherung dienen, bei heutigen Festplattengrössen von bis zu 12TB, will doch niemand mehr die Daten über eine Gigabit Ethernet Verbindung quetschen.

Da muss ich McPole zustimmen, das ist an der Realität vorbei. 10GbE wird in Privathaushalten noch lange kein Thema sein, es kommt jetzt erst durch neue Switches und Adapter mit NBASE-T in Regionen, wo technikaffine Laien und nicht nur Berufs-ITler darüber nachdenken können, es zu nutzen, aber man sollte auch dann wissen, welchen Nutzen man daraus zieht.

Ja, es stimmt, GbE bremmst aktuelle Festplatten aus, im NAS im RAID5 oder 0+1 erst recht. Benchmarks von Einzelfestplatten sind als Beleg aber nur wenig geeignet. Du siehst, dass die 6TB RED nur knap 130MB/s im Durchschnitt schafft, die größere knapp 180MB/s. Das sind 20-60MB/s, die dir im Idealfall verloren gehen. Allerdings rreichen die Plattenin vielen Szenarien nur deutlich niedrigere Transferraten. Und wer nicht täglich stundenlang riesige Dateimengen verschiebt, der merkt den Unterschied nicht.
Aber schon mit 2.5GbE oder 5GbE wäre das nicht mehr der Fall, 10Gb/s sind nicht nötig, nur ist eben NBASE-T leider nicht dafür gedacht, Adapter und Switches günstiger zu machen. Adapter kosteten bisher noch an die 200€, jetzt gibt es langsam die ersten für unter 150€, bei Switches gibt es nur eine Handvoll, die unter 500€ kosten und gerademal eins unter 200€. Und das ist immernoch das Vierfache von dem, was den meisten ein Switch wert sein dürfte.
Insofern fände ich es sinnvoller, wenn SMB Multichannel mal bei NAS funktionieren würde.
 
Zuletzt bearbeitet:
user2357 schrieb:
Das dachte ich mir auch. Ändert aber nichts daran, dass die Link-Geschwindigkeit von den beiden verbundenen Endpunkten abhängt und nicht von etwaiger Hardware dahinter.
Es geht mir aber um die Hardware davor.;) Also um die Lanes des Media Independent Interface (MII) zwischen µC und PHY (realisiert via PCIe-Lanes). Bei 100 MBit Automotive Ethernet nach BroadR-Reach sieht es so aus: Aus (angenommen) vier Datenleitungen, die per Quarz mit exakt 25 MHz getaktet werden und in den PHY reingehen, müssen im selber PHY in drei Zwischenschritten, sogenannte "Übersetzungsschritte", auf 100 MBit auf ein Kupferader-Paar (fullduplex und rein differentiell) umgesetzt werden. Wenn jetzt die MII-leitungen z.B. nur noch mit 12,5 MHz getaktet werden, kann unmöglich am Ende des PHY 100 MBit/s bidirektional rauskommen, weil dann folgende Umsetzungen schiefgehen: MII => PCS => PAM-3 => PMD
user2357 schrieb:
In deiner ursprünglichen Argumentation ging es darum, dass die Bandbreite der Verbindung auf 5 oder 2,5 GBit/s heruntergeregelt wird, weil die PCIe-Anbindung des Netzwerkchips nicht die vollen 10 GBit/s hergeben würde. Das dürfte aber nicht so sein.
PCIe 2.0 x2 => pro Lane 500 MByte/s => bei 2 Lanes 1.000 MByte/s oder 1 GByte/s = 8 GBit/s NETTO! Ich weiß nicht, wie manche hier auf angeblich 10 Gbit/s kommen wollen...
Da PCIe 2.0 zudem noch recht uneffizient codiert ist (8b10b), kommen auf 8 Nutz-Bits 2 Bits für die Fehlerkorrektur. Man mus also noch einmal 25 % von den 8 Gbit/s abziehen. Es bleibt am Ende 6,4 GBit/s BRUTTO übrig (rein auf Layer-1-Ebene). Hier muss nun noch zusätzlich der Protokoll-Overhead der höheren OSI-Layer abgezogen werden. Wie viele Prozent das en detail sind, weiß ehrlich gesagt nicht.
 
Tigerfox schrieb:
Aber schon mit 2.5GbE oder 5GbE wäre das nicht mehr der Fall, 10Gb/s sind nicht nötig, nur ist eben NBASE-T leider nicht dafür gedacht, Adapter und Switches günstiger zu machen.
Insofern fände ich es sinnvoller, wenn SMB Multichannel mal bei NAS funktionieren würde.

NBASE-T ist nichts halbes und nichts ganzes. Es ist einzig aus dem Not entstanden, um schnelle WLAN APs mit voller Geschwindigkeit und PoE an das LAN anzuschließen.

SMB Multichannel kannst du vergessen. Es funktioniert nur unter Serverbetriebssystemen auf Windows Basis. Mit Windows 10 hat Microsoft die Unterstützung herausgenommen.
 
xexex schrieb:
Auf Layer 1 hängt ein PHY mit 8 Adern am Switch und kann somit 10Gbit mit dieser Gegenstelle aushandeln. Mit wie vielen Leitungen er an der CPU hängt hat keinen Einfluss auf diese Seite der Verbindung.
Soweit richtig.
xexex schrieb:
Auf der CPU Seite hängt der Chip dann mit 4 Datenleitungen an der CPU und kann pro Adernpaar mit 500MB/s mit der CPU Daten austauschen. Hier ist es ebenfalls egal mit welcher Geschwindigkeit der Netzwerkchip am Switch hängt.
Nö, der PHY hängt anscheinend nur mit 2 Leitungen à 500 MByte/s (realisiert via PCIe 2.0) am Media Independent Interface...
Ergänzung ()

xexex schrieb:
Im PC befinden sich heutzutage häufig mehrere PCIe x16 Slots die elektrisch nur mit 8x, 4x oder gar 1x an die CPU angebunden sind. Manche Slots haben am Ende einen Schlitz, damit längere Karten passen.
OK, das leuchtet ein: x1-Karten in X16 Slots war ja schon immer möglich, aber x16-Karte im x1-Slot war mir bisher nicht geläufig. Mechanisch also dadurch gelöst, dass rechts einfach der "Steg" weggelassen wurde. Gut zu wissen.
 
Weyoun schrieb:
Nö, der PHY hängt anscheinend nur mit 2 Leitungen à 500 MByte/s (realisiert via PCIe 2.0) am Media Independent Interface...

Zwei ADERNPAARE. Macht vier Datenleitungen + der sonst benötigte PCIe Kram.
 
Frank schrieb:
Zum Thema Virtualisierung...
Vielen Dank für die Info. Natürlich kann man sich solche Infos auch via Google selbst besorgen. Allerdings würde ich den Fokus in NAS-Tests genau auf etwas wie Virtualisierung, Hardwareverschlüsselung, RAM-Erweiterbarkeit und ECC, Data Degration, Btrfs, usw. verschieben. Die Übertragungsraten sind aktuell weniger interessant, da irgendwie jedes NAS Gigabit ausreizt und kaum jemand 10 GBit nutzt.

McPole schrieb:
...und nicht übers Netzwerk...
Eine WD30EFRX, also WD Red mit 3 TB in einer DS114 reizt Gigabit voll aus. Wenn z.B. Veeam ein Backup raufschiebt, zeigt der Windows Task-Manager über 900 MBit. Ich gehe allerdings davon aus, dass die WD Red mit 10 GBit auch nicht viel mehr schafft, ich rate mal so 1,2 GBit.
PS: Ich musste das SMB Protokoll in der Diskstation auf mindestens SMB 2 setzen. Bei SMB 1 kam das Netzlaufwerk nicht über 500 MBit.
 
xexex schrieb:
Zwei ADERNPAARE. Macht vier Datenleitungen + der sonst benötigte PCIe Kram.
???
Zur Datenübertragung bei PCIe 2.0 x2 gibt es vier Signal- und vier Masseleitungen für die beiden Lanes:
Lane 0: Pin 14 = transmit + / Pin 15 = transmit - / Pin 16 = receive + / Pin 17 = receive -
Lane 1: Pin 19 = transmit + / Pin 20 = transmit - / Pin 21 = receive + / Pin 22 = receive -
Dennoch sind es am Ende nur 2 Lanes, die je 500 MByte/s fullduplex übertragen können, was in Summe 1 GByte/s = 8 GBit/s Brutto macht.
 
Zurück
Oben