Externe Festplatte >2TB an WHS V1

rchr

Lt. Commander
Dabei seit
Okt. 2006
Beiträge
1.291
Hallo zusammen,

Ich habe einen Windows Home Server V1 (also die alte Generation). Im WHS habe ich insgesamt Festplatten mit etwas über 10TB Speicherplatz installiert.
Den gesamten WHS-Speicher sichere ich einmal pro Woche über die "Server-Sichern" Funktion auf externe Festplatten. Das Problem ist, dass ich dabei jeweils ein komplettes Share auf eine Festplatte speichern muss und dass die Shares langsam grösser als 2 TB werden, so dass eine "normale" externe Festplatte nicht mehr ausreicht.

Hat hier jemand Erfahrung mit externen Festplatten über 2TB am WHS V1?

Ich dachte zwar an eine Lösung wie z.B. das Lian-Li EX503, aber so wie ich das sehe, spielt es keine Rolle, ob ich ein Lian-Li EX503 oder eine externe 3TB-Harddisk anschliesse, oder?
Der Server sollte beide Möglichkeiten gleich behandeln...

Also wird eine externe Festplatte (resp. eben so ein Lian-Li EX503) mit über 2TB unterstützt? Braucht es spezielle Treiber (habe mal so etwas gelesen...)?

Vielen Dank und liebe Grüsse

Christoph
Ergänzung ()

Hm...hat denn hier wirklich niemand einen Windows Home Server und mal irgend eine 3TB-Platte angehägt um darauf die Daten zu sichern??
 

HighTech-Freak

Commodore
Dabei seit
Juli 2005
Beiträge
4.861
Ich weiß nicht genau, wie sich WHS verhält, aber >2TB-Platten erfordern eine GPT-Partition. Diese werden ab Windows XP 64bit unterstützt. Da der WHS auf auf dem Server 2k7-Kernel basiert, soweit ich weiß, sollte das eigentlich kein Problem sein...

MfG, THomas
 

rchr

Lt. Commander
Ersteller dieses Themas
Dabei seit
Okt. 2006
Beiträge
1.291
Hi Thomas,

Endlich erbarmt sich mal einer ;)

Hm...Windows 2k7? Habe ich ehrlich gesagt noch nicht gehört in diesem Zusammenhang.
Der "klassische" WHS (V1) basiert auf Windows Server 2k3 SP2. Der neue 2011er WHS basiert auf Windows Server 2k8.

Ich habe inzwischen allerdings im Netz einen Bericht gefunden, wonach der WHS V1 wohl Platten über 2TB ansprechen können soll.
Ein User hat dort berichtet, er hätte eine 3 TB Platte angehängt, diese initialisiert, zuerst mit NTFS formatiert, dann hatte er 2,2TB zur Verfügung, dann konnte er über die Datenträgerverwaltung den Befehl "in GPT umwandeln" benutzen und anschliessend hatte er die volle Kapazität. Diese Festplatte konnte er jedoch nur zum Sichern der auf dem Server gespeicherten Daten verwenden und nicht als Storage-Pool-Platte. Aber das spielt auch keine Rolle, denn ich will das Teil ja genau dazu benutzen, die Dateien zu sichern (als externes Backup) und nicht in den Storage-Pool integrieren.

Gruss

Christoph
 

Johannes66

Lt. Junior Grade
Dabei seit
Nov. 2009
Beiträge
508
Ich kann Dir zwar zu Deinem Problem nichts sagen, aber eine Alternative Idee anbieten.

Ich sichere mein Nas mit ca. 10TB auf ein Fantec QB-X8US3, USB 3.0/eSATA mit 7x2TB Platten. Das Teil ist entweder über USB 3.0 oder ESata mit Port Multiplier anschließbar.
Da auf meinem Nas auch ein Teil mit über 2TB ist, habe ich bei FreeFileSync im Filter einfach eine Alphabetische Aufteilung vorgenommen. "0-H" "I-Q" "R-Z" Diese 3 Teile werden jetzt in einem Job nacheinander auf drei Platten im Fantec gesichert. Dadurch bist Du von der externen Plattengröße unabhängig.
Du kannst Deine Share Namen auch auf den externen Platten so bennen wie sie sind. Dadurch wird ein Rücksichern einfach und sicher.

Wenn Du schneller sichern willst, kannst Du Dir mit zB Pathsync (oder natürlich auch mit FreeFileSync) auch für jede externe Platte im Fantec oder auch auf USB ohne Fantec, eine eigene Inztanz fürs sichern pro Platte mit dem Filter einrichten. Das geht dann schneller, weil alle paralell laufen.

Die Methode macht Dich unabhängig von den externen Plattengrößen, und ist für mich (nach langem Überlegen) die Einfachste und beste Methode auf die ich gekommen bin.
 

rchr

Lt. Commander
Ersteller dieses Themas
Dabei seit
Okt. 2006
Beiträge
1.291
Hallo Johannes,

Vielen Dank für die Ausführlichen Infos und den Tipp!

Früher, als ich noch ein "einfaches" NAS hatte, habe ich das jeweils auch genau so gemacht.
Inzwischen habe ich aber eben den Windows Home Server. Da ist das ganze etwas "komplizierter" (resp. eigentlich "einfacher" aber eben...).

Also der Windows Home Server bietet in seiner Konsole eine Funktion an, um die Daten automatisch zu sichern. Man muss sich dann um absolut nichts kümmern, also keine Share- oder Ordnernamen, Speicherort, etc. Der Server erledigt das alles und sichert die Daten auf externe Platten.
Das Doofe ist halt, dass man nur "Share-weise" sichern kann, also es muss immer ein komplettes Share aufs Mal gesichert werden. Ein Share ist innerhalb des Servers halt eben auch nicht auf eine Platte beschränkt, sondern über mehrere Platten hinweg verteilt und das ganze auch noch dynamisch, also der Server sortiert die Daten immer mal wieder zwischen den Platten hin und her. Damit soll erreicht werden, dass Daten, die häufig gemeinsam abgerufen werden, sich auf verschiedenen Platten befinden und daher gleichzeitig eingelesen werden können, so dass es schneller geht.

Typisches Beispiel: ich habe all meine Installationsdatenträger auf den Server kopiert. Nicht als Images, sondern so, wie sie auf der CD oder DVD liegen. So kann ich einfach vom Server aus installieren und muss keine CD einlegen. Jetzt habe ich z.B. die Office-CD in einen Ordner kopiert. Wenn ich jetzt schaue, wo sich die Daten befinden, liegen die wild verstreut über 6 Festplatten. Also zum einen sind die Daten über 3 Platen verstreut (damit eben von 3 Platten gleichzeitig gelesen werden kann, wenn ich die Installation starte) und zum anderen sind die Daten auch immer noch redundant gespiegelt, wobei es sich bei der Spiegelung nicht um ein eigentliches RAID handelt, sondern auch hier die Daten einfach auf verschiedene Platten (für den einfachen User "chaotisch" oder "ziellos") zerstreut werden.

Wenn man den ganzen Beschreibungen von M$ glauben darf, geht es darum, eben möglichst gute Transferraten zu erzielen, aber auch möglichst hohe Datensicherheit, so dass Daten, die auf einer älteren oder schwächelnden Platte liegen auch automatisch auf einer zweiten, "gesünderen" liegen, falls es zum Ausfall kommen sollte.

Wenn ich jetzt aber so ein Share, das auf dem Server also über 6 Festplatten zerstreut liegt, extern sichern will, sammelt die Sicherungsfunktion des Servers all diese Daten zusammen und speichert sie in einfacher Form auf eine einzelne externe Festplatte. Somit benötige ich am Schluss wesentlich weniger Speicherplatz für die Sicherung, als auf dem Server für die gleichen Daten benötigt wird.

Wenn ich das jetzt so mache, wie du es vorschlägst, würde das in meinem Fall nicht wirklich funktionieren. Zum einen bräuchte ich viel mehr Speicherplatz extern als momentan. Und zum anderen wären die Daten praktisch nicht wiederherstellbar. Stell dir mal vor, eine Datei liegt heute auf Festplatte 1. Festplatte 0 ist das Systemlaufwerk. Ich sichere also heute Platte 1 nach extern mit deiner Methode. Morgen entscheidet der Server, dass 400 Dateien von Festplatte 1 auf Festplatte 2 verschoben werden, macht das und merkt sich das entsprechend auf dem Systemlaufwerk im Index. Übermorgen fällt Festplatte 1 aus. Ich spiele die Daten zurück. Nun befinden sich aber die Daten am falschen Ort, resp. auf Platte 1 hat es nun Daten, die der Server dort gar nicht erwatet. Und gleichzeitig wurden vielleicht auch Daten von Platte 5 auf Platte 1 verschoben, die bei der Sicherung noch gar nicht auf Platte 1 lagen und daher auch nicht dort gesichert wurden....

Daher müsste ich also entweder eine Live-Sicherung machen (was ich eigentlich nicht will) oder eben eine andere Lösung finden, mit der ich die über 2 TB grossen Shares so sichern kann, wie der Server es vorsieht....

Liebe Grüsse

Christoph
 
Top