HDD Space erweitern ohne neuen Laufwerksbuchstaben...

wus

Lieutenant
Registriert
Okt. 2015
Beiträge
779
... und ohne die bestehenden Daten neu aufspielen zu müssen - geht das?

Meine Situation: die aktuelle HDD ist schon verdammt voll (nur noch 400 GB frei, von effektiv 9 TB). Platz für eine 2. HDD ist vorhanden, ich denke auch das Netzteil sollte die zusätzliche Belastung noch verkraften. Die HDD ist nur Datengrab, das System ist auf einer zusätzlichen SSD.

Ich möchte keinen zusätzlichen neuen Laufwerksbuchstaben. Muss ich also ein RAID aufbauen, oder gibt's da noch andere Alternativen?

Nach Möglichkeit würde ich auch gerne vermeiden, die Daten von der HDD komplett neu einspielen zu müssen, da das bei fast 9 TB ziemlich lange dauert.
 
wus schrieb:
Nach Möglichkeit würde ich auch gerne vermeiden, die Daten von der HDD komplett neu einspielen zu müssen, da das bei fast 9 TB ziemlich lange dauert.
Wenn du das mit DD machst und schließend das Dateisystem auf der neuen Platte entsprechend vergrößerst, geht das von der Geschwindigkeit her.
 
Danke für den Tipp, @whats4, das wusste ich noch nicht (was nicht viel heißt ... )

Meine HDD ist exFAT formatiert, der Artikel weist aber extra darauf hin
Wichtig ist, dass der Ordner leer ist und sich auf einer mit NTFS formatierten Partition befindet.

Geht es damit genau so?
 
hm, nein.
ntfs ist halt ein bissl potenter als irgendwelche fat-derivate.

mittels dem "convert" befehl in der cmd geht es nicht, das zu konvertieren, weil convert nur fat32 zu ntfs kann.

wohl findet sich im google was zum thema exfat zu ntfs, aber da ich etwas in der art nie ausprobiert habe, trau ich derartigen artikeln ned wirklich.
weil wenn dann nur mit backup, und in dem fall kann man ja gleich in ntfs formatieren.
 
Okay, danke. So ganz ideal wäre es für mich sowieso nicht gewesen, weil ich ganz gerne über eine (zumindest nach außen hin) homogene Kapazität verfügen möchte, die ich dann nach meinen Anforderungen - und nicht denen der zugrunde liegenden Hardware - in Ordner beliebiger Größe (auch Disk-übergreifend) aufteilen kann.
 
Es gäbe noch eine Möglichkeit. Ist eine Software-Lösung. Entweder DriveBender, oder Stablebit DrivePool. Letzteres habe ich im Einsatz. Die Lizenz kostet halt etwas, ist aber jetzt finde ich nicht teuer, glaube irgendwas ca. 30 Euro.

Die Laufwerke bleiben im Prinzip Einzellaufwerke, aber es wird ein neues virtuelles Laufwerk erstellt, das den Platz aller zur Verfügung stellt und die Verzeichniseinträge zusammenführt. Diesem virtuellen Laufwerk kann man natürlich den Buchstaben des alten Einzellaufwerks zuweisen, und die eigentlichen Einzellaufwerke erhalten keinen zugewiesenen Buchstaben mehr.

DrivePool

Der Vorteil ist: Die Einzellaufwerke als solche und die Dateien darauf bleiben einzeln ansprechbar wenn es darauf ankommt. Und man kann Platten auf denen bereits Daten sind in den Pool integrieren. Man muss danach nur das Verzeichnis mit den Daten im Einzellaufwerk in das Poolverzeichnis verschieben. Danch kann man den Buchstaben des EInzellaufwerks ausblenden.

Ich selbst habe damit in einem PC sechs Laufwerke unterschiedlicher Größe zusammengefasst. Man kann damit sogar sowas wie Redundanz konfigurieren. Habe ich aber noch nicht versucht, weils für meine Zwecke nicht relevant ist. Aber als etwas flexiblere JBOD-Lösung ist das ausgesprochen brauchbar, da man auch jederzeit Platten entfernen, tauschen, und hinzufügen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: konkretor
Also, wenn Dir die randvollen 9 TB wichtig sind, hast Du sicherlich ein Backup. Die Daten aus dem letzten Backup kannst Du doch an einem anderen PC/Laptop in Ruhe auf ne neue, größere Platte überspielen, wo dann mehr freier Platz übrig bleibt. Währenddessen kannst Du mit der 9 TB Platte ungestört weiter arbeiten.

Wenn Du kein Backup hast, sind die Daten auch nicht wichtig. Die Platte kann schließlich jederzeit kaputtgehen. Dann kannst Du Dir auch einfach eine größere Platte einbauen und von vorne bei 0 anfangen.

2 Platten per JBOD zu einem Volume zusammenfassen kann man machen. Dann verdoppelt sich aber die Ausfallwahrscheinlichkeit (zumal wenn eine Platte schon sehr alt ist). Dann ist halt im Zweifelsfall alles auf einmal futsch. Ein Backup braucht man also trotzdem.

Eh man so viel Krempel direkt auf dem PC hortet, würde Ich an Deiner Stelle mir einfach ein vernünftiges NAS hinstellen. Natürlich ebenfalls zzgl. Backup-Lösung.
 
tja, aber das ist die realität.

unglaublich viele user haben ned die spur eines backups.
weil halt backupplatten geld kosten.
und das reicht, um wieder besseres wissen zu agieren.

ähnlich wie bei netzteilen, wo die kohle ja auch vierfach umgedreht wird.
anders als bei graphikkarten, aber die machen schließlich fps.

glaub ned, daß sich das ändern jemals wird.

und strenggenommen sind die meisten daten sowieso ned wirklich wichtig.
persönlich wichtig, vielleicht, aber an sich? wohl kaum.

ich gehe sogar soweit, zu spekulieren, daß von unseren achsowichtigen daten in ein paar generationen prozentuell so gut wie nix mehr da sein wird.
erstens, weil das zeug schlicht niemanden interressiert, und zweitens weil unsere speichermedien recht kurzlebig sind.
und ned nur die, auch unsere formate, in denen wir speichern sind äußerst kurzlebig.

und das ist es halt.
information auf säurefreiem papier überdauert jahrhunderte, information auf einer tontafel mühelos jahrtausende. und in stein so gut wie beliebig lang.

das gedächtnis moderner technik hingegen ist was sehr kurzlebiges.
man versuche mal, die ersten "raw" dateien mit aktueller softwware zu laden. fehlanzeige.

ist auch klar, weil der beweggrund, moderne technik zu schaffen, ausschließlich die aktuelle bilanz ist.
 
@whats4 Langzeitarchivierung ist aber sowieso ein ganz anderes Thema als Backup. Weil hier noch viele weitere, von Dir teils auch angesprochene, Kriterien eine Rolle spielen. Dateiformate können sich ändern und müssen ggf. zwischenzeitlich und rechtzeitig konvertiert werden. Ebenso Dateisysteme. Ganz zu schweigen von Speichermedien und passenden Lesegeräten. Nicht umsonst werden viele Dokumente in der Tat noch auf Mikrofilm archiviert.

Ansonsten sehe ich es ebenfalls so, dass ein Verzicht auf Backups im Prinzip gar nicht in Frage kommt. Wenn Kosten hier so eine tragende Rolle spielen muss man eben selektieren, was wirklich wichtig ist. Darüber hinaus kann man das Thema Backup, was man wogegen, und wie weitreichend absichern will ausführen bis zur Paranoidität. Letztendlich wird es immer ein Kompromiss sein, zwischen der Sicherheit, die man erreichen will, und dem Geld, das man dafür investieren will (oder kann).
 
Wie ihr in meinem "Abspann" lesen könnt habe ich ein NAS. Eine Sync Software spiegelt laufend die Daten von der lokalen HDD im Rechner auf das NAS, so dass ich auch vom Laptop oder anderen Clients drauf zugreifen kann. Zusätzlich habe ich ein 2. NAS nur zum Backup des ersten. Und dann sichere ich die SSD des Rechners, auf der alle Programme sind und Daten, bei denen es (mir) auf höchste Zugriffsgeschwindigkeit ankommt, alle paar Wochen mal noch auf eine externe HDD. Ich bin kein IT Profi, aber ich habe eine Backup-Strategie... nicht zuletzt wegen der zahlreichen Beiträge zu diesem Thema hier auf CB! :daumen:

Ich habe die Beschreibungen (Werbung) von DriveBender und DrivePool durchgelesen. Danke @NobodysFool für diese Tipps!

Da gefällt mir Drivebender aus mehreren Gründen besser:

1. kann man SSDs mit integrieren und als superschnelle Landing Zone für zu importierende Daten wählen, die das Programm anschließend intern im Pool verteilt.

2. Dateiredundanz - DriveBender kann Dateien die im Pool landen auf 2 physikalischen Drives speichern.

3. Sogar NAS können in den Pool integriert werden - zusammen mit Punkt 2 denke ich sollte es möglich sein, dass neue (oder geänderte?) lokale Dateien automatisch auf das NAS gespiegelt werden.

Ich werde Division M anfragen ob ich das alles richtig sehe.
 
wus schrieb:
Sogar NAS können in den Pool integriert werden

Das ist keine gute Idee!! Du willst doch nicht ernsthaft dein Backup Netzlaufwerk in einen Windows Laufwerksverbund einbinden?
Abgesehen davon: Drive Bender ist wirklich cool :daumen: Hatte ich vor langer Zeit auch mal in Benutzung. Als Platten klein waren :lol:
Gibt sogar Anleitungen, wie man das mit Snapraid kombinieren kann um quasi ein "nicht Echtzeit RAID" zu basteln. Eigentlich eine coole Idee, wenn man weniger dynamische Daten hat.
 
@Fusionator Ob es eine gute Idee ist oder nicht würde ich damit hier gar nicht bewerten. Aber ich glaube gemeint ist das zweite NAS. Letzlich kommt es dann sowieso auf den konkreten Einsatz und die Voraussetzungen an. Aber es zeigt, wie flexibel Drive Bender hier einsetzbar ist. Mit Stablebit Drivepool geht das nämlich wiederum nicht.
 
Nicht das Backup NAS, sondern das Arbeits NAS soll in den Pool integriert werden. Das ist es gewissermaßen jetzt schon, da ich eine Dateifreigabe davon - die, mit der ich die Daten von der HDD im PC synchronisiere - als Netzlaufwerk in Windows eingebunden habe.
 
Ok, das mag vielleicht sogar Sinn ergeben bei entsprechender Konfiguration. Drive Bender lässt sich ja ziemlich flexibel konfigurieren, wenn ich mich recht erinnere. Du könntest ja wichtige Ordner gleich auf das NAS spiegeln lassen; quasi in Echtzeit :cool_alt:
 
wus schrieb:
Meine HDD ist exFAT formatiert, der Artikel weist aber extra darauf hin

Geht es damit genau so?

whats4 schrieb:
hm, nein.
ntfs ist halt ein bissl potenter als irgendwelche fat-derivate.

Kaum ein viertel Jahr später habe ich jetzt die 2. Platte in der Kiste :cool_alt: Die ist NTFS formatiert.

Im Moment kopiere ich gerade die Daten von der alten auf die neue Platte, damit ich die alte auch NTFS formatieren kann. Ich dachte intern geht das sicher am schnellsten ... aber die Datenübertragung dümpelt mit durchschnittlich 25 MB/s dahin, kommt oft sogar sekundenlang - manchmal viele Sekunden lang! - völlig zum Erliegen, so dass jetzt, fast ein Tag nach Start des Kopiervorgangs, noch nicht mal 30% des 5,7 TB großen Ordners, den ich gerade kopiere, übertragen sind.

Als ich nebenbei mal Fotos von der SD Karte auf's NAS-Laufwerk kopierte lief das mit ca. 90MB/s (der Maximalgeschwindigkeit der verwendeten SD Karte) - und anschließend lief auch der Transfer zwischen den beiden HDDs mit über 100 MB/s - nur leider nicht für lange.

Da ich nebenher fotografierte habe ich das mehrmals wiederholt, und der beschleunigende Effekt wiederholte sich jedesmal, hielt aber nie länger an.

Ist doch komisch, oder?

Mein System ist ein aktuelles Win 10 Pro
Motherboard MSI Z370 GAMING PRO CARBON (MS-7B45)
HDD1 (exFAT) WDC WD101KRYZ-01JPDB1
HDD2 (NTFS) ST8000AS0002-1NA17Z

Die HDDs habe ich nach Einbau der 2. Platte mit Crystaldiskinfo überprüft, sind beide gut.

Wie kriege ich das System dazu die mit der Hardware eigentlich möglichen 100 - 200 MB/s auszuschöpfen?
 
wus schrieb:
Im Moment kopiere ich gerade die Daten von der alten auf die neue Platte, damit ich die alte auch NTFS formatieren kann. Ich dachte intern geht das sicher am schnellsten ... aber die Datenübertragung dümpelt mit durchschnittlich 25 MB/s dahin, kommt oft sogar sekundenlang - manchmal viele Sekunden lang! - völlig zum Erliegen, so dass jetzt, fast ein Tag nach Start des Kopiervorgangs, noch nicht mal 30% des 5,7 TB großen Ordners, den ich gerade kopiere, übertragen sind.
Jetzt kennst du die Auswirkungen von SMR ;)
Manche meinen ja trotzdem, das wäre gar nicht so schlimm :stock:

wus schrieb:
Wie kriege ich das System dazu die mit der Hardware eigentlich möglichen 100 - 200 MB/s auszuschöpfen?

Anständige CMR Platte kaufen und es flutscht :daumen:
 
Und kannst Du mir auch erklären, wieso der Kopiervorgang durch einen anderen Kopiervorgang beschleunigt wird - zumindest kurzzeitig - obwohl das von SD Karte auf ein Netzwerklaufwerk ging und somit eigentlich nichts mit dem Transfer von der einen auf die andere HDD zu tun hat?
 
Zurück
Oben