Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Mir geistert eine Idee durch den Kopf, die damit zu tun hat, dass immer mehr (kostenfreie) Onlinespeicherangebote zu finden sind.
Ganz egal, wie die Sicherheit solcher Dienste auch eingestellt sein mag, so besteht dennoch die Möglichkeit, dass diese ggf gehackt werden.
Wie wäre es nun, wenn man die Daten in Form eines Raids in mehreren UNTERSCHIEDLICHEN Onlinespeichern ablegen würde? Mit der Redundanz des Raid hätte man dann die Daten auch dann noch, wenn einer dieser Dienste mal ausfallen sollte. Und da auf jedem Ziel lediglich Teile einer jeden Datei abgelegt wird, könnte jemand, der diesen Dienst hackt, damit auch nichts anfangen.
Ist so ein Modell schon mal angedacht worden oder gibt es vielleicht bereits ein ähnliches Projekt?
Falls nicht: was spräche dagegen?
Kannst du doch auch selber realisieren, nimmste deine Daten machst ein rar archiv draus was auf 10 files aufgesplittet wird und lädst jede Datei woanders hoch
Z.B. mehr Traffic, denn jede Datei müsste separat auf jeden Hoster geladen werden.
BLACKDIAMONT schrieb:
Kannst du doch auch selber realisieren, nimmste deine Daten machst ein rar archiv draus was auf 10 files aufgesplittet wird und lädst jede Datei woanders hoch
Wenn du eine Datei splittest und sie zu verschiedenen Anbietern hoch lädst kann
1. keiner der Anbieter mit den Daten etwas Anfangen (außer sie kooperieren).
2. fällt ein Anbieter aus, ist die komplette Datei futsch, außer du lädst jeden Teil mehrfach hoch (oder nutzt die Redunanzfunktion von Winrar).
Geht ist dir jetzt eigentlich um das kostenlose, oder um die Sicherheit?
1. könnte man bspw. mit nem Raspberry lösen (von den Initialkosten mal abgesehen)
2. 1) Wenn es dir um die Sicherheit vor Verlust der Daten geht: Die Daten sind auf einem Server und auf deinem PC (außer du synchronisierst nicht..) -> Redunanz
2. 2) Wenn es dir um die Sicherheit vor Ausbetonierung o.Ä. geht: siehe 1. oder ein vServer.
Das interessiert mich aber nicht.
Ich hab einfach keine Lust, den Anbietern eines Dienstes zu vertrauen, dass er alles so macht wie er das verspricht. Es ist mir völlig egal, was er mit meinen Dateien anstellt, weil ich SELBER für deren Sicherheit sorge.
Ich will lediglich, dass ich Dateien dort abgebe und sie wieder bekomme.
Ich hab nicht vor, mich jedes mal, wenn ein solcher Dienst seine Tätigkeit einstellt, einen neuen zu suchen, dem ich nun vertrauen will.
Stattdessen will ich eine Liste von vorhandenen Diensten, die frei zugänglich sind, nutzen - und zwar automatisiert, ohne dass ich mir Gedanken darüber machen muss, auf welche Dienste meine Datei verteilt ist.
Ich verstehe nicht, was daran so schwer zu verstehen sein sollte.
CMA
Ergänzung ()
Bagbag schrieb:
Wenn du eine Datei splittest und sie zu verschiedenen Anbietern hoch lädst kann
1. keiner der Anbieter mit den Daten etwas Anfangen (außer sie kooperieren).
Genau deshalb hätte ich gern ein Programm, das mit über eine Art RAID-Software die Daten als Laufwerk zur Verfügung stellt.
Im Explorer wird ein zusätzliches Laufwerk angezeigt (oder man bindet es als Verzeichnis in ein bestehendes Laufwerk irgendwo ein - ist völlig egal wie genau das passiert).
Angezeigt wird der Inhalt des Verzeichnisses - genau so wie jedes andere Verzeichnis auch.
Ich schiebe Dateien dort rein oder hol welche raus - ich mach damit genau das gleiche, wie mit jedem anderen Verzeichnis.
Im Hintergrund läuft ein Treiber, der ein logisches RAID konfiguriert hat. Die Datenträger, auf denen dieses RAID liegt, sind jedoch nicht lokal, sondern sind eine Liste von Diensten, die kostenfreien Internetspeicherplatz zur Verfügung stellen.
Der Sinn des RAID besteht darin, die Daten redundant im Netz zu verteilen. Wenn man ein Server ausfällt, hat ein anderer Server sie immer noch. Aber niemand kann mit den Daten auf EINEM Server etwas anfangen, da überall lediglich Fragmente abgelegt werden und NUR der logische RAID-Treiber weiß, wie diese Fragmente zusammen das Verzeichnis mit Inhalt bilden. Es soll so sein, dass möglichst viele Dienste genutzt werden, damit die Dateien möglichst oft redundant gesplittet werden - jedoch niemals in gleicher Weise. ALLE Dateien sind unterschiedlich, aber zur Vervollständigung benötige ich lediglich ein paar davon.
Jedes mal, wenn eine Änderung stattfindet, wird der aktuelle Stand markiert - und in beliebigen Intervallen werden nach und nach alle anderen Fragmente nachgezogen. So vermeidet man, dass die Internetaktivität nachvollzogen werden und die Anzahl Namen der verwendeten Dienste analysiert werden können.
Wenn ein Dienst längere Zeit ausfällt, wird er einfach aus der Konfiguration entfernt. Taucht ein neuer auf, werden die entsprechenden Daten zur Konfiguration hinzugefügt und die Logik des Treibers baut ihn in die Aktivitäten ein.
(allerdings zunächst testweise, bis man die Funktion eine Weile durch Gegenkontrollen mit Testdateien prüfen konnte.)
Man könnte sogar ein paar Fakedateien auf diese Weise verteilen, die für den eigentlichen Datenbestand keine Bedeutung haben, die aber etwaige Decodierversuche ins leere laufen lassen.
Bagbag schrieb:
Geht ist dir jetzt eigentlich um das kostenlose, oder um die Sicherheit?
Es geht mir um das kostenlose - eben WEIL solche Dienste manchmal nach einer Weile aufhören und andere entstehen. Ich hab einfach keinen Bock, überall persönliche Daten zu hinterlassen, die zeigen, wo ich für welchen Dienst jeweils bezahlt habe.
Und wer soll das programmieren? Das ist wohl ein Haufen Aufwand. Vor allem dann ein Webinterface, App für Android, iOS, WP...
Ein einfaches Programm für die Verteilung zu machen wird wohl nicht soo arg aufwendig.
Und mir ist nicht bekannt, dass Dropbox oder Google Drive mal für längere Zeit down war. Auch glaube ich nicht, dass es das so bald sein wird.
Die Daten verschlüsseln ist ja einfach möglich, z.B. BoxCryptor.
Ab etwa 1€ bekommt man dann vServer oder zumindest webspace mit SSH-Zugriff, da ginge dann bspw. Seafile, BTSync und Owncloud.
Bei BTSync kann man super easy Redundanz herstellen.
Das einzige Problem ist da wohl der Speicherplatz bei diesem Preis. Bei Uberspace bspw. bekommt man man 10GB (1€).
Für etwas mehr dann schon deutlich mehr Speicherplatz. Bei MyVirtualserver (dort habe ich einen vServer) für 10€ 200 GB.
Du hast gefragt was dagegen spräche die antwort ist geld.
Zunächst einmal muss jeder neue cloudanbieter oder oneclickhost in das programm hinzugefügt werden. das ist programmierarbeit, da unterschiedliche APIs benutzt werden.
Zweitens untergräbst du mit deiner idee das geschäftsmodell der speicherplatzanbieter. Sobal das programm populär genug wird würden die Anbieter beginnen es zu blockieren. Du bist also darauf angewiesen, dass das Programm unbekannt bleibt.
Vielleicht gibt es z.b. in kriminellen kreisen bereits genau das programm was du dir vorstellst - aber wieso sollte es dir jemand geben?
Interessanter Link - allerdings wird damit eine Datei zu verschiedenen Hostern transportiert. Das, worum es mir geht, wird damit nicht unterstützt. Ich würde allerdings gern wissen, wie die Programmiertechnisch an die Sache rangehen.
CMA
Ergänzung ()
Freak12 schrieb:
natürlich hat das mit deiner frage zu tun.
Du hast gefragt was dagegen spräche die antwort ist geld.
Zunächst einmal muss jeder neue cloudanbieter oder oneclickhost in das programm hinzugefügt werden. das ist programmierarbeit, da unterschiedliche APIs benutzt werden.
Ok, das ist ein Argument - andererseits gibt es auch diverse freeware Downloadmanager, die das ebenso tun müssen, wenn ein neuer Hoster auf den Markt kommt - die tun das ja auch.
Freak12 schrieb:
Zweitens untergräbst du mit deiner idee das geschäftsmodell der speicherplatzanbieter.
Wie wollen sie das tun? Sie müßten dann auch alle anderen APIs blockieren - schliesslich passiert doch nichts anderes als dass Dateien gespeichert und runtergeladen werden - und genau das ist es doch, was diese Dienste anbieten.
Warum sollten sie etwas dagegen einwenden können, nur weil jemand Dateien auf eine bestimmte Weise vorher aufbereitet?
Freak12 schrieb:
Du bist also darauf angewiesen, dass das Programm unbekannt bleibt.
Keineswegs - um feststellen zu können, ob Dateien mit diesem Tool verteilt werden oder nicht, müßten die einzelnen Dienstanbieter anfangen, die Dateien ihrer Kunden inhaltlich zu prüfen - und das werden sie niemals tun, denn sonst würde niemand mehr ihren Dienst wollen.
Freak12 schrieb:
Vielleicht gibt es z.b. in kriminellen kreisen bereits genau das programm was du dir vorstellst - aber wieso sollte es dir jemand geben?
Der Dienst (Multiupload) funktioniert ganz einfach:
Du lädst eine Datei zu deren Server hoch, der lädt diese dann zu allen Anbieter die du ausgewählt hast hoch (die nutzen wohl einfach die APIs der Anbieter) und gibt dir die Links zurück.
Also keine Hexerei - sondern etwas ziemlich simples..
Der Grund weshalb die Programmiere von den OCH-Downloader das machen ist ganz einfach: Kohle durch Werbeeinnahmen (z.B. im Installer oder auch Werbung für die Premium-Funktionen der OCHs). Der Platzhirsch JDownloader bspw. wird zu ~90% von 5 Leuten programmiert und nicht wie die breite Masse wohl meint von einer großen Community - und diese bekommen dafür wohl reichlich Geld.
Denn das ist ein Haufen Aufwand alle - teilweise hunderte - Anbieter täglich auf Funktion zu prüfen sowie die API-Änderungen zu übernehmen - oder wenn sie keine API anbieten den HTTP-Verkehr des Browsers zu analysieren.
Eigentlich alle Anbieter die ich kenne (na gut, eig. nur Dropbox und Google Drive - aber die anderen werden es wohl auch so machen), nutzen API-Keys (ohne diese man nicht auf die API zugreifen kann). Wollen sie deiner App kein Zugriff mehr geben, einfach nur den Key blockieren - fertig. Analysieren der Daten ist da absolut nicht notwendig.