Download einer gesamten Website samt Dateien

Musicsniper

Lieutenant
Registriert
Nov. 2011
Beiträge
958
Hallo liebe CB-ler,

Kurzfassung:
Gibt es eine Möglichkeit eine gesamte Webseite, inklusive allen Dateien (Skripte v.a. in PDF und PPT-Format) usw. runterzuladen?

Hintergrund:
Bei uns an der Uni werden demnächst aus urheberrechtlichen Gründen sämtliche Skripte, Folien usw aus Moodle (Plattform für Universitäten wo Studenten Infos und Skripte zu ihren Kursen haben) gelöscht.
Wir sollen diese nun für sämtliche Semester (13 Stück, Medizinstudium) runterladen bevor sie gelöscht werden.
Leider gibt es nicht so etwas wie einen "Download All" Button, was heißt das man de facto jedes einzelne Skript von 13 Semestern Studium einzeln runterladen darf...
Gibt es da eventuell eine Möglichkeit die gesamte Webseite offline abzuspeichern? Eine Art Backup?
Vor allem geht es um Dateien, welche man runterladen kann auf Moodle.


Speicherplatz ist in dem Bezug kein Problem.
Bin für jede Hilfe dankbar da bei uns in der Uni die Lage deswegen grade ziemlich eskaliert.

Danke im Voraus!
 
per FTP auf deb Webspace und herunterladen?

Oder wget -m -p -E -k -K -np http://site/path/
(Optionen in der MAN PAGE)

lg
fire
 
Hi,

https://lmgtfy.com/?q=website+downloaden stößt einen direkt auf WinHTTrack.

Auch wenn das Programm sehr altbacken aussieht, ist es einen Versuch wert.
Damit habe ich einmal einen Onlinerechner für Elektronikbauteile aus dem "Internet Archive" geladen, da dieser gelöscht wurde. Hat damals problemlos funktioniert.
 
Falls Du keine Scheu vor der Kommandozeile hast, schau Dir wget an.

Das ist ein Linux/Unix- Tool, das es auch für Windows gibt. Du kannst fast alles regeln.
Grafische Oberflächen dafür gibt es natürlich auch.
 
Hab leider nicht so die Ahnung was Programmieren und Kommandozeilen angeht :/
Habs grad mit dem vorgeschlagenen Webkopierer probiert und das hat nicht geklappt :( Das Tool schafft es nicht auf die Website zuzugreifen, obwohl es User-ID und PW hat. Grad probier ich es mit HTT-Track - das hat aber bislang noch nicht geklappt. Ich versuch grad noch an den Einstellungen rumzuspielen :)
 
die HTTP-Seite mit allen Inhalten plus Scripten kannst so nicht einfach abspeichern. Um das zu können, müsstest du den Serverzugang haben, den der Seitenersteller hat. Zudem ist auch zu berücksichtigen wie die Seite erstellt wurde (also http oder PHP usw., wegen der Datenmenge).

Durch einen Studentenzugang wirst nicht einfach mal ein Seitenbackup machen können, dass alle Scripte usw. der Webseite beinhaltet. Wäre auch zu einfach. Sowas ist ja auch nicht angedacht, dass man sowas könnte. Sonst könnte man Webseiten einfach mal kopieren und für seine Zwecke umgestalten. ;)

Entweder einer der Admins packt die Scripte mal in einen Ordner, so das Ihr nur mittels EINEM Download (entweder per FTP oder eben Website) alles erhaltet oder Euch bleibt nur der einzelne Download je Script übrig. :(

Sidn das insgesamt 13 Scripte oder pro Semester 13??? ansonsten reicht es doch, wenn man 13 Downloads anstößt. Man kann doch eigentlich mehrere Downloads durchführen.
 
Zuletzt bearbeitet:
Mit WinHTTrack klappt das auf jeden Fall.
 
Sidn das insgesamt 13 Scripte oder pro Semester 13???

Ich würde mal vermuten, dass damit alle Scripte aus 13 Semestern Studienzeit gemeint sind. Das können ne ganze Menge sein, vermutlich gut im dreistelligen Bereich.
 
davon gehe ich auch mal aus, aber ich wollte nur nochmal nach gefragt haben. ;) Fackt ist, einfach mal mit einem Userzugang ne Webseite komplett downloaden mit allen Downloadbaren Dateien, die verlinkt sind, geht sicher trotzdem nicht. Ist ja ansich nicht im Sinne des Erfinders. Hier wäre eine Verknüpfung aller Downloadbaren Scripte hilfreicher oder eben alle Scripte in einem Ordner zum Download bereitstellen. Aber dafür sollte man sich an einen Admin der Uni wenden. Der sollte das in wenigen Schritten eingerichtet haben.
 
inge70 schrieb:
Fackt ist, einfach mal mit einem Userzugang ne Webseite komplett downloaden mit allen Downloadbaren Dateien, die verlinkt sind, geht sicher trotzdem nicht.

Warum soll das nicht funktionieren? Alles was man selbst mit einem Browser erreichen kann, lässt sich auch mit anderen Tools erreichen. Vielleicht funktioniert die eingesetzte Software nicht, aber dann liegt dort das Problem. Möglich ist es definitiv - die entsprechenden Berechtigungen vorausgesetzt.
 
Danke für die freundliche Hilfe! Ihr seid der Hammer :)

Ich probiers grad noch mit HTTrack, aber es scheint so als ob der Moodle-Login nicht von HTTrack "gecaptured" werden kann; soll heißen es klappt noch nicht :(
Ich hab mal die Admins angeschrieben und gefragt ob diese einen Download anbieten können :)

Danke euch alle! Ich halt euch auf dem Laufenden falls was klappt (oder auch nicht) :)
 
Wie liegen die Scripte denn vor bzw. wie ist der Aufbau der Download-Seite? Hast du da eine große Liste mit Links und wenn du einen anklickst, wird das PDF runtergeladen?
 
Also mit wget funktioniert das sicherlich nicht. Moodle ist doch passwortgeschützt. Woher soll wget die Session Cookies kennen?
Das Einzige, was wget downloaden würde, wäre die Loginseite.
Die besten Chancen hast du mit nem Browser Plugin zum Herunterladen aller Dateien,
Z.B. DownThemAll (für Firefox).
 
Update:
Die Verlage verzichten vorübergehend über die einzelne Buchungen. Somit bleiben die Skripte mindestens mit September 2017 online. Danke euch allen für eure Hilfe!
 
Zurück
Oben