Quidoff
Lieutenant
- Registriert
- Feb. 2005
- Beiträge
- 897
Hallo,
ich versuche gerade auf skins.be alle
Bilder von Adriana Lima herunter zu laden.
Wenn man auf ein Thumbnail klickt, kommt man in den Ordner
http://www.skins.be/wallpaper/adriana-lima/*
Die Bilder an sich liegen auf dem Server mit der URL:
http://wallpapers.skins.be/adriana-lima/*
Ich habe mir für die Aufgabe folgenden wget-Befehl überlegt:
--recursive --level=inf
Ich schalte die Rekursion mit einer unendlichen Rekursionstiefe ein.
--page-requisites --accept jpg,html
Es sollen alle für die Darstellung der Seite benötigten
Dateien untersucht werden wobei nur JPG und HTML Dateien
gespeichert werden sollen.
--domains=www.skins.be,wallpapers.skins.be --span-hosts
wget soll sich auch auf anderen Servern umsehen, wobei
ich nur diese mit der URL www.skins.be und wallpapers.skins.be haben
will.
--include-directories=*/adriana-lima/*
Ich will nur in Verzeichnisse gehen, die /adriana-lima/
enthalten.
Leider lädt dieser Befehl nur die HTML-Dateien der Seiten
mit den Thumbnails herunter.
Also:
http://www.skins.be/model/adriana-lima/
und
http://www.skins.be/model/adriana-lima/page{1-7}
//edit
Problem gelöst:
--include-directories verlangt absolute Pfadangaben:
//edit2
Einen kleinen Fehler hatte
der Befehl noch:
Hier der funktionierende:
ich versuche gerade auf skins.be alle
Bilder von Adriana Lima herunter zu laden.
Wenn man auf ein Thumbnail klickt, kommt man in den Ordner
http://www.skins.be/wallpaper/adriana-lima/*
Die Bilder an sich liegen auf dem Server mit der URL:
http://wallpapers.skins.be/adriana-lima/*
Ich habe mir für die Aufgabe folgenden wget-Befehl überlegt:
Code:
wget http://www.skins.be/model/adriana-lima/ --recursive --level=inf --page-requisites --accept jpg,html --domains=www.skins.be,wallpapers.skins.be --span-hosts --include-directories=*/adriana-lima/*
Ich schalte die Rekursion mit einer unendlichen Rekursionstiefe ein.
--page-requisites --accept jpg,html
Es sollen alle für die Darstellung der Seite benötigten
Dateien untersucht werden wobei nur JPG und HTML Dateien
gespeichert werden sollen.
--domains=www.skins.be,wallpapers.skins.be --span-hosts
wget soll sich auch auf anderen Servern umsehen, wobei
ich nur diese mit der URL www.skins.be und wallpapers.skins.be haben
will.
--include-directories=*/adriana-lima/*
Ich will nur in Verzeichnisse gehen, die /adriana-lima/
enthalten.
Leider lädt dieser Befehl nur die HTML-Dateien der Seiten
mit den Thumbnails herunter.
Also:
http://www.skins.be/model/adriana-lima/
und
http://www.skins.be/model/adriana-lima/page{1-7}
//edit
Problem gelöst:
--include-directories verlangt absolute Pfadangaben:
Code:
wget http://www.skins.be/model/adriana-lima/ --recursive --level=inf --page-requisites --accept jpg,html --domains=www.skins.be,wallpapers.skins.be --span-hosts --include-directories=/wallpaper/adriana-lima/,/adriana-lima/
//edit2
Einen kleinen Fehler hatte
der Befehl noch:
Hier der funktionierende:
Code:
wget http://www.skins.be/model/adriana-lima/ --recursive --level inf --page-requisites --accept html,jpg --domains=www.skins.be,wallpapers.skins.be --span-hosts --include-directories=/wallpaper/adriana-lima/,/adriana-lima/,/model/adriana-lima/
Zuletzt bearbeitet: