FTP Server nach Downloads durchsuchen

GamingWiidesire

Commander
Registriert
Sep. 2011
Beiträge
2.424
Nehmen wir an es gibt einen FTP Server.
Der Link der Downloads lautet wie folgt:
Beispiel.de:8080/main.html?download&weblink=<8-stelliger-String>

Nun habe ich mich ein bisschen umgesehen und bei HTTrack kann man eine URL-Liste als .txt einfügen und diese URLs nach Downloads durchsuchen und abspeichern.

Jetzt stehe ich also vor dem Problem:
Was wäre ein einfaches Script, um eine TXT Datei nach obigen Format (spezifische URL und dann 8 Stellen angehängt) zu generieren?

Oder fällt euch eine einfachere Lösung mit einem Tool ein?

Danke :)
 
Danke für den Versuch :D
Ganz so einfach ist es leider nicht, ist wie gesagt ein 8 stelliger String und keine Zahl. Also 1-7 Stellen bringt garnichts, da alle Links einen 8-stelligen String nach weblink= besitzen.

Bräuchte quasi ein Script, das mir 36^8 Kombinationen an die URL anhängt (Buchstaben sind nur klein und keine Sonderzeichen -> 26 Buchstaben + 10 Nummern pro Stelle).
 
36^8 sind 2821109907456
Vergiss es.
Bei 10 Downloadversuchen pro Sekunde wären das über 8900 Jahre.
 
Das würde wohl schon daran scheitern, dass die Liste mit der URL oben ca. 150 TB groß wäre.
 
Das ist mir schon bewusst, mich würde es trotzdem interessieren, wie sich so eine Liste generieren lässt (außerdem davon abgesehen, dass die resultierende TXT Datei ein bisschen groß wäre ;)).
 
Z.B. so, nur halt mit 8 Schleifen in deinem Fall und entsprechend
Code:
printf "%s\n" "Beispiel.de:8080/main.html?download&weblink=$c1$c2$c3$c4$c5$c6$c7$c8" >> datei
 
Zuletzt bearbeitet:
Von einem FTP-Server kann man sich das Verzeichnis auflisten lassen. Da muss man keine Linkliste abgrasen.
 
Zurück
Oben