Massig Webseiten automatisch als HTML speichern

Schen

Newbie
Registriert
Nov. 2016
Beiträge
2
Guten Tag,

ich habe eine ganz eigentartige Frage. :D
Ich arbeite bei einem Großhändler für gebrauchte Gartenmaschinen.
Beim Ankauf erhalten wir ein einfaches Gutachten der Maschinen, online abrufbar über einen Link.
Der Link ist immer gleich, nur am Ende folgt eine fortlaufende Bestellnummer.
Bisher konnten wir so immer alle alten Gutachten wieder aufrufen. Nun wird aber am 15.12. die Webseite abgestellt und durch eine neue ersetzt, aber ohne den alten Daten.

Kennt jemand eine Möglichkeit, wie ich nun alle einzelnen Websites (bestehen nur aus formatierten Text und sind sehr klein) automatisch als HTML speichern kann? Es sind knappe 5000 Seiten, von Hand habe ich angefangen, aber da brauche ich wohl ewig. :)

Vielen Dank vorab!
 
wget <url> wobei du die url eben selber hochzählen kannst. Das kannst du mit jeder Skriptsprache (Python, Windows Scripting Host, PHP, etc.) sehr einfach machen.
 
Schau dir das mal an, da kannste zum lokalen browsen eine lokale Kopie der ganzen alten Seite holen:

https://www.httrack.com/

PS: ich hab im asiatischen Raum mal eine Seite mit alten DOS Treibern verschiedener Hersteller gefunden, die hab ich mir damit gesichert.
 
Die Liste habe ich bereits in einer Text-Datei abgelegt. Bin leider nicht ganz so fit am PC, ich habe das über Excel gemacht und nach ewigen probieren in eine Text Datei bekommen. :)
Könnte ich wget mit dieser Liste füttern und das Programm speichert mir die Websites?
Ergänzung ()

Vielen Dank für die schnelle Hilfe! httrack läuft bereits, so einfach habe ich mir das nicht vorgestellt. :)
 
Zurück
Oben