Webseite kopieren, aber nur die Seiten die nummeriert sind (1 2 3 4 5 6 ... < >)

Tobias Claren

Banned
Dabei seit
Feb. 2003
Beiträge
620
Hallo.

Gibt es eine Software mit der Ich eine Kopie einer Webseite machen kann, aber nur die einzelnen Seiten, welche unten z.B. mit so einer Liste "1 2 3 4 5 6 ... < >" abrufbar sind. Z.B. könnten es um 350 solcher Seiten sein.
"WinHTTrack" kenne Ich, weiß aber nicht, ob man da irgendwie die Seiten so begrenzen kann.
Ein Website-Downloader der z.B. solche Elemente wie diese Seitenwahl kennt, und nur die darüber verfügbaren Seiten herunter lädt.
Evtl. sogar mit gemeinsamen grafischen Elementen die ja auf allen Seiten gleich sind.

Wenn die Seiten nach dem Schema https://www.Webseite.com/nutzer/topgun/answers/new/1 aufgebaut sind, könnte man in das URL-Fenster bei HTTrack auch alle Seiten eingeben.
Aber dann sollte man idealerweise die 350 Links nicht von Hand erstellen müssen.
Und kann man sich dann auch in der Webseite auch durchklicken, oder stehen die alle für sich alleine?
So als würde man jede Seite im Browser öffnen, und sie mit STRG+S speichern. Das will Ich ja gerade vermeiden.
 

HominiLupus

Banned
Dabei seit
Okt. 2013
Beiträge
33.550
Erstelle dir ein kleines Skript oder Batchdatei welches eine Datei mit der Liste der URLs erstellt

Code:
wsite=' https://www.Webseite.com/nutzer/topgun/answers/new/'
i=1
while (i<=350):
	print(wsite + str(i))
	i+=1

Als Miniprogramm in python http:/python.org z.B.
Aufzurufen mit "python dateiname" gibt es alle 350 URLs aus, mit "python dateiname > Listendatei.txt" gibt es alle in Listendatei.txt aus
 

paccoderpster

Lieutenant
Dabei seit
Dez. 2013
Beiträge
944
Kannst du mit PHP programmieren? Mir ist nur noch nicht ganz klar, was du genau willst.

Wenn du die "Basis-URL" kennst, dann kannst du im Skript einfach eine Variable dran hängen, die in einer Zählschleife inkrementiert wird.

Oder willst du die Seite komplett durchsuchen (Sprich, sie indexen, was aber je nach Robotos.txt unerwünscht ist)?
 
Top