Webseite mit Unterseiten offline verfügbar machen

C64-for-ever

Cadet 2nd Year
Registriert
März 2021
Beiträge
20
Moin,
ich suche ein Programm womit ich eine Webseite MIT UNTERSEITEN runterladen kann. Ich habe schon folgende Programme installiert:
PureSync, Octoparse, getleft und HTTrack
Leider bin ich wohl zu dumm die Programme zu benutzen. Die "erste" Seite runterladen ist ja nicht das Problem aber wenn ich dann auf einen Link klicke kommt da nichts mehr :-)
Also meine Frage ist ob es irgendwie eine offline funktionierende Webseite runterladen kann wo ich überall durchklicken kann ohne online zu sein.
Über Tips oder Anleitungen würde ich mich sehr freuen.

Grüße
Tobias
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: guschel
kommt ja denke ich auch immer die Seite selbst drauf an. wenn das statischer kontent ist, sollte es gehen, aber wenn dahinter datenbanken liegen die aufgrund dynamischen feldern den inhalt zusammenstellen, stelle ich mir so ein vorhaben schwierig vor.
 
  • Gefällt mir
Reaktionen: Kalsarikännit, redjack1000, Drewkev und eine weitere Person
Also wenn du mit den Tools überfordert bist, dann würde ich dir wget nicht empfehlen.

Offensichtlich ein Windows, anhand der Software-Liste. Ich bezweifle, dass er Linux verwendet, ich glaube kaum ein Linux-Nutzer würde hier fragen, wie man wget installiert.
 
  • Gefällt mir
Reaktionen: Der Lord
Nimm den Link von oben (gnuwin), lade das Paket runter (Complete, no sources).
Dann installierst Du das, danach landet es in c:\program files (x86)\GnuWin32

Dann Eingabeaufforderung starten

ich habe unter C: einen ordner namens TEMP angelegt.
c:\temp>

Dann dies eintippen:
c:\temp> "c:\Program Files (x86)\GnuWin32\bin\wget.exe" https://deine-gesuchte-webeseite.xxx --no-check-certificate -r

Und schon geht es los.
Steht übringes ALLES in der Doku dazu, wirklich alles.
Das --no-check.... war in meinem Beispiel notwendig, -r wäre rekursiv.
Mehr in der Doku.

Habe mir jetzt dafür extra WGET runtergeladen damit ich die Schritte angeben kann.

Wenn Du kein geklimper auf den Tasten magst, Klicki-Bunti gibt es dafür auch.
https://sites.google.com/site/awggproject/
1656264268528.png
 
  • Gefällt mir
Reaktionen: netzgestaltung und species_0001
Und passt wget denn auch die Links an, so dass sie lokal funktionieren? Das würde ich von so einem Vorschlag schon erwarten.

Für mich sieht das nicht so aus. Aber vielleicht gibt es ja eine Option. Ich hab die Optionen nicht durchgekuckt, weil ich den Vorschlag ja nicht gemacht habe.
 
tollertyp schrieb:
Und passt wget denn auch die Links an, so dass sie lokal funktionieren?

Eigentlich nur noetig wenn sinnfrei hart gecodete volle Namen verwendet wurden.

Anyway.

Mit den entsprechenenden Optionen --mirror --convert-links sollte es passen fuer eine Offline-Kopie.
 
  • Gefällt mir
Reaktionen: netzgestaltung und tollertyp
prian schrieb:
Nimm den Link von oben (gnuwin), lade das Paket runter (Complete, no sources).
Dann installierst Du das, danach landet es in c:\program files (x86)\GnuWin32

Dann Eingabeaufforderung starten

ich habe unter C: einen ordner namens TEMP angelegt.
c:\temp>

Dann dies eintippen:
c:\temp> "c:\Program Files (x86)\GnuWin32\bin\wget.exe" https://deine-gesuchte-webeseite.xxx --no-check-certificate -r

Und schon geht es los.
Steht übringes ALLES in der Doku dazu, wirklich alles.
Das --no-check.... war in meinem Beispiel notwendig, -r wäre rekursiv.
Mehr in der Doku.

Habe mir jetzt dafür extra WGET runtergeladen damit ich die Schritte angeben kann.

Wenn Du kein geklimper auf den Tasten magst, Klicki-Bunti gibt es dafür auch.
https://sites.google.com/site/awggproject/
Anhang anzeigen 1232432
Generell hab ich es zum laufen bekommen ... mit einer .de Adresse funktioniert es auch super. Ich hatte hier allerdings eine .app adresse und da will er nicht so wir ich will.
 
Zurück
Oben