komplette Webseiten speichern?

.H0mer

Ensign
Dabei seit
Nov. 2008
Beiträge
214
Hallo,

ich möchte gerne eine Webseite auf meinen PC speichern. Die Webseite hat eine große Baumstruktur und besteht hauptsächlich aus Texten und ein paar Grafiken.
Ich habe es schon mit vielerlei Programmen wie Wysigot, Webspider und WinHTTrack probiert und bei den Programmen auch die Einstellungen geändert, die ich für das abspeichern vieler Ebenen der Webseite in Verbindung bringe. Nichts hat jedoch zum Erfolge geführt. Es werden immer nur die ersten zwei bis drei Ebenen der Links gespeichert und danach geschieht nichts mehr. Die vielzahl an anderen Links werden nicht gespeichert. Ich weiß hier einfach nicht mehr weiter.
Gibt es da keine Programme die verständlich zu bedienen sind und die komplette Baumstruktur der Webseite mit allen Texten und Links auf den PC lädt?

THX
 

marcol1979

Banned
Dabei seit
Juni 2004
Beiträge
8.199
Um welche Website handelt es sich denn ?
Das Problem ist das viele Seiten heutzutage dynamisch sind, zb. php verwenden.
Und das kann man nicht einfach so speichern !
 

.H0mer

Ensign
Ersteller dieses Themas
Dabei seit
Nov. 2008
Beiträge
214
wie lässt es sich denn erkennen, ob es sich um eine solche php Seite handelt?
 

marcol1979

Banned
Dabei seit
Juni 2004
Beiträge
8.199
Kommt drauf an, manchmal am Inhalt der Adresszeile.
Welche Seite ist es denn ?
Dann könnten wir hier im Forum weiterhelfen.
Oder ist die Seite so "böse" ?
 

Tr3x

Lieutenant
Dabei seit
Feb. 2007
Beiträge
608
ich lade mir die hps mit downloadthemall! ein addon für firefox
 

.H0mer

Ensign
Ersteller dieses Themas
Dabei seit
Nov. 2008
Beiträge
214
was dann wahrscheinlich auch zu nichts führt, wenn es eine php Seite ist und die nicht herunterzuladen gehen.
 

marcol1979

Banned
Dabei seit
Juni 2004
Beiträge
8.199
Tja, da wir uns nicht einloggen können sehen wir leider nicht was dahinter liegt !
Auf dem Webserver läuft allerdings Apache mit PHP, von daher ist auszugehen das auch die Seite PHP nutzt.

"Apache/2.2.9 (Debian) PHP/5.2.6-1+lenny8 with Suhosin-Patch mod_ssl/2.2.9 OpenSSL/0.9.8g Server at www.vibos.de Port 80"

Von daher wird es nix mit dem Download werden.
 

.H0mer

Ensign
Ersteller dieses Themas
Dabei seit
Nov. 2008
Beiträge
214
welche Möglichkeiten gibt es dann noch relativ zeitsparend die Informationen der Plattform zu sichern?
 

Accuface

Captain
Dabei seit
Dez. 2003
Beiträge
3.581
überhaupt nicht, entweder klickst du jeden kleinsten Eintrag oder Menüpunkt an und speicherst es alles nach und nach..oder du besorgst dir den Zugriff auf das root verzeichnis, lädst alle Datein runter und kopierst es auf deine lokale Platte und bindest die Seite via xampp ein, dann kannst du das local dir ansehen
 
Zuletzt bearbeitet:

marcol1979

Banned
Dabei seit
Juni 2004
Beiträge
8.199
Die einzigste Methode wäre wenn du zu dem Webadmin gehst und er dir die Dateien der Website gibt und du sie lokal auf deinem Rechner in einem Webserver nutzt.
Aber ich glaube das wird dir der Webadmin nicht erlauben.
 
Top