komplette Webseiten speichern?

.H0mer

Ensign
Registriert
Nov. 2008
Beiträge
214
Hallo,

ich möchte gerne eine Webseite auf meinen PC speichern. Die Webseite hat eine große Baumstruktur und besteht hauptsächlich aus Texten und ein paar Grafiken.
Ich habe es schon mit vielerlei Programmen wie Wysigot, Webspider und WinHTTrack probiert und bei den Programmen auch die Einstellungen geändert, die ich für das abspeichern vieler Ebenen der Webseite in Verbindung bringe. Nichts hat jedoch zum Erfolge geführt. Es werden immer nur die ersten zwei bis drei Ebenen der Links gespeichert und danach geschieht nichts mehr. Die vielzahl an anderen Links werden nicht gespeichert. Ich weiß hier einfach nicht mehr weiter.
Gibt es da keine Programme die verständlich zu bedienen sind und die komplette Baumstruktur der Webseite mit allen Texten und Links auf den PC lädt?

THX
 
Um welche Website handelt es sich denn ?
Das Problem ist das viele Seiten heutzutage dynamisch sind, zb. php verwenden.
Und das kann man nicht einfach so speichern !
 
wie lässt es sich denn erkennen, ob es sich um eine solche php Seite handelt?
 
Kommt drauf an, manchmal am Inhalt der Adresszeile.
Welche Seite ist es denn ?
Dann könnten wir hier im Forum weiterhelfen.
Oder ist die Seite so "böse" ?
 
ich lade mir die hps mit downloadthemall! ein addon für firefox
 
was dann wahrscheinlich auch zu nichts führt, wenn es eine php Seite ist und die nicht herunterzuladen gehen.
 
Tja, da wir uns nicht einloggen können sehen wir leider nicht was dahinter liegt !
Auf dem Webserver läuft allerdings Apache mit PHP, von daher ist auszugehen das auch die Seite PHP nutzt.

"Apache/2.2.9 (Debian) PHP/5.2.6-1+lenny8 with Suhosin-Patch mod_ssl/2.2.9 OpenSSL/0.9.8g Server at www.vibos.de Port 80"

Von daher wird es nix mit dem Download werden.
 
welche Möglichkeiten gibt es dann noch relativ zeitsparend die Informationen der Plattform zu sichern?
 
überhaupt nicht, entweder klickst du jeden kleinsten Eintrag oder Menüpunkt an und speicherst es alles nach und nach..oder du besorgst dir den Zugriff auf das root verzeichnis, lädst alle Datein runter und kopierst es auf deine lokale Platte und bindest die Seite via xampp ein, dann kannst du das local dir ansehen
 
Zuletzt bearbeitet:
Die einzigste Methode wäre wenn du zu dem Webadmin gehst und er dir die Dateien der Website gibt und du sie lokal auf deinem Rechner in einem Webserver nutzt.
Aber ich glaube das wird dir der Webadmin nicht erlauben.
 
Zurück
Oben