automatisierter Screenshot einer Website (oder Speicherung)

Xe63

Cadet 2nd Year
Registriert
Sep. 2011
Beiträge
25
Hallo,

folgendes Anliegen habe ich:

- ich brauche täglich einen Screenshot oder aber ein Abbild folgender Seite
http://odlinfo.bfs.de/cvdata/160730391.php?lang=DE
(entscheident sind die zwei Grafiken)
- der Aufwand meinerseits muss sehr gering ausfallen
- die Lösung soll im Laufe der Zeit auch andere Seiten erfassen können und somit für mich verständliche Mechnanismen nutzen

Bisher hatte ich eben direkt ein Screenshot erstellt. Vor kurzem stieg ich dann auf die (Firefox-)Option "Seite speichern unter..." um, doch ist mir das alles zu "aufwendig". Ich hatte da an etwas wie ein Batchdatei gedacht....täglich ein Doppelklick und fertig.
Kenntnisse in diesem Bereich besitze ich, wie man unschwer erkennen kann, nicht. Über eine einfache Anleitung, ein Programm oder fertigen Code würde ich mich ziemlich freuen.

Danke und mfG
 
Handelt sich ja zum Glück um bilder, die graphen, bei deiner gegebenen Seite. Beobachte mal, wie sich die bildnamen von tag zu tag ändern, dann kann man das explizit programmieren.

Ansonsten sollte es mit wget funktionieren. Dann ist es halt so wie 'seite speichern'
War wohl jemand schneller ;)

wget -r -k -E -l 1 http://example.com

Sollte in deinem fall reichen. -l gibt die tiefe an, schau mal ob 1 reicht oder du -l 2 brauchst.
 
Zuletzt bearbeitet:
Also erstens mal geben die wohl interessierten auch Zugriff auf die Rohdaten, nicht nur Diagramme, dafür müsstest du wohl das BfS kontaktieren.

Falls es dir nur um die Diagramme geht:
Offensichtlich befinden sich die aktuellen Diagramme immer unter http://odlinfo.bfs.de/messwerte/[ID].png bzw http://odlinfo.bfs.de/messwerte_h2/[ID].png, wobei [ID] in deinem Fall 160730391 ist. Diese beiden Dateien herunterzuladen sollte trivial mit jeder Programmiersprache oder mit Kommandozeilen-Tools wie z.B. wget (https://www.google.de/search?q=wget+windows) möglich sein.

Du könntest also einfach einen geplanten Task anlegen, der eine Batchdatei aufruft, die lediglich wget für diese beiden URLs aufruft und die aktuellen Dateien herunterlädt.
 
Zurück
Oben