Bilder per batch von URL laden

Blue_Moon

Lieutenant
Registriert
Mai 2004
Beiträge
547
Hallo,
ich suche eine Möglichkeit um Bilder von einer URL herunterzuladen.
Zuerst muss eine URL z.B. "www.abc.de/arnr=1234" aufgerufen werden.
Diese lieferte als Rückgabe die eigentliche URL des Bild z.B. "www.abc.de/147.jpg"
Das eigenltiche Bild möchte ich dann auf dem PC speichern.

Hat jemand eine Idee, wie das möglichst einfach z.B. über eine Batchdatei funktionieren könnte?
 
Solltest du WSL installiert haben:
wget -r -P /save/location -A jpeg,jpg,bmp,gif,png https://www.example.com

Ahte dabei auf die rechtslage und die AGB des Betreibers . lade nichts herunter was du nicht haben darfst.
 
  • Gefällt mir
Reaktionen: madmax2010
Rechtliche Fragen habe ja schon die Vorposter aufgeworfen. Es gab/gibt? ( ist schon etwas her, dass ich mich mit der Materie bschäftigt habe) zuhauf Download-Tools, die sowas ermöglichen. Einfach mal hier in die Download-Section gucken oder googeln.
Wenn Du Pech hast, wird das nicht funktionieren, je nachdem wie die Bilder eingebettet/angezeigt werden.
 
Die Frage ist halt, was mit "Diese lieferte als Rückgabe die eigentliche URL des Bild" genau gemeint ist. Bei einem automatischen redirect wird das u.U. sogar mit wget funktionieren. wget gibt es auch für Windows, dafür muss man sich nicht mit WSL abplagen (wenn man es nur deshalb nutzen sollte).

Wenn da aber auf der Seite jemand auf einen Button klicken odr schon nur das JavaScript ausgewertet werden muss, dann hängt es vom Bildhoster ab, wieviel Aufwand man treiben muss. Als reines Batchscript geht das dann aber nicht mehr.

madmax2010 schrieb:
Ahte dabei auf die rechtslage und die AGB des Betreibers . lade nichts herunter was du nicht haben darfst.
Wenn ich die (öffentlich abrufbaren) Bilder noch nicht einmal anzeigen und für mich lokal speichern darf, müsste ich mehr wie nur den Browsercache abschalten. Die Nutzung in jeglicher Form außer für die eigene private Betrachtung ist dann etwas anderes.
 
Zuletzt bearbeitet:
Vielen Dank für die Hilfe.

Ist mit dem Betreiber abgeklärt.
Ich darf die Bilder herunterladen und auch verwenden.

Über wget "http://www.abc.de/arnr=1234" -outfile "file"
komm ich an die eigentliche URL des Bild.

Wie kann ich bei mehreren aufrufen des wget alles in eine Datei schreiben lassen?
 
Zurück
Oben