Bash: Links aus HTML filtern und downloaden

moonwalker99

Lt. Commander
Registriert
Jan. 2008
Beiträge
1.850
Hallo zusammen,

ich habe ein Skript geschrieben, das mit curl den HTML-Code einer URL lädt und soweit filtert, dass nur noch 10 Links übrig bleiben. Diesen Inhalt habe ich in eine Variable abgelegt. Wie kann ich jetzt alle 10 Links durchgehen und ebenfalls mit curl laden? Spielt es eine Rolle, dass alle 10 Links mit Linebreak abgetrennt sind?
 
Schau dir mal xargs an.
Dass da line-breaks sind macht gar nix.
 
Zurück
Oben