Manchmal hat man Webseiten mit vielen Verlinkten Dateien, die man am liebsten alle Gleichzeitig runterladen würde. Dies erreicht man unter Linux am einfachsten mittels des wget Befehls.
Beispiel:
wget -r -l 1 -A cpp,h http://www.deinedomain.de/dateien/
wget Speichert die Dateien im aktuellen Ordner. Dabei stehen die Optionen vor der URL für folgendes:
-r
Durchsucht die Seite rekursiv
-l 1
beschränkt die Rekursionstiefe auf 1, dies ist wichtig, falls andere Seiten auf der der Seite Verlinkt sind, ansonsten kann es passieren, dass sehr sehr viele Daten heruntergeladen werden…
-A cpp,h
legt die Dateitypen fest welche heruntergeladen werden sollen. In unserem Fall sind das alle *.cpp (cplusplus) und *.h (header) Dateien. Um z.B. alle Bilder herunterzuladen muss man “cpp, h” durch “jpg, jpeg, gif, png, tif, …” ersetzen.
eine vollständige Deutsche Dokumentation des wegt-Befehls findet sich hier.