Chi non conosce Wget, l'utility GNU per il download di file?

Oltre alle opzioni di default, per scaricare un singolo file da un server (ftp o web), come wget http://indirizzo/file.zip esistono altre funzionalita' molto utili.

E' possibile ad esempio scaricare una pagina in maniera ricorsiva, effettuando il download della pagina e dei link ad essa associati:

wget -r http://oldsite.andreafortuna.net

In questo caso, senza specificare la profondita' di download, verra' usato il livello di default, corrispondente a 5: in pratica verranno seguiti i 5 links successivi alla pagina da scaricare.

Altre opzioni utili:

-b                   esegue wget in background
-l                    specifica il livello di ricorsione (il default e' 5)
-c                   fa il resume di un download precedentemente interrotto
-c                   legge una lista di url da scaricare da un file specificato
-convert-link     converte il link da assoluti a relativi per visualizzare la pagina offline
-mirror             ricontrolla un sito gia' scaricato ed esegue un aggiornamento dei file modificati
-nq                 evita di scaricare link che fanno riferimento ad altri siti

...ed alcuni esempi:


wget -r -c -l 3 -o operazioni.log oldsite.andreafortuna.net

scarica l'index e i relativi link con un livello di profondità pari a 3; il log dell'operazione viene scritto nel file operazioni.log

wget -mirror oldsite.andreafortuna.net

Fa la copia speculare del sito: aggiorna il download effettuato in precedenza scaricando solo i file aggiornati.

Wget e' molto conosciuto e utilizzato su Linux, ma ne esiste un porting ben realizzato anche per Windows.