Há também outra maneira de fazer isso com wget
que usei com êxito para um site, e você deve poder modificar as instruções abaixo para outros sites. Isso envolve gerar uma lista de URLs e, em seguida, alimentar essa lista para wget
.
1) Como exemplo, digamos que você queira fazer o download de todas as 63 revistas em formato pdf da Revista Full Circle (uma revista Ubuntu), mas seu download gerente não pode baixá-los todos de uma vez. Portanto, encontre o link do primeiro arquivo pdf e verifique rapidamente se os outros links da revista estão no mesmo formato de URL.
2) Com o conhecimento adquirido na parte 1, podemos agora nos voltar para o nosso script para gerar as urls. O script abaixo executa um loop até, que eu modifiquei (credito para seu criador). Você modifica esse script colocando o número de revistas na parte until [ $i = 63 ]
, coloca o URL correto após echo
e certifica-se de que "$i"
esteja na parte correta da URL a ser ecoada, de forma que ela mude a cada execução do loop. Os urls são gerados e depois anexados a um arquivo de texto - isso acontece em uma fração de segundo quando o script é executado e não é tão complicado de configurar quanto parece!
Salve o script em um editor de texto, torne-o executável e execute-o; modificá-lo como descrito acima quando você quiser fazer o download de um site diferente do que o meu exemplo.
#!/bin/bash
i=0
until [ $i = 63 ] ; do
i=$(($i+1))
echo "http://dl.fullcirclemagazine.org/issue"$i"_en.pdf" >> url.txt
done
3) Finalmente, assumindo que url.txt
esteja no diretório de trabalho atual, execute:
wget -i url.txt
Se você deseja salvar os downloads em outro lugar, adicione -P ~/MyDirectory
após url.txt
Ele funciona - se você tentar, digite ctrl c
para abortar se não quiser baixar todos eles!