Faça o download de todas as páginas sob nome de domínio / *

1

Suponha que eu tenha algumas páginas, por exemplo www.abc.def/ghi/a.html , existe alguma opção de comando para fazer o download de todas as páginas em www.abc.def./ghi (por exemplo, www.abc.def/ghi/a.html , www.abc.def/ghi/b.html , ...)?

Instalei httrack e webhttrack , mas não sei como usá-los corretamente.

    
por tigerjack89 06.11.2014 / 14:16

2 respostas

3

Encontrou uma solução com httrack e é a mais simples.

httrack http://www.abc.def/ghi/ -O <output-folder>

a chave é que, por padrão, httrack use o parâmetro -D:

  

só pode entrar em subdiretórios

Você pode encontrar mais opções digitando httrack --help . Aqui é um link útil

    
por tigerjack89 06.11.2014 / 16:06
3

Tente o download recursivo de wget com restrições:

wget -r --include-directories=ghi --no-parent www.abc.def
    
por muru 06.11.2014 / 15:46