Fazer download de material no caminho do URL

0

Suponha que eu tenha determinadas páginas, por exemplo www.abc.def / ghi / a.html; como posso baixar todas as páginas em www.abc.def / ghi usando httrack? (isto é, www.abc.def / ghi / a.html, www.abc.def / ghi / b, ...)? No momento, estou usando o comando simples httrack http://www.abc.def/ghi/ -O <output-folder> , mas ele falha em alguns sites.

Por exemplo, quando eu tento com o link , ele não baixe qualquer coisa. No entanto, se eu estiver usando o link (nota a barra final faltante), ele baixa todo o conteúdo sob link , mas ao mesmo tempo até mesmo conteúdo link . Eu não sei qual poderia ser o problema (talvez o fato de que eles não têm a extensão .html ? Por exemplo, link ) e eu não encontrei uma solução de trabalho no manual ou em seu fórum oficial.

Além disso, eu já sei como fazer isso com wget , mas gostaria de realizar a mesma coisa com httrack . Então, existe uma maneira padrão de fazer isso?

    
por tigerjack89 07.03.2015 / 11:26

1 resposta

0

Ele segue todos os links da página e há um link para o nível superior.

Tente usar wget com opções recursivas e sem pai.

wget -r  --no-parent http://www.getsidekick.com/blog
    
por Carl H 07.03.2015 / 11:36