Ele segue todos os links da página e há um link para o nível superior.
Tente usar wget
com opções recursivas e sem pai.
wget -r --no-parent http://www.getsidekick.com/blog
Suponha que eu tenha determinadas páginas, por exemplo www.abc.def / ghi / a.html; como posso baixar
todas as páginas em www.abc.def / ghi usando httrack? (isto é, www.abc.def / ghi / a.html,
www.abc.def / ghi / b, ...)?
No momento, estou usando o comando simples httrack http://www.abc.def/ghi/ -O
<output-folder>
, mas ele falha em alguns sites.
Por exemplo, quando eu tento com o link , ele não
baixe qualquer coisa. No entanto, se eu estiver usando o link (nota
a barra final faltante), ele baixa todo o conteúdo sob
link , mas ao mesmo tempo até mesmo conteúdo
link .
Eu não sei qual poderia ser o problema (talvez o fato de que eles não têm a extensão .html
? Por exemplo, link ) e eu não encontrei uma solução de trabalho no manual ou em seu fórum oficial.
Além disso, eu já sei como fazer isso com wget
, mas gostaria de realizar a mesma coisa com httrack
.
Então, existe uma maneira padrão de fazer isso?
Ele segue todos os links da página e há um link para o nível superior.
Tente usar wget
com opções recursivas e sem pai.
wget -r --no-parent http://www.getsidekick.com/blog