Existe uma maneira de usar o wget para baixar um site e TODOS os seus documentos de requisitos, incluindo os remotos

2

Eu quero fazer algo semelhante ao seguinte:

wget -e robots=off --no-clobber --no-parent --page-requisites -r --convert-links --restrict-file-names=windows somedomain.com/s/8/7b_arbor_day_foundation_program.html

No entanto, a página que estou baixando tem conteúdo remoto de um domínio diferente de somedomain.com. Pediram-me para baixar esse conteúdo também. isso é possível com o wget?

    
por General Redneck 10.08.2011 / 17:13

1 resposta

1

add -H ou --span-hosts (mesma coisa)

-H, --span-hosts vão para hosts externos quando são recursivos.

    
por 10.08.2011 / 18:03

Tags