Salvando automaticamente um documento grande que está fragmentado em muitas páginas da Web

0

Eu gostaria de receber uma cópia de um manual específico que esteja espalhado em um grande número de páginas da Web, como grande documento . Eu não quero pedir uma cópia impressa e não quero ter que clicar em cada link para obter o documento inteiro. Qual é a maneira mais fácil de colocar uma cópia deste manual no meu disco rígido?

    
por H2ONaCl 07.11.2013 / 09:00

2 respostas

0

O conjunto correto de opções obterá um resultado razoável em um período de tempo razoável. Para chegar a isso, houve algumas tentativas.

wget --recursive --page-requisites --convert-links --timestamping 
--domains=www.state.gov --level=2 --accept htm,pdf 
--include /m/a/dir/regs/fam,/documents

Esta não pode ser uma solução geral porque a escolha de - aceitar determinados tipos de arquivo é específica do site. A escolha de --incluir determinadas árvores é específica do site. Da mesma forma, a escolha de - nível é específica.

(@ Darius pode postar uma resposta em vez de um comentário, nesse caso eu consideraria selecioná-lo.)

    
por 26.11.2013 / 05:33
0

Esta é talvez uma resposta (eu só tentaria se a sugestão de Dario sobre wget não funcionasse) .... Também depende da sorte que você tem!

Você pode usar algo como link , que salvará todo o site em seu disco rígido.

As páginas em PDF sobre as quais você está falando são previsíveis, pois todas elas estão no diretório link , portanto, após você salvar o site, excluir tudo que não seja o diretório organization/

O problema é que não há nenhuma promessa de que são apenas as páginas que você quer ao vivo nesse diretório (por exemplo, este diretório pode conter todos os PDFs do site, não apenas os que você deseja) . Dependendo de suas necessidades, isso pode ou não ser suficiente.

    
por 07.11.2013 / 09:50

Tags