Baixe uma página html com todos os gráficos necessários e arquivos pdf / zip vinculados

5

Quero fazer o download de um website a partir de um URL, para visualizá-lo localmente, com mais exatidão:

  • Faça o download de uma única página html (sem outras páginas HTML vinculadas) e tudo o que é necessário para exibi-la (css, imagens, etc.)
  • Baixe também todos os arquivos vinculados diretamente do tipo pdf e zip .
  • E corrija todos os links para eles, para que os links funcionem localmente.
  • Os outros links (por exemplo, para arquivos html) devem ser mantidos inalterados.

Estou aberto a todas as ferramentas baseadas em linux ( macports support seria legal), usando wget não funcionou para mim até agora.

Editar: wget -E -H -k -K -p está próximo do que eu quero, mas como incluo arquivos pdf e zip? (Fonte: Stackoverflow )

    
por abenthy 15.10.2013 / 23:01

3 respostas

3

tente:

wget -r -k -l 1 --mirror yourSITE

Razão de -r junto com --mirror :

-r : cuased wget age recursivamente.

--mirror : cuased você diz para o wget se comportar como sites espelhos.Às vezes é necessário.

-k : documentação única

-l 1 : nível 1, um nível recursivamente.

    
por 16.10.2013 / 00:44
2

HTTrack ( homepage ) pode espelhar sites para visualização off-line com opções bastante refinadas quanto ao que baixar e o que não. Também é capaz de retomar downloads interrompidos.

    
por 15.10.2013 / 23:57
1

Você tentou wget -rk -l 1 <sitename> ou semelhante? Isso deve recursivamente buscar o conteúdo ao converter os links para caminhos relativos. O resultado final pode ser mais arquivos .html do que você deseja, mas você pode remover todos eles, exceto o index.html, que você deve conseguir navegar normalmente.

    
por 15.10.2013 / 23:27