Baixe o site inteiro para uso off-line com o wget (incluindo servidores de imagem externos)

1

OK, então eu tenho o wget 1.12 no Windows 7, e posso fazer downloads básicos dele.

O site que estou tentando baixar: link

e todas as imagens nele contidas são armazenadas externamente no link

Como posso baixar o site e as imagens externas e, possivelmente, permitir que todos os arquivos mantenham sua extensão original, sem converter arquivos .php em .htm

Gostaria de receber ajuda, já que sou novo em wget.

    
por avenas8808 31.10.2011 / 10:35

2 respostas

2

O manual nos disse:

Actually, to download a single page and all its requisites (even if they exist on separate websites), and make sure the lot displays properly locally, this author likes to use a few options in addition to ‘-p’:

wget -E -H -k -K -p http://the.site.com

Você terá que combinar isso com algumas opções de Download recursivo . Você prefere usar --wait=xx , --limit-rate=xxK e -U agent-string para não ficar na lista negra do servidor…

    
por 01.11.2011 / 15:43
0

Eu usei BlackWidow para fazer o download de sites recursivamente no Windows.

Ele possui os seguintes recursos, mas não é gratuito:

  • Mecanismo de script
  • User Friendly
  • NetSpy (espião de rede)
  • SnapShot (instantâneo de página da Web)
  • Windows Explorer como visualização do site
  • Filtros de verificação eficientes
  • Analisador gastável
  • Wildcards e amp; Expressões Regulares
por 31.10.2011 / 14:30