Usando o wget e tendo sites funcionando corretamente off-line

1

Estou usando o wget para fazer download de websites, mas gostaria que eles funcionassem corretamente off-line. Se o site estiver usando o jQuery de um URL de site, por exemplo, ele não funcionará no modo off-line.

Existe alguma maneira de automatizar o processo de obter coisas como o jQuery armazenado localmente? Eu não quero passar pelo problema se fizer isso manualmente toda vez.

    
por Nifel 23.11.2017 / 23:23

1 resposta

2

O próprio Wget é capaz disso:

wget -pk <URL>

-p faz com que o wget recupere a própria página, bem como quaisquer outros recursos usados pela página, como imagens, scripts e folhas de estilo. O resultado será armazenado em um novo diretório, contendo todos os arquivos baixados.

-k faz com que o wget traduza as URLs para que funcionem localmente.

O acima apenas recupera uma página, junto com seus recursos. Se você quiser tentar recuperar um site inteiro, adicione -r :

wget -rpk <URL>

No entanto, isso vem com um aviso:

  • Pode fazer o download de centenas, milhares ou mais páginas, se houver muitas páginas. Por padrão, ele usa uma profundidade de 5, que provavelmente tem profundidade suficiente para recuperar um site inteiro, a menos que a vinculação interna seja um pouco esparsa.

  • Isso pode preencher seu disco rígido.

  • Ele coloca uma carga indevida no servidor do qual você está fazendo o download. Considere pedir permissão.

por thomasrutter 23.11.2017 / 23:35