Se o URL se parece com:
https://code.google.com/p/projectName/downloads/detail?name=yourFILE.tar.gz
Transforme em:
$wget https://projectName.googlecode.com/files/yourFILE.tar.gz
Isso funciona bem para mim.
Eu tenho um projeto do Google Code que tem muita documentação wiki. Eu gostaria de criar uma cópia desta documentação para navegação offline. Gostaria de usar wget
ou um utilitário semelhante.
Eu tentei o seguinte:
$ wget --no-parent \
--recursive \
--page-requisites \
--html-extension \
--base="http://code.google.com/p/myProject/" \
"http://code.google.com/p/myProject/"
O problema é que os links de dentro da cópia espelhada têm links como:
file:///p/myProject/documentName
Esta renomeação de links dessa forma causa erros 404 (não encontrados), já que os links apontam para nenhum lugar válido no sistema de arquivos.
Quais opções devo usar em vez de wget
, para que eu possa fazer uma cópia local da documentação do site e de outras páginas?
Se o URL se parece com:
https://code.google.com/p/projectName/downloads/detail?name=yourFILE.tar.gz
Transforme em:
$wget https://projectName.googlecode.com/files/yourFILE.tar.gz
Isso funciona bem para mim.
Depois de muita conversa, consegui que o seguinte funcionasse para mim:
$ wget --no-parent \
--recursive \
--page-requisites \
--html-extension \
--convert-links \
-E -l 3 \
http://code.google.com/p/myProject/
O resultado é totalmente autocontido agora.
Tags wget curl html google-code