Como usar o wget para pegar a cópia dos documentos do site do Google Code?

0

Eu tenho um projeto do Google Code que tem muita documentação wiki. Eu gostaria de criar uma cópia desta documentação para navegação offline. Gostaria de usar wget ou um utilitário semelhante.

Eu tentei o seguinte:

$ wget --no-parent \
       --recursive \
       --page-requisites \
       --html-extension \
       --base="http://code.google.com/p/myProject/" \
       "http://code.google.com/p/myProject/"

O problema é que os links de dentro da cópia espelhada têm links como:

file:///p/myProject/documentName

Esta renomeação de links dessa forma causa erros 404 (não encontrados), já que os links apontam para nenhum lugar válido no sistema de arquivos.

Quais opções devo usar em vez de wget , para que eu possa fazer uma cópia local da documentação do site e de outras páginas?

    
por Alex Reynolds 26.03.2012 / 12:04

2 respostas

2

Se o URL se parece com:

https://code.google.com/p/projectName/downloads/detail?name=yourFILE.tar.gz

Transforme em:

$wget https://projectName.googlecode.com/files/yourFILE.tar.gz

Isso funciona bem para mim.

    
por 28.10.2012 / 03:25
0

Depois de muita conversa, consegui que o seguinte funcionasse para mim:

$ wget --no-parent \
       --recursive \
       --page-requisites \
       --html-extension \
       --convert-links \ 
       -E -l 3 \
       http://code.google.com/p/myProject/

O resultado é totalmente autocontido agora.

    
por 27.03.2012 / 22:04