Como posso baixar as páginas referenciadas por meus favoritos como arquivos html?

4

Eu tenho muitos favoritos (acordes de guitarra de músicas), salvos no Google Chrome e também um belo programa chamado XMarks Funciona muito bem, mas um problema é que algumas das páginas antigas estão sendo excluídas, por isso quero salvar uma cópia local delas. E eu não quero

for(i=0; i<infinity; i++)
{
 open page;
 right click;
 save page;
 etc;
}

Então existe uma extensão de software ou navegador que me permita baixar todas as páginas de favoritos?

(um script PHP ou similar também pode funcionar, eu só quero os arquivos, e eu quero ser capaz de fazê-lo regularmente) Obrigado por qualquer ajuda!

Editar: E eu quero preservar a estrutura de pastas como a pasta de favoritos também.

Editar 2: : não estou tentando exportar meus favoritos. Eu estou tentando salvar cada página referenciada pelos meus favoritos (obrigado pela edição no título), então eu preciso de um programa que abra todos os meus favoritos, pressione Ctrl + S e salve (espero que com a mesma estrutura de pastas que meus favoritos ). veja minha pequena piada de código acima:)

Editar 3: "Obrigado por qualquer ajuda!" significa que não estou ganhando nenhuma resposta, já que existe a intenção de ajuda.

    
por void 02.05.2013 / 17:08

2 respostas

6

Exporte sua lista de favoritos como HTML e use wget para fazer o download de todas as páginas vinculadas e de todas as imagens e scripts necessários para exibir essas páginas:

wget --recursive --level 1 --page-requisites --convert-links --force-html --input-file bookmarks_7_7_14.html

--level 1 limita o download recursivo a seguir um link, da sua página de favoritos ao site favorito.

--page-requisites significa fazer o download dos arquivos necessários para exibir cada página (imagens, estilos, javascript etc.).

--convert-links mudará os links para os relativos que funcionam localmente se os arquivos forem baixados (imagens etc) e mudará os links para os links absolutos (links para outras páginas) se não forem.

--force-html dirá ao wget para tratar o arquivo de entrada como uma página html em vez de uma lista de URLs.

Se você fizer isso repetidamente, alguns cuidados adicionais precisarão ser tomados para evitar a substituição de downloads antigos por novos downloads.

NOTA: Isso só fará o download da página que você marcou, e não de outras páginas no mesmo site. Soluções mais complexas seriam necessárias se você quiser espelhar alguns ou todos os sites de destino, e mais complexo ainda se quiser ser exigente sobre quais são espelhados quanto.

    
por 02.05.2013 / 17:21
1

Se você quiser fazer o download de algumas páginas do site, precisará de alguma ferramenta para copiar um site. Uma ferramenta gratuita que eu uso com frequência é httrack

Mas se você Google provavelmente encontrará ferramentas de números que fazem coisas semelhantes. alguns são gratuitos, alguns são pagos.

    
por 02.05.2013 / 17:15