Backup e Download do Website

4

Como baixar o site inteiro em geral e * .blogspot.com em particular? Note que não preciso ter acesso de administrador a esse site. Na verdade, estou apenas tentando baixar um site de terceiros para o caso de entrar em chamas ...

    
por Graviton 24.07.2009 / 13:44

6 respostas

10

Eu encontrei o httrack ( link ) muito útil para isso no passado.

Se você usar qualquer ferramenta para tentar baixar um site inteiro (não apenas o httrack), certifique-se de mostrar um pouco de consideração ao site. Veja a página do httrack "o que não fazer" para algumas dicas sobre isso.

    
por 24.07.2009 / 14:31
6

você pode usar o wget para espelhar o site [desde que ele não tenha navegação baseada em flash ou javascript].

veja aqui ou apenas verifique o comando manual . O wget está disponível para sistemas unix e windows .

    
por 24.07.2009 / 13:48
2

Se você não tiver acesso de administrador ao site para usar a ferramenta de backup do site, poderá fazer backup do conteúdo HTML de suas páginas, da visualização da fonte ou da fonte, ou se desejar apenas o conteúdo real da página. artigos, copie isso. Você também pode baixar suas imagens e outros anexos do site. Este artigo fornece detalhes sobre como você pode fazer isso de uma forma mais maneira eficiente.

Você também pode usar o wget, se tiver, para obter as informações do site.

Tenha em mente que isso não lhe dará a informação que você precisa para apenas pegar o seu blog e rodá-lo em outro lugar, há um backend PHP inteiro atrás do blogspot que está carregando seus sites, etc.

    
por 24.07.2009 / 13:48
2

Eu acredito que rastreará uma página para você

a opção -r eu acredito é o que você quer. Observe, a seguir, a parte sobre como converter links para visualização off-line. Já que você disse que quer ter esta página apenas para o caso de "ficar em chamas", isso permitirá que você a navegue localmente.

da página de manual

Wget can follow links in HTML and XHTML pages and create local versions of remote web
sites, fully recreating the directory structure of the original site.  This is sometimes 
referred to as "recursive downloading."  While doing that, Wget respects the Robot 
Exclusion Standard (/robots.txt).  Wget can be instructed to convert the links in 
downloaded HTML files to the local files for offline viewing.  
    
por 24.07.2009 / 13:48
1

Se você quiser algo um pouco mais avançado que o wget, dê uma olhada no Black Widow

    
por 24.07.2009 / 13:57
0

A maneira mais fácil de baixar um site inteiro é usar o Website Downloader . Com nada para instalar ou configurar, simplesmente insira o URL do site que deseja baixar e pressione download.

    
por 14.08.2016 / 14:07

Tags