Espelhando um site wordpress com wget

0

Eu estou tentando baixar um site wordpress, meu blog, na verdade, e para obter os arquivos php também. Até agora eu tentei -

wget -rkp -l3 -np -nH --cut-dirs=1 http://www.sharons.org.uk/
wget -r http://www.sharons.org.uk
wget --user-agent=Mozilla --content-disposition --mirror --convert-links - A php -E -K -p http://www.sharons.org.uk/

mas não consigo passar da primeira página index.html.

Como posso fazer isso, por favor?

    
por boudiccas 26.02.2014 / 14:31

5 respostas

1

Resposta curta: Você não pode, é assim que a internet funciona.

Resposta longa:

Dois fatores tornam o que você quer impossível, e isso é por design.

1) Os arquivos PHP não são fornecidos ao cliente, eles são avaliados no lado do servidor para produzir documentos HTML que são então enviados para o cliente. Isso permite que o desenvolvedor mantenha o código-fonte de seu site para si mesmo, o que aumenta a segurança. (Mesmo que o Wordpress, aqui, é de código aberto)

2) A maior parte do conteúdo do site é armazenada em um banco de dados, que não está mais disponível para você do que os arquivos php (se for, isso é uma falha de segurança grave), como também é o servidor que o consulta para produzir o resultado HTML.

Tudo o que você pode fazer é obter uma versão estática do site. O WinHTTPTracker for Windows, por exemplo, permite que você faça isso. Deve haver ferramentas equivalentes para o linux.

    
por 26.02.2014 / 14:46
2

É uma falha geral pensar que um arquivo PHP pode ser obtido com o WGET. Quando você corre

wget -rkp -l3 -np -nH --cut-dirs=1 http://www.sharons.org.uk/
wget -r http://www.sharons.org.uk
wget --user-agent=Mozilla --content-disposition --mirror --convert-links - A php -E -K -p http://www.sharons.org.uk/

ou qualquer coisa assim, do lado do servidor muitas coisas acontecem:

  • O servidor da web notifica o PEDIDO de você / wget
  • O servidor da web executa o php em relação a index.php ou qualquer outro solicitado
  • PHP consulta o MySQL conforme instruído a partir de arquivos php do wordpress
  • O PHP retorna aos dados somente HTML do servidor da web
  • Esses dados são retornados ao usuário como o que você vê como a página inicial.

A abordagem correta para o seu problema é

  • SSH no seu servidor, ou faça o login na interface de administração (cPanel, WHM, etc.)
  • Arquive ou pegue todo o public_html ou o diretório raiz do seu site
  • Conecte-se ao seu servidor MySQL e faça backup do banco de dados Wordpress por myqsladmin ou phpMyAdmin

P.S: se este é o seu próprio blog, como você afirma, as credenciais / logins não devem ser um problema

P.S2: como eu suspeito, você está tentando espelhar o site de outra pessoa sem permissão explícita, e isso está fora do escopo do superuser.com

Desculpe se eu entendi errado

    
por 26.02.2014 / 14:44
1

Feito de forma semelhante no meu servidor Ubuntu ... mas você pode ver se meus passos podem ajudá-lo com o seu problema .. ok, vamos'go.

Eu tenho LAMP padrão no meu servidor e eu tive que espelhar site para godaddy , e maneira mais fácil foi com wget , eu fiz assim:

  • matou meu serviço de apache = > %código%
  • possuí minha pasta raiz do meu site = > %código%
  • execute o servidor python local na porta http = > %código%
  • no meu servidor godaddy ssh puxado site inteiro = > %código%

esta bandeira -m é para espelho, espelho perfeito .. e funciona:)

Não se esqueça de alterar a sua senha wp-config.php se alguém, entretanto, puxar o seu site também com pars de conexão:)

é isso:)

h, krex

    
por 26.11.2014 / 00:12
0

Você diz no comentário acima que você rsync para ele. Em seguida, use o rsync para baixar o site. É o melhor método que conheço. Certifique-se de não perder os arquivos .htaccess! Se o seu comando de download usar / * para a fonte, provavelmente perderá os arquivos ocultos, portanto use / somente.

Outros métodos: filezilla ou qualquer outro programa de ftp.

    
por 26.02.2014 / 15:11
0

Eu usei o comando wget para baixar um espelho de uma loja de comida local para a qual eu estou criando um modelo, é o Wordpress e obtive todo o site incluindo todas as páginas e itens de menu detalhados visíveis localmente links usando o seguinte

wget \
      --recursive \
      --no-clobber \
      --page-requisites \
      --html-extension \
      --convert-links \
      --restrict-file-names=windows $url-of-site

Eu tenho todo o site de cerca de 200 páginas em formato legível por HTML, então parece ser factível.

    
por 27.10.2017 / 21:54