Migrando um site Wordpress muito grande para o Amazon Beanstalk

1

Eu quero migrar um site muito grande (15 GB) construído no Wordpress. Eu segui este whitepaper , tudo está funcionando como deveria para um instalação / migração de sites novos ou pequenos. Embora eu tenha conseguido restaurar o banco de dados usando o MySQL Workbench. Mas eu não consegui restaurar meus arquivos (o diretório uploads é 12GB em si), eu tentei usar o plugin "Duplicator Pro" mas ele não funciona, eu carreguei os arquivos diretamente para a instância do EC2 usando sFTP mas eu tenho um monte de problemas com permissões de arquivos. Além disso, enviei os arquivos para o bucket do S3 com o CloudFront ativado, mas isso também não funcionou. Estou perdido e não sei como concluir o trabalho, por favor me ajude se houver algum método recomendado para fazer o upload dos arquivos.

    
por AbuAnas 10.10.2017 / 10:44

2 respostas

1

EB: Minha recomendação com o beanstalk, use uma configuração pronta para uso com o EB CLI. Este repositório do github o ajudará nas etapas. Ele fará o upload de toda a sua instalação do wordpress.

Tamanho da pasta de uploads: O problema é, na verdade, o tamanho do seu arquivo, o Beanstalk permite upload direto de 512MB. Se você usa CodePipeLine via S3, você ganha 2GB. No seu caso, eu transferiria os uploads & DB com updraft plus . Primeiro, carregará os arquivos de backup remotamente e, em seguida, fará o download deles no site de destino. Você pode precisar aumentar sua memória php + tempos de execução primeiro para lidar com essa carga. Se o Updraft não puder descompactar os zips por causa das permissões de arquivo, ssh na instância.

Atualização: Então, o que você pode fazer é carregar tudo o que quiser (carrega a pasta) para um S3 Bucket em um arquivo zip ou gzip e configurá-lo para público. Em seguida, ssh no seu servidor e execute um sudo wget fileurl nesse arquivo para baixá-lo. Em seguida, descompacte-o com sudo unzip filename.zip . Eu tive que fazer isso algumas vezes, devido a updraft dividir as pastas. Após o comando sudo, você precisa executar novamente sudo chown -R webapp:webapp de suas pastas descompactadas para ter certeza de que elas têm as permissões corretas.

Altere as permissões de arquivo com sudo chown -R webapp: webapp ou segmente especificamente um arquivo. Eu uso webapp, porque na configuração, este é o grupo / usuário que está executando este aplicativo.

DB: Alternativamente para o db, instale o phpmyadmin e conecte-se com sua instância do RDS ou mysql local e importe seu arquivo sql exportado.

Conclusão: Eu não sei se você resolveu ainda, e eu ficaria curioso para descobrir como você faz / fez isso. Até agora, meus sites sempre foram em torno de 3 a 4 GB.

    
por 18.11.2017 / 17:52
-1

Os plugins duplicadores são projetados para fornecer dois arquivos ... e arquivar um instalador. Esses são carregados e, em seguida, o duplicador se auto-instala, dadas as credenciais corretas no novo servidor. Você não tenta usá-lo para fazer upload de arquivos e pastas ... é uma solução única que faz o banco de dados também.

Sugiro que você entre em contato com os desenvolvedores de plug-ins de duplicadores por meio do fórum para obter ajuda ... eles são muito bons.

O whitepaper amazon parece um processo incrivelmente complexo ... muito disso eu me pergunto se é relevante. Eu iria mantê-lo simples ... seus arquivos justos em um diretório html público e um banco de dados (o resto é fluff)

Você não está alterando URLs do wordpress ... leia o codex wordpress sobre como mover o wordpress (mantendo o mesmo URL).

A parte amazônica é específica para amazon ... não para wordpress. Basta fazer a coisa funcionar simplesmente em primeiro lugar, preocupar-se com as complexidades do luxo mais tarde ... se a Amazon for algo como o google cloud, você poderá atualizar facilmente seus requisitos de desempenho posteriormente.

Por fim, verifique qual usuário e grupo tem a propriedade dos arquivos após o upload versus quem é o proprietário e o grupo no diretório amazon. Quase certamente você tem a propriedade errada de usuário e grupo dos arquivos e pastas.

Você precisará chown user: group after upload.

Garanta o usuário correto: o grupo possui o diretório html público e tudo nele na instância amazon. Ele não funcionará corretamente de qualquer maneira, se o root tiver a propriedade de qualquer coisa nesse diretório. O grupo de usuários em meus servidores do Google Cloud geralmente é meu usuário da conta ou www-data (eu uso o Debian ou Ubuntu).

Você está usando um painel de controle? Isso tornará mais fácil ... eu uso ispconfig, vestacp ou virtualmin (gpl). O Virtualmin é o mais poderoso dos 3 e a minha escolha, apesar de sua interface de painel ser um pouco de milho em comparação com outros 2.

As permissões devem ser 755 e 644. O Wordpress sempre trabalha com elas para mim. Com um site desse tamanho, eu suspeito que seu tamanho máximo de upload de arquivo e várias configurações de php ini precisarão mudar drasticamente, já que os padrões em um novo servidor LAMP não estarão nem perto de um site grande como este instalado usando o duplicador. Felizmente, o duplicador geralmente informa quais alterações são necessárias ao criar o pacote inicial no servidor original antes da mudança.

    
por 10.10.2017 / 13:55