Estou tentando migrar um banco de dados Innodb de 50 GB da MySQL para o Google Cloud. Binlog no meu banco de dados atual está ativo. Então, configurei meu banco de dados como somente leitura, criei um instantâneo e anotei a posição do log binário. Então eu desliguei o modo somente leitura e o banco de dados mysql original pode ser usado normalmente.
Em seguida, meu sistema demorou cerca de duas semanas para colocar o snapshopt no Google Cloud (mysql -hhost -u .... < my_tables.sql). Demorou muito, mas funcionou bem.
Como isso é feito agora, eu queria importar a diferença entre NOW e BINLOG POSITION X para o Google Cloud, para que o Google se atualize (enquanto coloca o banco de dados original em somente leitura novamente). No entanto, eu tenho cerca de 5000 x 100MB binlogfiles.
Problema: demora um dia por arquivo de 100 MB para importá-lo no Google.
Então, qual é a prática recomendada para obter 50 GB ou mais na segunda geração do Google Cloud? Eu preciso usar meu banco de dados o tempo todo em produção. Então desligá-lo não é uma opção. Além disso, com o Google SQL 2nd Generation, não consigo configurar o Google como o MySQL slave. Então isso também não é uma opção ....
Obrigado Florian