Armazenamento de SAN no Google Cloud

2

Se eu precisar mover uma SAN de 100 TB (bloco) para o GCP, quais são as opções que temos? Pelo que entendi, tem que ser um disco persistente. Mas o limite máximo atual por disco é de 64 TB. Então vou precisar de dois discos. Mas como várias máquinas podem compartilhar esse armazenamento em bloco? Ele diz que apenas uma VM pode ter acesso de leitura / gravação e outras devem ser somente leitura.

    
por Harin7602 25.08.2018 / 21:13

5 respostas

2

Obrigado pelo feedback. Em suma 1. O GCP não tem uma solução pronta para armazenamento em bloco superior a 64 TB como em massa. 2. 64 TB pode ser W / R para apenas uma VM e outras VMs podem ter somente Acesso de Leitura. 3. Se precisarmos de armazenamento BLOCK no GCP, temos que construir o Armazenamento do Ceph usando o Compute Engines como linha de base. 4. NFS ou Glueter podem ser usados para requisitos de armazenamento de arquivos.

Por favor corrija-me se o acima está errado.

    
por 27.08.2018 / 07:44
1

Um storage array pode, obviamente, apresentar LUNs menores para vários hosts, que provavelmente seriam VMs diferentes na nuvem. Vamos supor que, por algum motivo, você precise apresentar a coisa toda a um host.

Atualmente, os limites documentados são mais strongs do que os discos de 64 TB, são 64 TB total por instância e menos nos menores tipos de instância.

Storage Options

Most instances can have up to 64 TB of total persistent disk space attached.

Considere um sistema de arquivos de rede de vários nós para acessar mais do que isso. Armazenamento de objetos, como seus buckets de nuvem ou um protocolo baseado em arquivo, como NFS ou SMB.

O GCP tem uma visão geral de alguns produtos de arquivamento em sua plataforma. Esses não são os únicos opções, presumivelmente Ceph ou GlusterFS poderia funcionar também.

    
por 26.08.2018 / 05:35
1

Você pode criar duas instâncias Filestore (que são basicamente servidores NFS) e montá-las em vários hosts em leitura / gravação modo.

A outra opção seria lançar o seu próprio Gluster / Ceph ou solução de armazenamento semelhante.

    
por 26.08.2018 / 07:00
0

GCP Oferece até 64 TB anexado ao disco permanente padrão para cada instância .

Você pode usar Servidores de arquivos no Compute Engine ou chamar um arquivador de armazenamento. Isso proporciona maneira de os seus aplicativos lerem e atualizarem arquivos compartilhados entre máquinas. você pode compartilhar arquivos usando Cloud Storage ou Discos persistentes do Compute Engine

Cloud Storage

As leituras e gravações são feitas no arquivo inteiro em vez de nos deslocamentos, o que significa que é necessária uma substituição completa do arquivo ao fazer o upload.

Quando vários gravadores estão operando ao mesmo tempo, a última gravação ganha e sobrescreve as outras alterações no arquivo, a menos que você forneça seu próprio mecanismo de sincronização.

Se o seu aplicativo exigir acesso aos atributos de metadados do arquivo POSIX, como os registros de data e hora da última modificação, você deverá usar a API do Cloud Storage em vez de uma chamada de estatística no seu host.

discos permanentes do Compute Engine

Com discos permanentes, você pode anexar volumes nos modos leitura-gravação e somente leitura. Isso significa que você pode primeiro anexar um volume a uma instância, carregá-lo com os dados de que precisa e, em seguida, anexá-lo como um disco somente leitura a centenas de máquinas virtuais

Os protocolos mais comuns para exportar compartilhamentos de arquivos são o NFS (Network File System) para Linux e o CIFS (Common Internet File System) para Windows.

    
por 29.08.2018 / 17:28
0

Se a latência não for um problema e você não estiver usando uma instância do Windows, também poderá usar gcpfuse para mapear seu diretório de armazenamento para um intervalo do Cloud Storage. Dessa forma, você ainda tem armazenamento em block e não precisa usar vários discos permanentes.

Matthew Ulasien da LinuxAcademy tem uma ótima demonstração aqui .

Isso basicamente monta o intervalo do Cloud Storage no diretório especificado usando um comando simples (após a configuração).

gcsfuse example-bucket /path/to/mount
    
por 31.08.2018 / 06:52