Configuração de brilho e HPC

0

Eu tenho um cluster HPC com 22 nós e um nó principal como um mestre executando o Rocks Cluster OS (que é baseado no CentOS ).

Os nós e o mestre se comunicam com a rede privada ( 10.10.0.0/16 ). E nós ssh ao servidor com rede pública roteada ( 192.168.xxx.xxx/24 ) e essa rede não é roteada para os nós do trabalhador.

Agora, nossos dados alcançaram seu limite, não podemos adicionar mais disco ao mestre.

Agora, queremos criar um cluster de brilho que consiste em 2 OSS e um MDS. Minha pergunta é ...

Precisamos conectar o Lustre OSS e o MDS à mesma rede com os nós HPC ( 10.10.0.0/16 ), para que os nós possam montar nosso novo LustreFS como clientes Lustre?

Ou podemos apenas montar os clientes do Lustre no nó mestre e compartilhar o Lustre através do NFS para os nós de trabalho do HPC?

Teremos outro cliente Lustre fora do ambiente HPC, portanto, configuraremos o Lustre em 192.168.xxx.xxx/24 .

Alguma sugestão?

    
por luthfi.imanal 29.01.2018 / 09:35

1 resposta

0

Do we have to connect the Lustre OSS, and MDS to the same network with the HPC nodes (10.10.0.0/16), so that the nodes can mount our new LustreFS as Lustre clients?

Como o Lustre é um sistema de arquivos paralelo para alto desempenho e a rede de cluster é de alguma forma privada, sim.

Or we can just mount the Lustre clients on the master node, and share the Lustre trough NFS for the HPC worker nodes?

Para um sistema de arquivos paralelo, não, isso não é algo viável.

    
por 06.03.2018 / 19:06