Configurando o MPI em 2 nós

1

Estou tentando criar um "cluster" realmente simples a partir de 2 computadores multicore usando o openmpi.

Meu problema é que não consigo encontrar nenhum tutorial sobre esse assunto. Eu não quero usar torque porque não é necessário no meu caso, no entanto, todos os tutoriais fornecem detalhes de configuração sobre torque ou mpd (que não existem na implementação do openmpi).

Você poderia me dar algumas dicas ou links para os manuais apropriados?

Etapas que já concluí:
- instalação openmpi
- configuração de rede (computadores vêem um ao outro)
- Login ssh sem senha para o segundo computador

Eu tentei usar machinefiles sem configuração adicional e com apenas 2 IPs nele. Mas os trabalhos não parecem começar após a parte de inicialização. (MPI parece funcionar porque sou capaz de espalhar trabalhos em múltiplos núcleos de ambos os computadores sem comunicação entre eles).

    
por Michal 06.04.2012 / 13:05

1 resposta

0

A melhor solução para usar o OpenMPI em um número tão pequeno de máquinas é usar os comandos mpirun ou mpiexec, com ou sem um arquivo host. Isso deve funcionar e você não precisa de um gerenciador de processos de terceiros, como Torque ou Slurm.

Se o seu trabalho de MPI não estiver sendo iniciado, pode haver algo errado com a comunicação. Teste isso criando um arquivo host que contenha apenas sua máquina local, que deve atribuir todos os seus processos MPI ao seu host local. Além disso, antes de executar seu próprio trabalho MPI, comece com os trabalhos de exemplo fornecidos com o Open MPI.

Pode ser bastante complicado configurar o Open MPI. Em seu script de configuração, declare expressamente qual suporte de comunicação subjacente você precisa (por exemplo, sm e tcp). Quando você estiver executando seu trabalho, especifique quais canais o MPI deve usar. Especificando explicitamente esses valores, a MPI retornará um erro se houver algo errado.

Para começar a usar o mpirun, dê uma olhada na documentação do Open MPI da versão mais recente: link

    
por 05.02.2013 / 14:37

Tags