o cluster ceph foi criado, OSDs foram inicializados, mas o espaço total do cluster mostra 0 bytes disponíveis

0

Estou tentando criar um cluster ceph.
Instalei o ceph em 3 computadores e adicionei seus nomes aos arquivos hosts.
Criado login sem senha ssh.
Instalado e configurado servidor ntp e verificado, que todos os computadores mostram o mesmo horário / fuso horário. Instalei o ceph e criei mons em todos os hosts, que fazem parte do cluster ceph com o ceph-deploy.
discos zapped, alocados para ceph em cada comp e criaram osds neles.
Verificado, os osds foram criados nesses discos.

O status do ceph mostra health_warn, mesmo após a reinicialização de todos os computadores e vários dias se passaram. Além disso, mostra que tenho vários osds disponíveis, mas nenhum deles está ativo. pgmap mostra 0 bytes usados / disponíveis / total.
rados lspools mostra apenas uma piscina: rbd.
rados -p rbd ls: congela a saída. O cursor fica pendurado para sempre. Eu tentei esperar até por algumas horas. Não listou nada e não saiu do comando. A reinicialização não ajudou.
Tentei zap e osd criar mais uma vez. Não ajudou, apenas no status ceph, agora mostra duas vezes mais osds, antes eram.

O que eu fiz errado. Eu fiz tudo passo a passo do livro: "Learning Ceph - 2015" (Karan Singh), exceto que ele usa VMs, mas eu estou usando metal e eu mudei todos os comandos / configs baseados em radhat, livro para debian (Ubuntu 15.10). Minha versão do ceph é o padrão, que vem do repositório do servidor Ubuntu v0.94.5
Minha versão atual do ceph é baseada

    
por igoryonya 20.03.2016 / 07:07

1 resposta

0

OK, com ajuda no canal de IRC do ceph, descobri que o Ubuntu mudou sua inicialização durante o lançamento do sistema para o upstart. Por esse motivo, o antigo modo de lançamento de serviços não funciona mais, então os OSDs não foram lançados. Há uma página de solução de problemas no site do ceph, explicando o que fazer em uma nova sutu- lização: link

Eu lancei OSDs com ajuda dessa página. Depois disso, os OSDs mudaram de status para up e o cluster mostrou que não tem mais 0 bytes, mas me deparei com outro problema. O cluster não inicializa completamente, para que eu possa usá-lo. Mostra avisos de saúde e alguns detalhes desse aviso. Comando de inicialização:

status ceph

mostra:

 health HEALTH_WARN                                                                                                                │
        10 pgs degraded                                                                                                            │
        63 pgs stale                                                                                                               │
        10 pgs stuck degraded                                                                                                      │
        1 pgs stuck inactive                                                                                                       │
        63 pgs stuck stale                                                                                                         │
        18 pgs stuck unclean                                                                                                       │
        10 pgs stuck undersized                                                                                                    │
        10 pgs undersized                                                                                                          │
    
por igoryonya 23.03.2016 / 22:52