Adicionada capacidade de disco expandida ao RHEL7

1

Eu tenho um cluster do Hadoop que está ficando rapidamente sem espaço. Esse cluster é criado em VMs do RHEL7 no Compute Engine do GCP (Google Cloud Platform). Eu provisionei originalmente o cluster com unidades de 10Gb em 4 nós, mas isso não parece ser suficiente, já que a Ambari está me dizendo que o HDFS está 86% cheio, mesmo que eu ainda não tenha carregado nenhum dado. De qualquer forma, entrei no console do GCP e 'expandi meus' drives para 20Gb em cada nó. Acho que tenho duas perguntas: 1) Como montar a capacidade adicional no RHEL? 2) Como eu digo ao HDFS / Ambari para usar a nova capacidade?

Quando eu executo 'fdisk -l', posso ver a unidade expandida fdisk -l Mas não vejo isso em df -h df -h O que faz sentido, já que ainda não foi montado.

Minha confusão vem com o fdisk. Todos os 20Gb aparecem em / dev / sda1, mas df mostra apenas 10Gb. Como faço para montar a capacidade extra se o fdisk já mostra a capacidade como sendo particionado? Desde que eu cresci um disco existente em vez de adicionar um novo, isso estraga tudo?

findmnt fdisk

    
por Michael Wong 24.05.2018 / 20:21

2 respostas

0

A partição foi expandida, mas não o sistema de arquivos em cima dela. Use o comando apropriado para expandi-lo. Com ext4 (e alguns outros) você usaria o comando resizefs. Não tenho certeza sobre hdfs.

    
por 26.05.2018 / 00:56
0

As etapas a seguir sobre Como redimensionar o sistema de arquivos e as partições em um disco permanente deve guiá-lo através do processo de redimensionamento do DP.

Nota: Após a sessão de comando fdisk (que faz alterações na tabela de partições) e antes de reler a tabela de partições, use o comando partprobe para notificar o Kernel sobre a alteração da seguinte forma:

demo@google-my-disk:~$ sudo partprobe /dev/sda1 

e confirme as alterações:

demo@google-my-disk:~$ sudo fdisk -l 

E de acordo com "

How you can tell HDFS/Ambari to use the new capacity?

Comece identificando o disco com o sistema de arquivos e a partição usando o seguinte comando:

$ df -h

Você precisa aumentar / espaço em casa. Instruções passo a passo podem ser encontradas na seguinte postagem sobre Como aumentar a capacidade do HDFS

    
por 15.06.2018 / 01:43