Atualização 4.215:
Depois de olhar para o uso do espaço dentro do hdfs, vejo que o .loglogs está usando muito espaço:
1485820612766 /hbase/.oldlogs
Então, novas perguntas:
- O que é isso?
- Como faço para limpá-lo?
- Como evito que ela cresça novamente
- O que o levou a começar a crescer em primeiro lugar?
- Também .arquivo também é grande, o que é isso, meus instantâneos?
Também como colecionador de objetos de casa, não monitorará o uso do espaço em disco de vários diretórios hdfs ....
Também parece que o erro a seguir começou a preencher os registros repetidamente nessa época, não tendo certeza do que eles significam exatamente:
2014-11-25 01:44:47,673 FATAL org.apache.hadoop.hbase.regionserver.wal.HLog: Could not sync. Requesting close of hlog
java.io.IOException: Reflection
at org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogWriter.sync(SequenceFileLogWriter.java:310)
at org.apache.hadoop.hbase.regionserver.wal.HLog.syncer(HLog.java:1405)
at org.apache.hadoop.hbase.regionserver.wal.HLog.syncer(HLog.java:1349)
at org.apache.hadoop.hbase.regionserver.wal.HLog.sync(HLog.java:1511)
at org.apache.hadoop.hbase.regionserver.wal.HLog$LogSyncer.run(HLog.java:1301)
at java.lang.Thread.run(Thread.java:744)
Caused by: java.lang.reflect.InvocationTargetException
at sun.reflect.GeneratedMethodAccessor30.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogWriter.sync(SequenceFileLogWriter.java:308)
... 5 more
Caused by: java.io.IOException: Failed to add a datanode. User may turn off this feature by setting dfs.client.block.write.replace-datanode-on-failure.policy in configuration, where the current policy is DEFAULT. (Nodes: current=[10.7.0.231:50010, 10.7.0.233:50010], original=[10.7.0.231:50010, 10.7.0.233:50010])
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.findNewDatanode(DFSOutputStream.java:857)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.addDatanode2ExistingPipeline(DFSOutputStream.java:917)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.setupPipelineForAppendOrRecovery(DFSOutputStream.java:1023)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.processDatanodeError(DFSOutputStream.java:821)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:463)
2014-11-25 01:44:47,673 ERROR org.apache.hadoop.hbase.regionserver.wal.HLog: Error while syncing, requesting close of hlog
Minha jornada:
No meu cluster HBASE que armazena dados openTSBD, meu espaço em disco começou a subir rapidamente (mesmo que pelo que eu possa dizer que nossa taxa de inserção tenha sido consistente):
OsdiscosqueestãoaumentandosãoosdiscosdearmazenamentoHDFS.Osdiretóriossãoaproximadamenteuniformementedimensionados.
MinhaconfiguraçãoéumclusterHBASE(feitocomcloudera)quepossui3máquinascomumfatordereplicaçãohdfsde3.Hátambémoutroclustercomumaúnicamáquinaparaaqualoclusterprincipalfazareplicação.Aréplicanãomostraessamesmamudançanocrescimento:
Estou tirando instantâneos no mestre, mas list_snapshots
do shell hbase não mostra nenhum retorno de mais de um dia, então acho que eles estão sendo escolhidos como deveriam. Minha experiência com o hbase não é ótima, alguma sugestão sobre o que mais procurar?
Fazendo progresso ... :
[root@ny-tsdb01 ~]# hadoop fs -dus /hbase/*
dus: DEPRECATED: Please use 'du -s' instead.
3308 /hbase/-ROOT-
377401 /hbase/.META.
220097161480 /hbase/.archive
0 /hbase/.corrupt
1537972074 /hbase/.logs
1485820612766 /hbase/.oldlogs
8948367 /hbase/.snapshot
0 /hbase/.tmp
38 /hbase/hbase.id
3 /hbase/hbase.version
192819186494 /hbase/tsdb
905 /hbase/tsdb-meta
899 /hbase/tsdb-tree
1218051 /hbase/tsdb-uid