Eu determinei que simplesmente atingimos o limite do sistema. Nós movemos os dados para um EMC SAN LUN e agora é uma ordem de magnitude mais rápida.
Tenho relatos de que a E / S em um determinado sistema de arquivos, a saber, / srv / data1, é intermitentemente horrível. Eu já vi isso e é verdade. Por exemplo, eu corro 'ls' / srv / data1 e a saída leva 30 + segundos para aparecer. Eu corro de novo e desta vez, sem demora. Os períodos de OK e horrível são curtos e circulam rapidamente.
/ srv / data1 é um OCFS2 de 500GB em / dev / drbd1, que por sua vez está em systemA: / dev / md3 e systemB: / dev / md3. A e B são idênticos Dell R610s executando o SLES11. Em ambos, A e B / dev / md3 é um espelho de / dev / sdc1 e / dev / sdd1. E essas são unidades SATA de 500 GB usadas para mais nada. O controlador HDD é o PERC 6 / iR da Dell.
Este é um servidor mestre ocupado e ocupado do Subversion e os atrasos estão quebrando alguns processos que mantêm servidores proxy remotos em sincronia com este mestre. Isso está causando problemas para as equipes de desenvolvimento.
Alguma opinião?
Obrigado Mike
Você está montando com opções padrão? Se houver vários nós no cluster ocfs2 e atividades de gravação, tente usar a opção noatime ou outras opções de tempo relativo modificado pelo menos.
Tags software-raid drbd ocfs2 sles11