Como determinar a causa da falha do sistema?

5

Meu servidor trava uma vez por semana e não deixa qualquer pista sobre o que está causando isso. Eu verifiquei o /var/log/messages e ele simplesmente para de gravar em algum momento e começa na informação de postagem do computador quando eu executo um hard reboot.

Existe algo que eu possa verificar ou software que eu possa instalar para determinar a causa?

Estou executando o CentOS 7.

Este é o único erro / problema no meu link /var/log/dmesg :

[    3.606936] md: Waiting for all devices to be available before autodetect
[    3.606984] md: If you don't use raid, use raid=noautodetect
[    3.607085] md: Autodetecting RAID arrays.
[    3.608309] md: Scanned 6 and added 6 devices.
[    3.608362] md: autorun ...
[    3.608412] md: considering sdc2 ...
[    3.608464] md:  adding sdc2 ...
[    3.608516] md: sdc1 has different UUID to sdc2
[    3.608570] md:  adding sdb2 ...
[    3.608620] md: sdb1 has different UUID to sdc2
[    3.608674] md:  adding sda2 ...
[    3.608726] md: sda1 has different UUID to sdc2
[    3.608944] md: created md2
[    3.608997] md: bind<sda2>
[    3.609058] md: bind<sdb2>
[    3.609116] md: bind<sdc2>
[    3.609175] md: running: <sdc2><sdb2><sda2>
[    3.609548] md/raid1:md2: active with 3 out of 3 mirrors
[    3.609623] md2: detected capacity change from 0 to 98520989696
[    3.609685] md: considering sdc1 ...
[    3.609737] md:  adding sdc1 ...
[    3.609789] md:  adding sdb1 ...
[    3.609841] md:  adding sda1 ...
[    3.610005] md: created md1
[    3.610055] md: bind<sda1>
[    3.610117] md: bind<sdb1>
[    3.610175] md: bind<sdc1>
[    3.610233] md: running: <sdc1><sdb1><sda1>
[    3.610714] md/raid1:md1: not clean -- starting background reconstruction
[    3.610773] md/raid1:md1: active with 3 out of 3 mirrors
[    3.610854] md1: detected capacity change from 0 to 20970405888
[    3.610917] md: ... autorun DONE.
[    3.610999] md: resync of RAID array md1
[    3.611054] md: minimum _guaranteed_  speed: 1000 KB/sec/disk.
[    3.611119] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for resync.
[    3.611180] md: using 128k window, over a total of 20478912k.
[    3.611244]  md1: unknown partition table
[    3.624786] EXT3-fs (md1): error: couldn't mount because of unsupported optional features (240)
[    3.627095] EXT2-fs (md1): error: couldn't mount because of unsupported optional features (244)
[    3.630284] EXT4-fs (md1): INFO: recovery required on readonly filesystem
[    3.630341] EXT4-fs (md1): write access will be enabled during recovery
[    3.819411] EXT4-fs (md1): orphan cleanup on readonly fs
[    3.836922] EXT4-fs (md1): 24 orphan inodes deleted
[    3.836975] EXT4-fs (md1): recovery complete
[    3.840557] EXT4-fs (md1): mounted filesystem with ordered data mode. Opts: (null)
    
por Brian Graham 17.04.2017 / 10:30

3 respostas

2

Você pode verificar o arquivo dmesg em /var/log/dmesg , que está registrando as mensagens do kernel. O log de mensagens é apenas o registro de mensagens de serviço e aplicativo e, se você tiver um erro de kernel, os serviços e aplicativos simplesmente deixarão de ser executados, mas o erro do kernel ainda será registrado no dmesg.

    
por 17.04.2017 / 11:59
2

Se você tem crashkernel/kdump instalado e habilitado, você deve ser capaz de examinar o kernel travado com relativa facilidade usando o utilitário crash . Por exemplo, presumindo que você caiu, os dumps do kernel são salvos em /var/crash : crash /var/crash/2009-07-17-10\:36/vmcore /usr/lib/debug/lib/modules/ uname -r /vmlinux .

Dê uma olhada aqui e aqui para detalhes adicionais.

    
por 17.04.2017 / 23:41
0
  • teste de memória do BIOS
  • teste da unidade de disco rígido da bios
  • Verifique o log da unidade inteligente smartctl /dev/sda -a
  • Teste inteligente testes
  • deixe dmesg -wH em execução em uma janela
por 17.04.2017 / 22:51