Quando eu inicio o corosync, todos os servidores entram em pânico com os core dumps

1

Eu atualizei meus servidores. Então eu iniciei o serviço corosync um por um em meus servidores. Eu comecei primeiro no servidor 3 e espero 5 min. Então eu comecei próximo 4 corosync em outros servidores e 7 servidor caiu no mesmo tempo. Estou usando o corosync desde 5 anos. Eu estava usando;

Kernel: 4.14.32-1-lts
Corosync 2.4.2-1 
Pacemaker 1.1.18-1

e eu nunca vi isso antes. Eu acho que algo está quebrado na nova versão corosync realmente muito ruim!

Kernel: 4.14.70-1-lts
Corosync 2.4.4-3 
Pacemaker 2.0.0-1

-

Este é o meu corosync.conf: link Você pode me dizer como posso encontrar o motivo do problema?

Sep 25 08:56:03 SRV-2 corosync[29089]:   [TOTEM ] A new membership (10.10.112.10:56) was formed. Members joined: 7
Sep 25 08:56:03 SRV-2 corosync[29089]:   [VOTEQ ] Waiting for all cluster members. Current votes: 7 expected_votes: 28
Sep 25 08:56:03 SRV-2 corosync[29089]:   [VOTEQ ] Waiting for all cluster members. Current votes: 7 expected_votes: 28
Sep 25 08:56:03 SRV-2 corosync[29089]:   [VOTEQ ] Waiting for all cluster members. Current votes: 7 expected_votes: 28
Sep 25 08:56:03 SRV-2 corosync[29089]:   [VOTEQ ] Waiting for all cluster members. Current votes: 7 expected_votes: 28
Sep 25 08:56:03 SRV-2 corosync[29089]:   [QUORUM] Members[7]: 1 2 3 4 5 6 7
Sep 25 08:56:03 SRV-2 corosync[29089]:   [MAIN  ] Completed service synchronization, ready to provide service.
Sep 25 08:56:03 SRV-2 corosync[29089]:   [VOTEQ ] Waiting for all cluster members. Current votes: 7 expected_votes: 28
Sep 25 08:56:03 SRV-2 systemd[1]: Created slice system-systemd\x2dcoredump.slice.
Sep 25 08:56:03 SRV-2 systemd[1]: Started Process Core Dump (PID 43798/UID 0).
Sep 25 08:56:03 SRV-2 systemd[1]: corosync.service: Main process exited, code=dumped, status=11/SEGV
Sep 25 08:56:03 SRV-2 systemd[1]: corosync.service: Failed with result 'core-dump'.
Sep 25 08:56:03 SRV-2 kernel: watchdog: watchdog0: watchdog did not stop!
Sep 25 08:56:03 SRV-2 systemd-coredump[43799]: Process 29089 (corosync) of user 0 dumped core.

                                                      Stack trace of thread 29089:
                                                      #0  0x0000000000000000 n/a (n/a)
Write failed: Broken pipe


coredumpctl info
           PID: 23658 (corosync)
           UID: 0 (root)
           GID: 0 (root)
        Signal: 11 (SEGV)
     Timestamp: Mon 2018-09-24 09:50:58 +03 (1 day 3h ago)
  Command Line: corosync
    Executable: /usr/bin/corosync
 Control Group: /system.slice/corosync.service
          Unit: corosync.service
         Slice: system.slice
       Boot ID: 79d67a83f83c4804be6ded8e6bd5f54d
    Machine ID: 9b1ca27d3f4746c6bcfcdb93b83f3d45
      Hostname: SRV-1
       Storage: /var/lib/systemd/coredump/core.corosync.0.79d67a83f83c4804be6ded8e6bd5f54d.23658.153777185>
       Message: Process 23658 (corosync) of user 0 dumped core.

                Stack trace of thread 23658:
                #0  0x0000000000000000 n/a (n/a)

           PID: 5164 (corosync)
           UID: 0 (root)
           GID: 0 (root)
        Signal: 11 (SEGV)
     Timestamp: Tue 2018-09-25 08:56:03 +03 (4h 9min ago)
  Command Line: corosync
    Executable: /usr/bin/corosync
 Control Group: /system.slice/corosync.service
          Unit: corosync.service
         Slice: system.slice
       Boot ID: 2f49ec6cdcc144f0a8eb712bbfbd7203
    Machine ID: 9b1ca27d3f4746c6bcfcdb93b83f3d45
      Hostname: SRV-1
       Storage: /var/lib/systemd/coredump/core.corosync.0.2f49ec6cdcc144f0a8eb712bbfbd7203.5164.1537854963>
       Message: Process 5164 (corosync) of user 0 dumped core.

                Stack trace of thread 5164:
                #0  0x0000000000000000 n/a (n/a)

Eu não consigo encontrar mais log, então não consigo entender o problema.

    
por Morphinz 25.09.2018 / 12:03

1 resposta

0

Após o downgrade para o problema "corosync 2.4.2-1" resolvido. Por que vocês votam "-" para o tópico? Foi tão claro e como você vê, foi culpa do corosync ou o construtor de arco.

O que acontecer se você estiver com o problema, faça o downgrade e economize seu tempo.

    
por 11.10.2018 / 14:29