Script Bash abortando por loop

0

Eu tenho o seguinte script:

#!/bin/bash -e
set -e
DATA_DIR=/home/admin/backup_avl_historico/data
DB_HOST=myHost
DB_USER=myPass

#extract table list
logger 'Extracting Table List'
psql -h $DB_HOST -U $DB_USER -c "select table_name from information_schema.tables where table_name like 'avl_historico_%';" -t -o $DATA_DIR/tables.list
array=($(wc -l $DATA_DIR/tables.list))
logger ''$array
total_tables=${array[0]}
logger 'Total tables: '$total_tables

#Get max date
max_date=$(psql -h $DB_HOST -U $DB_USER -t -c "select now() - interval '12 months'")
logger 'Max date: '$max_date

array=($max_date)
date=${array[0]}
logger 'Only date: '$date

#Dump each table
while read table_name
do
logger 'looping...'
        if [ ! -z "$table_name" ]; then
                logger 'Processing table '$table_name
                output=${table_name}_pre_${date}.csv
                psql -h $DB_HOST -U $DB_USER -t -F , -c "COPY (select * from reports.$table_name where fecha < '$max_date') TO STDOUT WITH CSV" -o ${DATA_DIR}/$output
                if [ -f ${DATA_DIR}/$output ];then
                        if test -s ${DATA_DIR}/$output
                        then
                                logger 'Deleting records'
                                psql -h $DB_HOST -U $DB_USER -c "delete from reports.$table_name where fecha < '$max_date'"
                                logger 'Gzipping '$output
                                pigz  ${DATA_DIR}/$output
                                logger 'Moving to S3'
                                aws s3 mv ${DATA_DIR}/$output.gz s3://my-bucket/avl_historico/
                                logger 'Vacuuming table'
                                psql -h $DB_HOST -U $DB_USER -c "vacuum full analyze reports.$table_name"
                        else
                                rm ${DATA_DIR}/$output
                        fi
                fi
        fi
done < $DATA_DIR/tables.list

O problema que estou tendo é que quando o PostgreSQL sai de uma instrução com o seguinte erro:

ERROR:  canceling statement due to lock timeout

O script inteiro é abortado e não continua com a próxima iteração de do do loop.

Qualquer ideia sobre como evitar essa condição de saída seria bem-vinda, portanto, o script poderia pular apenas uma iteração, mas continuar com o restante

    
por Gonzalo Vasquez 11.04.2017 / 19:08

1 resposta

2

Se você quiser que seu script execute todos os comandos, desconsiderando qualquer falha, remova os dois -e flags. Por outro lado, se você ainda quer terminar o script em caso de erro, mas quer pegar um específico (PostgreSQL no seu caso), deixe apenas um dos -e flags, não importa qual, mas um preferência pessoal está no script não no shebang, e o caminho para pegar o erro é adicionar um || (OR lógico) ao final do comando saindo com não 0. O que isso || fazer é se o anterior código de saída do comando não é 0 execute o seguinte:

psql -h $DB_HOST -U $DB_USER -c "delete from reports.$table_name where fecha < '$max_date'" || true

O exemplo acima irá capturar silenciosamente psql non 0 códigos de saída e continuar, você pode substituir o comando true por qualquer coisa que você queira (registre o erro, espere algum tempo, etc ...) com 0 ou você terminará na mesma situação. O comando true não faz absolutamente nada, apenas sai com o código 0.

    
por 11.04.2017 / 20:07