Eu usei a opção --table para o pg_dump, como sugerido por Mark Wagner.
Eu tenho um banco de dados em execução no postgres (8.4) e quero backups regulares de partes desses dados. Temos dados muito importantes dos quais precisamos de backups regulares, caso o hardware pegue fogo. Mas o mesmo banco de dados contém uma enorme quantidade de dados binários para cada entrada que cresce muito rápido (facilmente mais do que um GB por dia). Agora, esses dados não são tão críticos. Se a perdermos, é obviamente irritante, mas seria aceitável.
Existe uma maneira fácil de fazer backup de algumas das nossas tabelas com postgres, ou eu tenho que escrever manualmente as consultas para copiar tudo em algum lugar antes que eu possa pgdump?
Bônus: Se a grande tabela binária pudesse apenas fazer o backup das últimas entradas X, isso seria perfeito, mas tenho certeza de que terei que fazer algo tão complexo quanto isso manualmente.
Você pode tentar o comando COPY , mas note que isso é uma droga para backups incrementais.
Outra opção (possivelmente melhor dependendo) pode ser um servidor hot standby que você encerra e faz backups (no nível do sistema de arquivos) periodicamente - Isso permite usar ferramentas mais inteligentes que podem levar um diff binário dos arquivos da tabela DB e não tem que sugar a coisa toda toda vez que você faz um backup.
A outra vantagem é que você tem um caminho de recuperação bem conhecido e bem suportado desta maneira: -)
Tags backup postgresql