Existe uma solução alternativa para erros de "Limite de tamanho de arquivo excedido" ao usar db_dump185

1

Alguém já tentou atualizar um banco de dados antigo de Berkeley que deve ser despejado via db_dump185?

Quando tento despejar um banco de dados contendo comentários de um site, da seguinte maneira:

$ bash-3.2$ db_dump185 -f comment.dump comment.db 

Eu recebo este erro:

File size limit exceeded (core dumped)

Existe uma maneira de evitar isso?

Aqui está a saída de ulimit -a :

$ulimit -a

core file size          (blocks, -c) 200000
data seg size           (kbytes, -d) 200000
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 32743
max locked memory       (kbytes, -l) 32
max memory size         (kbytes, -m) 200000
open files                      (-n) 100
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 8192
cpu time               (seconds, -t) unlimited
max user processes              (-u) 20
virtual memory          (kbytes, -v) 200000
file locks                      (-x) unlimited

E esta é a base de dados:

$ ls -l comment.db 
-rwxr-xr-x 1 daiello staff 184393728 Jan 12 2012 comment.db

Eu quero ter certeza de que esta pergunta receba uma resposta. O que @Alan sugeriu que db_dump185 comment.db | cat > comment.dump realmente ajudou. Continuar com o despejo eventualmente consumiu toda a memória real disponível e a maior parte da troca.

Então, movemos os arquivos do banco de dados para um servidor maior e, em seguida, passamos para o erro db_dump185: seq: invalid argument temido. Eu não acredito que db_dump185 tenha uma função de reparo, mas eu não fiz toda a pesquisa que eu quero fazer ainda.

    
por Dave Aiello 15.08.2012 / 23:07

0 respostas

Tags