Como posso saber se o buffer do pipe está cheio?

10

Estou enviando a saída de um programa para algum Perl que eu escrevi. Este é um processo de longa duração, às vezes dias, por isso quero descobrir onde estão os meus afunilamentos e tentar abri-los. Eu quero saber se os dados estão sendo canalizados para o meu script mais rápido do que o meu script pode processá-lo. Se este for o caso, tentarei ajustar meu script, mas não se não precisar. Eu vejo falar sobre um sinalizador sendo definido quando o buffer está cheio que impede mais gravações, mas como faço para verificar se ou com que frequência esse sinalizador está definido? Alguma idéia?

    
por Dan Sphar 14.09.2011 / 22:47

2 respostas

9

Eu traçaria seu script Perl com uma ferramenta de rastreamento de chamada do sistema: strace (Linux), dtruss (OS X), ktrace (FreeBSD), truss (Solaris), etc. seja para ver quanto tempo seu script Perl gasta aguardando a leitura de seu stdin e quanto tempo o outro programa gasta esperando para gravar em seu stdout.

Aqui estou testando isso com o escritor como o gargalo:

terminal 1$ gzip -c < /dev/urandom | cat > /dev/null

terminal 2$ ps auxw | egrep 'gzip|cat'
slamb    25311 96.0  0.0  2852  516 pts/0    R+   23:35   3:40 gzip -c
slamb    25312  0.8  0.0  2624  336 pts/0    S+   23:35   0:01 cat

terminal 2$ strace -p 25312 -s 0 -rT -e trace=read
Process 25312 attached - interrupt to quit
     0.000000 read(0, ""..., 4096) = 4096 <0.005207>
     0.005531 read(0, ""..., 4096) = 4096 <0.000051>

O primeiro número aqui é o tempo desde o início do syscall anterior, e o último número é o tempo gasto no syscall. Então podemos pós-processar com Perl um pouco para agregar ... [*]

terminal 2$ strace -p 25312 -s 0 -rT -e trace=read 2>&1 | perl -nle 'm{^\s*([\d.]+) read\(0, .*<([\d.]+)>} or next; $total_work += $1 - $last_wait; $total_wait += $2; $last_wait = $2; print "working for $total_work sec, waiting for $total_wait sec"; $last_wait = $2;'
working for 0 sec, waiting for 0.005592 sec
...
working for 0.305356 sec, waiting for 2.28624900000002 sec
...

terminal 2$ strace -p 25311 -s 0 -rT -e trace=write 2>&1 | perl -nle 'm{^\s*([\d.]+) write\(1, .*<([\d.]+)>} or next; $total_work += $1 - $last_wait; $total_wait += $2; $last_wait = $2; print "working for $total_work sec, waiting for $total_wait sec"; $last_wait = $2;'
...
working for 5.15862000000001 sec, waiting for 0.0555740000000007 sec
...

Você poderia ir mais extravagante e fazer um script SystemTap ou DTrace que rastreia ambos os lados de uma só vez, apenas rastreia o descritor de arquivo correto e imprime uma boa atualização de status a cada segundo com a porcentagem de tempo que cada um esperava pelo outro .

[*] - Atenção: minha agregação bruta não está bem se a leitura / gravação está sendo chamada em outros descritores de arquivo; subestimará o tempo de trabalho nesse caso.

A versão do dtrace é bem legal, na verdade.

terminal 1$ gzip -c < /dev/urandom | cat > /dev/null

terminal 2$ ps aux | egrep 'gzip| cat'
slamb    54189  95.8  0.0   591796    584 s006  R+   12:49AM  22:49.55 gzip -c
slamb    54190   0.4  0.0   599828    392 s006  S+   12:49AM   0:06.08 cat

terminal 2$ cat > pipe.d <<'EOF'
#!/usr/sbin/dtrace -qs

BEGIN
{
  start = timestamp;
  writer_blocked = 0;
  reader_blocked = 0;
}

tick-1s, END
{
  this->elapsed = timestamp - start;
  printf("since startup, writer blocked %3d%% of time, reader %3d%% of time\n",
         100 * writer_blocked / this->elapsed,
         100 * reader_blocked / this->elapsed);
}

syscall::write:entry
/pid == $1 && arg0 == 1/
{
  self->entry = timestamp;
}

syscall::write:return
/pid == $1 && self->entry != 0/
{
  writer_blocked += timestamp - self->entry;
  self->entry = 0;
}

syscall::read:entry
/pid == $2 && arg0 == 0/
{
  self->entry = timestamp;
}

syscall::read:return
/pid == $2 && self->entry != 0/
{
  reader_blocked += timestamp - self->entry;
  self->entry = 0;
}
EOF

terminal 2$ chmod u+x pipe.d
terminal 2$ sudo ./pipe.d 54189 54190
since startup, writer blocked   0% of time, reader  98% of time
since startup, writer blocked   0% of time, reader  99% of time
since startup, writer blocked   0% of time, reader  99% of time
since startup, writer blocked   0% of time, reader  99% of time
since startup, writer blocked   0% of time, reader  99% of time
^C
since startup, writer blocked   0% of time, reader  99% of time

E a versão do SystemTap:

terminal 1$ gzip -c /dev/urandom | cat > /dev/null

terminal 2$ ps auxw | egrep 'gzip| cat'
slamb     3405  109  0.0   4356   584 pts/1    R+   02:57   0:04 gzip -c /dev/urandom
slamb     3406  0.2  0.0  10848   588 pts/1    S+   02:57   0:00 cat

terminal 2$ cat > probes.stp <<'EOF'
#!/usr/bin/env stap

global start
global writer_pid
global writes
global reader_pid
global reads

probe begin {
  start = gettimeofday_us()
  writer_pid = strtol(argv[1], 10)
  reader_pid = strtol(argv[2], 10)
}

probe timer.s(1), end {
  elapsed = gettimeofday_us() - start
  printf("since startup, writer blocked %3d%% of time, reader %3d%% of time\n",
         100 * @sum(writes) / elapsed,
         100 * @sum(reads) / elapsed)
}

probe syscall.write.return {
  if (pid() == writer_pid && $fd == 1)
    writes <<< gettimeofday_us() - @entry(gettimeofday_us())
}

probe syscall.read.return {
  if (pid() == reader_pid && $fd == 0)
    reads <<< gettimeofday_us() - @entry(gettimeofday_us())
}
EOF

terminal 2$ chmod a+x probes.stp
terminal 2$ sudo ./pipe.stp 3405 3406
since startup, writer blocked   0% of time, reader  99% of time
...
    
por 15.09.2011 / 08:53
3

Você pode inserir um comando pv -TC em sua linha de tubulação:

cmd1 | pv -TC | cmd2

pv usa seu próprio buffer e -T faz com que ele informe como está cheio, em média, em períodos de 1 segundo (por padrão).

Se é sempre 100%, significa que cmd1 é mais rápido na produção do que cmd2 ao consumi-lo. Se não, então é o contrário. Cuidado com o fato de que os canos podem conter 64kB.

Veja também -B para especificar o tamanho do buffer de pv . Você pode usar vários pv s como em:

$ cmd1 | pv -cCTrbN 'cmd1 -> cmd2' | cmd2 | pv -cCTrbN 'cmd2 -> cmd3' | cmd3
cmd1 -> cmd2: 1.92GiB { 53%} [ 387MiB/s]
cmd2 -> cmd3: 1.92GiB {  0%} [ 387MiB/s]
    
por 25.08.2014 / 13:19

Tags