Noções básicas sobre pipe (para arquivos grandes)

0

Meu entendimento do pipe é, todos os comandos canalizados são chamados em paralelo e stdout de cada comando é alimentado para o próximo comando como stdin. Ao processar arquivos grandes, partes iniciais dos dados podem ser feitas com o processamento, enquanto algumas partes dos dados ainda estão nos estágios iniciais do pipeline. Esta é uma imagem correta do que acontece?

Então, o que acontece quando se usa um comando (por exemplo, classificação) que precisa de toda a sua entrada de uma vez, em vez de trabalhar linha por linha? Funcionará em pequenos pedaços e os encaminhará ou esperará até que o comando anterior seja feito passando todos os dados? Se esperar, como os dados de espera são tratados? Está armazenado na RAM? O pipe tem um limite superior para o tamanho dos dados?

    
por Macond 21.10.2017 / 09:44

0 respostas