Enquanto trabalhei em um script completamente diferente, aprendi que, com 29 milhões de linhas de texto, usar seek()
e operar em dados bytewise geralmente é mais rápido do que linha a linha. A mesma ideia é aplicada no script abaixo: nós abrimos o arquivo e, em vez de fazer um loop por meio de abrir e fechar o arquivo (o que pode adicionar sobrecarga, mesmo que não seja significativo), mantemos o arquivo aberto e procuramos voltar ao início.
#!/usr/bin/env python3
from __future__ import print_function
import sys,os
def error_out(string):
sys.stderr.write(string+"\n")
sys.exit(1)
def read_bytewise(fp):
data = fp.read(1024)
print(data.decode(),end="",flush=True)
while data:
data = fp.read(1024)
print(data.decode(),end="",flush=True)
#fp.seek(0,1)
def main():
howmany = int(sys.argv[1]) + 1
if not os.path.isfile(sys.argv[2]):
error_out("Needs a valid file")
fp = open(sys.argv[2],'rb')
for i in range(1,howmany):
#print(i)
fp.seek(0)
read_bytewise(fp)
fp.close()
if __name__ == '__main__': main()
O script em si é bastante simples de usar:
./repeat_text.py <INT> <TEXT.txt>
Para arquivos de texto de 3 linhas e 1000 iterações, tudo fica bem por volta de 0,1 segundos:
$ /usr/bin/time ./repeat_text.py 1000 input.txt > /dev/null
0.10user 0.00system 0:00.23elapsed 45%CPU (0avgtext+0avgdata 9172maxresident)k
0inputs+0outputs (0major+1033minor)pagefaults 0swaps
O script em si não é mais elegante, provavelmente poderia ser encurtado, mas funciona. É claro que adicionei alguns bits extras aqui e ali, como error_out()
function, o que não é necessário - é apenas um pequeno toque amigável.