enrola a origem da página a partir de um arquivo de texto contendo URLs

2

Eu tenho um arquivo de texto contendo até 100 URLs. Eu sou capaz de enrolar a fonte da página deles usando:

cat /path/to/url.txt|xargs curl -o /path/to/output.txt

Isso fará o download da origem da página para todos os URLs (como eu posso ver isso acontecendo na linha de comando), mas salvará (em output.txt ) a origem da página para o URL no topo da lista.

Como eu faria para salvar a origem da página para cada URL, seja no mesmo arquivo de texto ou, se necessário, em arquivos de texto individuais?

Obrigado,

    
por Lewandajo 06.11.2015 / 17:49

3 respostas

1

Com o GNU Parallel você pode obter vários URLs em paralelo e não precisa se preocupar com as saídas sendo misturadas:

cat /path/to/url.txt | parallel curl > /path/to/output.txt
    
por 12.11.2015 / 13:14
0
for i in $(cat urls.txt); do curl "$i" >> output.txt; done
    
por 12.11.2015 / 13:52
0

com uma lista simples de URLs em cada linha, isso deve fazer o trabalho e produzir tudo em um único arquivo:

while read in; do xargs curl -K "$in" >> /path/to/output.txt; done < /path/to/url.txt
    
por 06.11.2015 / 21:26

Tags