Lista de links para imagens no site com o wget

1

Eu tenho uma pergunta, por mais que eu não consiga pensar em como colocar todos os links de fotos em uma lista , eu fiz essa pergunta antes, mas ela foi marcada como duplicada para postar onde OP pediu para baixar todas as fotos.

Eu tentei wget -r -P /save/location -A jpeg,jpg http://www.domain.com , mas é apenas fazer o download para o computador. Como posso extrair uma lista de todas as imagens para um arquivo?

    
por Benas Gasiūnas 14.10.2014 / 15:22

1 resposta

3

usa a opção spider e canaliza a saída para o grep para obter apenas os links deles

wget --spider --force-html -r -l2 "www.domain.com" 2>&1   | grep '^--' | awk '{ print $3 }'   | grep '\.\(jpeg\|jpg\)$'

isto irá mostrar todos os links para a saída padrão, você direciona para um arquivo:

wget --spider --force-html -r -l2 "www.domain.com" 2>&1   | grep '^--' | awk '{ print $3 }'   | grep '\.\(jpeg\|jpg\)$'>links.txt
    
por 14.10.2014 / 15:53

Tags