Como posso buscar as imagens de um site público usando o wget?

4

Como posso buscar as imagens de um site público usando o wget? Não é um site enorme: tem cerca de 40 páginas, com cerca de três imagens por página.

Eu quero evitar:

  1. Fazendo o download manual das imagens
  2. Download de todo o site

Alguma idéia?

    
por 3498DB 11.09.2009 / 03:30

4 respostas

7

Você pode usar wget e informá-lo apenas para arquivos de imagem ou usar http://www.downthemall.net/

De link

You want to download all the GIFs from a directory on an HTTP server. You tried 'wget http://www.server.com/dir/*.gif', but that didn't work because HTTP retrieval does not support globbing. In that case, use:

wget -r -l1 --no-parent -A.gif http://www.server.com/dir/

Mais detalhado, mas o efeito é o mesmo. -r -l1' means to retrieve recursively (see section 3. Recursive Retrieval), with maximum depth of 1. - no-parent 'significa que as referências ao diretório pai são ignoradas (consulte a seção 4.3 Limites Baseados em Diretório) e -A.gif' means to download only the GIF files. -A "* .gif"' também funcionaria.

    
por 11.09.2009 / 03:44
1

Eu escrevo um utilitário chamado ifetch, você pode tentar. link

    
por 18.10.2011 / 03:41
0
por 11.09.2009 / 03:43
0

veja este .

O segundo modelo é todas as imagens do site . Eu acho que é isso que você queria?

    
por 19.09.2009 / 20:41

Tags