Como salvar imagens em massa a partir de URLs

2

Eu tenho 1.200 URLs que apontam para imagens. Eu gostaria de salvá-los todos no meu disco rígido. Como posso fazer isso com uma operação em massa?

    
por Chris 28.12.2009 / 18:12

3 respostas

0

Confira o HTTrack para obter uma opção de interface gráfica. Se você não se importar em usar a linha de comando, o wget pode aceitar um arquivo de texto como entrada (com o -i switch) contendo uma lista de URLs para download.

    
por 28.12.2009 / 18:17
0

No Unix ou no cygwin, você pode usar o wget para obter o conteúdo de um URL. Acredito que algo tão simples como cat list_of_urls.txt | wget provavelmente faria o que você precisa.

    
por 28.12.2009 / 18:49
0

Curl , wget , busca , snarf , lynx para Unix / Linux e portado para Cygwin ou Mingw para Windows.

    
por 07.03.2010 / 21:15

Tags