Baixando todas as imagens do site

4

Estou tentando baixar todas as imagens de um site

aqui é o site:

link

Eu tentei:

wget -nd -r -P /home/Pictures/ -A jpeg,jpg,bmp,gif,png https://wall.alphacoders.com/by_sub_category.php?id=173173&name=Naruto+Wallpapers
s

Mas não faz o download das imagens

resultado

HTTP request sent, awaiting response... 200 OK Length: unspecified [text/html] /home/Pictures: Permission denied/home/Pictures/by_sub_category.php?id=173173: No such file or directory

Cannot write to ‘/home/Pictures/by_sub_category.php?id=173173’ (No such file or directory).

    
por dragon 02.11.2016 / 20:31

1 resposta

1

Para baixar todas as imagens da página especificada com wget, você pode usar este comando:

wget -i 'wget -qO- https://wall.alphacoders.com/by_sub_category.php\?id\=173173\&name\=Naruto+Wallpapers | sed -n '/<img/s/.*src="\([^"]*\)".*//p''

Neste exemplo, o arquivo HTML é baixado com wget para STDOUT, analisado com sed para que somente img URL permaneça e transmitido para wget -i como uma lista de entrada para download.

Observe que ele fará o download apenas das imagens desta página, mas elas são apenas miniaturas (largura de 350 pixels).

Se desejar baixar imagens completas, você deve dar um passo à frente e alterar as URLs IMG analisadas para que correspondam às imagens de alta resolução. Você pode fazer isso com sed ou awk:

wget -i 'wget -qO- https://wall.alphacoders.com/by_sub_category.php\?id\=173173\&name\=Naruto+Wallpapers | sed -n '/<img/s/.*src="\([^"]*\)".*//p' | awk '{gsub("thumb-350-", "");print}''

O resultado da execução do último comando é um pacote de papéis de parede em HD no seu disco

    
por x1sn0tz 02.11.2016 / 22:49

Tags