Como posso baixar e salvar todas as imagens mostradas em uma página da web?

0

Quero fazer download das imagens exibidas em uma página da Web, por exemplo, link , (os que se encontram no separador Todos os trabalhos de arte ), e armazene-os numa pasta (por exemplo / home / boomer / GH / A_nou / ).

Como posso conseguir isso?

Eu posso usar wget ou curl para isso, mas infelizmente não tenho ideia do que fazer com eles.

Além disso, não quero as imagens intermediárias (banners, logotipos, etc. ), apenas imagens em tamanho real para tudo sob a seção de ilustrações.

    
por kwonli 28.10.2017 / 17:44

1 resposta

1

Olhe na fonte, procure por .jpg" e você verá todas as imagens lá, observe que elas estão entre aspas duplas. Então, salve o código HTML no seu computador, escolhi /tmp/test_art.html e eu pesquiso " , substituo por newline, depois grep todas as linhas que terminam com jpg , depois passe todas as linhas para wget:

wget $(sed 's/"/\n/g;' /tmp/test_art.html| grep 'jpg$')

Isso é realmente trivial, claro, algum sed guru virá em breve e criará um forro único, economizando o grep ... Eu acho que é muito trabalho para coisas ad hoc como essa ... rápido e sujo.

Você abre um terminal e altera o diretório para o diretório em que deseja armazenar os arquivos:

cd /home/boomer/GH/A_nou/

Então você executa o comando acima.

    
por 28.10.2017 / 18:23