Você dificilmente poderia obter bons resultados usando a abordagem de força bruta que a maioria dos comandos one-liner daria (embora eu use a opção wget para obter todo o site).
Eu sugiro que você crie um script que use alguma forma de seleção condicional e faça um loop para realmente corresponder e seguir o tipo de links que levam às imagens que você deseja.
A estratégia que costumo seguir:
- No navegador, vá para a primeira página de interesse e mostre o código-fonte;
- Clique com o botão direito em uma imagem - > "Propriedades da imagem" - > localize os atributos 'src =' e as tags de imagem.
- Obtenha o padrão geral dessas tags / links / hrefs e use um pouco de regex (
grep -o
) para analisar os links;
- Use esses links com algum comando para baixar as imagens;
- Obtenha também os links na página que levam para outras páginas;
- Repetir.
Isso é realmente muito mais complicado do que um one-liner que leva tudo, mas a experiência é esclarecedora. O webscraping é uma arte em si mesmo.
Para isso, também, eu recomendaria o Python, embora seja perfeitamente possível fazê-lo com Shell Script (bash) se você preferir, ou qualquer outra linguagem de script (Ruby, PHP, perl, etc.). / p>
Espero que isso ajude.