Você pode usar curl
, wget
ou algo semelhante.
Aqui estão algumas perguntas semelhantes:
Obtendo arquivos, todos em uma vez, de uma página da Web usando curl
Como baixar todos os arquivos (mas sem HTML) de um site usando o wget
Como faço para usar o wget para baixar todos os links do meu site e salvar em um arquivo de texto?
Então você poderia fazer assim:
curl --recursive --level 2 http://123.4.5.6/3/4
ou usando argumentos curtos
curl -r -l 2 http://123.4.5.6/3/4
Na verdade, isso não faz um clique, mas faz uma solicitação e obtém sua resposta. O argumento -r
significa que solicitará recursivamente todos os links e links encontrados nas respostas desses links e assim por diante. O argumento -l
especifica o nível máximo de profundidade de recursão. Então, mude o número 2 de acordo com suas necessidades.
Você pode verificar a página man para obter mais informações, basta digitar man curl
no seu terminal. Ir para a info de recursão digitando /Recursive Retrieval Options
.