Clique em cada link em várias páginas da web

0

Em nosso projeto, temos páginas como http://123.4.5.6/3/4 ; dentro há algumas páginas. Eu preciso acessar os URLs e clicar em cada link dentro deles para baixar alguns arquivos (de forma automatizada).

Como faço para conseguir isso?

    
por Anand Pasunoori 21.06.2015 / 09:54

1 resposta

1

Você pode usar curl , wget ou algo semelhante.

Aqui estão algumas perguntas semelhantes:

Obtendo arquivos, todos em uma vez, de uma página da Web usando curl

Como baixar todos os arquivos (mas sem HTML) de um site usando o wget

Como faço para usar o wget para baixar todos os links do meu site e salvar em um arquivo de texto?

Então você poderia fazer assim:

curl --recursive --level 2 http://123.4.5.6/3/4

ou usando argumentos curtos

curl -r -l 2 http://123.4.5.6/3/4

Na verdade, isso não faz um clique, mas faz uma solicitação e obtém sua resposta. O argumento -r significa que solicitará recursivamente todos os links e links encontrados nas respostas desses links e assim por diante. O argumento -l especifica o nível máximo de profundidade de recursão. Então, mude o número 2 de acordo com suas necessidades.

Você pode verificar a página man para obter mais informações, basta digitar man curl no seu terminal. Ir para a info de recursão digitando /Recursive Retrieval Options .

    
por Falk 21.06.2015 / 14:03