Extraindo o URL do site

4

Existe uma maneira no Ubuntu de encontrar todos os diretórios em um site?

Eu tenho um site e quero verificar os links internos (diretórios) desse site.

Algo parecido com isto:

...

O problema com este website é quando eu insiro algo como ubuntu.com/cloud, ele não mostra os subdiretórios.

    
por Arsalan Khattak 05.04.2018 / 12:37

2 respostas

9

Abra o terminal e digite:

sudo apt install lynx  
lynx -dump -listonly -nonumbers "https://www.ubuntu.com/" | uniq -u 

Este comando melhora o comando anterior, redirecionando a saída para um arquivo de texto chamado links.txt.

lynx -dump "https://www.ubuntu.com/" | awk '/http/{print $2}' | uniq -u > links.txt
    
por karel 05.04.2018 / 12:47
4

Veja esta resposta de superuser.com:

wget --spider -r --no-parent http://some.served.dir.ca/
ls -l some.served.dir.ca

Existem sites gratuitos que farão isso por você e converterão a saída para o formato xml. Eu sugiro que você analise um desses também para ver qual método é mais adequado às suas necessidades.

Editar OP incluiu um novo screenprint

    
por DWD 05.04.2018 / 12:46