Como é possível obter uma lista de todos os links usando um wget recursivo?

2

Gostaria de obter uma lista de todos os links em uma determinada página da Web (recursivamente). Eu não consigo descobrir como fazer isso sem apenas passar um wget -r. Eu não quero salvar todo o lixo, apenas os links. Alguma ideia?

    
por No One in Particular 30.04.2012 / 03:05

1 resposta

0

Eu uso esses comandos para obter apenas vídeos do YouTube ( link )

wget --spider --force-html -r -l2 "https://www.youtube.com"  2>&1 | grep --color  'watch?v='

Você pode usar isso e alterar as opções do grep assim: No meu exemplo, se você quiser pular vídeos do YouTube, use 'grep -v':

wget --spider --force-html -r -l2 "https://www.youtube.com"  2>&1 | grep -v 'watch?v='
    
por 10.06.2017 / 23:13

Tags