curl obtém todos os links de uma página da web

2

Eu costumava utilizar o seguinte comando para obter todos os links de uma página da Web e, em seguida, grep o que eu queria:

curl $URL 2>&1 | grep -o -E 'href="([^"#]+)"' | cut -d'"' -f2 | egrep $CMP-[0-9].[0-9].[0-9]$ | cut -d'-' -f3

Estava indo muito bem até ontem. Eu tentei executar o curl em si e vi que ele retorna:

% Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                               Dload  Upload   Total   Spent    Left  Speed
0     0    0     0    0     0      0      0 --:--:-- --:--:-- --:--:--     0

Houve alguma atualização possível que faz com que o comando não funcione ou o que?

EDIT 1:

Mudei minha abordagem para wget em relação a esta resposta :

wget -q $URL -O - | grep -o -E 'href="([^"#]+)"' | cut -d'"' -f2 | egrep $CMP-[0-9].[0-9].[0-9]$ | cut -d'-' -f3

Mas ainda não sabe por que a abordagem curl parou de funcionar.

    
por Zeinab Abbasimazar 29.08.2017 / 08:21

1 resposta

1

Você pode usar o argumento -s para curl, é para o modo silencioso. Não mostrará o medidor de progresso ou a mensagem de erro.

    
por 29.08.2017 / 09:31

Tags