Pode não ser o melhor caminho, mas você também pode usar este script de shell fácil de entender:
while read i
do
wget --spider $i > /dev/null 2>1
if [ $? == 0 ]
then
echo $i >> validlist.txt
fi
done
Execute este script de shell como ./wget_check.sh < urllist.txt
, em que wget_check.sh
é o nome do script e urllist.txt é o arquivo de texto que contém as URLs.
Este script basicamente executa um wget --spider
contra cada um dos URLs na lista e adicionará o URL a outro arquivo 'validlist.txt' se o URL retornar uma resposta 200 OK válida.
-
A opção --spider
"rastreará" os URLs e não fará o download de nenhum arquivo.
-
Não haverá saída produzida, pois a saída será redirecionada para / dev / null.
-
Cada wget
retornará um valor de retorno diferente de zero se não obtiver 200 OK response