Na primeira página, provavelmente há um link para o logout, que faz exatamente o que ele supõe. Para evitar isso, use -R (por exemplo, -R "* logout *") como declarado aqui
Estou tentando baixar o domínio inteiro de uma página wiki privada. Eu salvei os cookies em um arquivo cookies.txt e usá-lo com o wget para autenticação da seguinte forma:
wget --load-cookies=cookies.txt --recursive --no-parent --convert-links --backup-converted --adjust-extension --limit-rate=500k https://wiki-to-download
Procede ao download de todo o domínio wiki. À primeira vista, parecia ter funcionado. Eu abri o arquivo html da página principal localmente no meu navegador, mas quase todos os links além da página inicial são os mesmos: a página de login ...
Suponho que tenha me autenticado uma vez permitindo o download da página inicial, mas depois não guardei minhas credenciais enquanto ele recupera o restante das páginas, forçando-o a baixar a temida "Página de login obrigatório" para cada. Como eu poderia evitar isso? Em outras palavras, como posso ter certeza de que todos os arquivos foram baixados corretamente, como se eu estivesse logado o tempo todo?
Na primeira página, provavelmente há um link para o logout, que faz exatamente o que ele supõe. Para evitar isso, use -R (por exemplo, -R "* logout *") como declarado aqui