Perguntas sobre 'wget'

O GNU Wget (ou apenas wget) é um programa baseado em linha de comando para baixar conteúdo da Internet usando HTTP, HTTPS e FTP.
5
respostas

por que curl e wget resultariam em um 403 proibido?

Eu tento baixar um arquivo com wget e curl e ele é rejeitado com um erro 403 (proibido). Eu posso ver o arquivo usando o navegador da web na mesma máquina. Eu tento novamente com o agente de usuário do meu navegador, obtido pelo lin...
28.06.2014 / 19:06
1
resposta

Enrolamento tentando obter conteúdo mas capturando página de carregamento

ajuda link Estou tentando capturar Roteiro de recursos V0 - Alpha A11Y e I18N básicos Fundamentos para Acessibilidade e Internacionalização ADM-NF01 Mas tudo o que parece estar capturando é a tela Carregando Captura = time (cur...
21.07.2017 / 17:04
1
resposta

como renomear em lote arquivos no terminal - mover texto no nome do arquivo do final do nome do arquivo para a frente

Eu comecei recentemente usando o wget para baixar arquivos. Estou usando o ubuntu 16 mate para manipular meus arquivos. Eu crie URLs personalizadas para incluir informações específicas que eu quero salvar no nome do arquivo baixado da segu...
25.06.2017 / 17:33
1
resposta

Depois de fazer login e baixar cookies usando --cookie-jar, como usamos os cookies baixados para acessar a página novamente?

Eu usei o comando abaixo para fazer o download do cookie usando o CURL no bash. Como eu uso este arquivo (cookies.txt) para acessar a página? curl -u username --cookie cookies.txt --cookie-jar cookies.txt https://example.com     
21.03.2017 / 14:10
0
respostas

Download recursivo de apenas um formato com wget?

Eu quero baixar apenas jpg arquivos apresentam um servidor HTTP. Eu deveria ser capaz de fazer isso com wget -r -A "*.jpg" 192.168.1.2 mas não faz o download de arquivos ".jpg". Transfere apenas index.html e depois rejeita: 2017-...
09.02.2017 / 11:00
0
respostas

Rastrear site com o Wget com filtro por padrões de URL

Estou tentando rastrear um site e quero que o wget siga recursivamente todos os links (que estão dentro do mesmo domínio), mas faça o download da página apenas se o URL dessa página corresponder a um padrão. Eu tentei algo assim: wget http...
01.06.2017 / 16:17
1
resposta

Como selecionar e imprimir endereços URL de qualquer arquivo?

Gostaria de saber qual comando seria: selecione todo o URL em um arquivo (isto é, reconheça todos os endereços que começam com http ou www do começo ao fim e separe-os do texto ou de outros dados) exiba-os em um arquivo .txt. A idéi...
06.01.2017 / 00:14
1
resposta

Como faço para baixar um arquivo que não tenha um link direto?

Por exemplo, o arquivo disponível em https://connect.nuxeo.com/nuxeo/site/marketplace/package/nuxeo-web-ui/download?version=0.8.0 será baixado em um arquivo zip no meu navegador, mas o comando wget https://connect.nuxeo.com/nuxeo/si...
03.01.2017 / 23:36
1
resposta

Obtém o nome do arquivo a partir do URL do wget - trust-server-names [duplicate]

Grande parte do URL de redirecionamento do site permite a você a última versão de um binário. Por exemplo: wget https://download.mozilla.org/?product=firefox-aurora-latest-l10n&os=linux64&lang=fr Permitirá que você baixe o Fi...
29.08.2016 / 18:51
0
respostas

wgetting links escritos em forma de script - não simples html

Eu uso o wget para fazer o download de todas as páginas html em uma galeria on-line - para pegar todos os links para as imagens em tamanho real da seguinte forma: wget --wait = 3 --user-agent = Webtografia --no-cookies --timestamping --recurs...
12.06.2016 / 22:01