Perguntas sobre 'wget'

O GNU Wget (ou apenas wget) é um programa baseado em linha de comando para baixar conteúdo da Internet usando HTTP, HTTPS e FTP.
1
resposta

Como baixar todas as imagens com a resolução completa (ou seja, svg) de um único artigo da wikipedia [duplicado]

Eu estava me perguntando como baixar todas as imagens (.svg) de um único artigo da wikipedia sem fazer isso manualmente para cada imagem. A Wikipedia está oferecendo imagens em diferentes resoluções e vários formatos usando um esquema...
12.09.2018 / 09:09
1
resposta

É possível combinar --span-hosts com --no-parent no wget?

Eu tenho páginas em um site que são um diretório de uma enorme quantidade de links para outro site. Eu não quero baixar nada do site de origem que é o pai de tal diretório. Eu prefiro baixar tudo do --span-hosts --domains targetsite.com . O...
21.08.2018 / 19:43
1
resposta

Por que esse script de download do wget não funciona? [duplicado]

Eu tenho as seguintes linhas em um script de shell .sh : wget -O discord.deb https://discordapp.com/api/download?platform=linux&format=deb sudo dpkg -i discord.deb rm -f discord.deb Por algum motivo, o script não funciona. No enta...
07.01.2018 / 23:53
1
resposta

Wget não está funcionando para baixar todos os links de uma página da Web

Eu quero baixar todos os arquivos pdf neste site: http://www.math.utsc.utoronto.ca/b41/ O comando que eu executo é: wget -r -A "*.pdf" "http://www.math.utsc.utoronto.ca/b41/" No entanto, se você acessar o site, há uma guia "at...
08.12.2017 / 20:06
1
resposta

Nenhum arquivo obtido com “wget -r”

Eu uso o seguinte comando para baixar recursivamente o arquivo rpms de um servidor web wget -r -np -R "index.html*" http://central-7-0-x86-64.rocksclusters.org/install/rolls/ Após dois minutos, vejo Total wall clock time: 2m 41s Downlo...
22.12.2017 / 13:45
1
resposta

Torna todos os urls em uma página absoluta a partir da linha de comando

Eu gosto de usar curl e a linha de comando para processar páginas html. URLs relativos são uma dor. Existe algum utilitário fácil para tornar todos os URLs relativos absolutos? Idealmente, isso seria parecido com curlabsolute $URL...
17.10.2017 / 22:26
1
resposta

Como recuperar informações de preço de www.meinfluessiggas.de em um script bash?

Em link , é necessário clicar em um botão de tamanho de tanque (seção “Behältergröße”) e preencher um código postal (seção “PLZ Behälterstandort” ”) Para o preço aparecer à direita. Desejo automatizar isso em um script bash , mas luto para re...
04.11.2017 / 09:52
1
resposta

wget no Centos 7 Terminal como baixar apenas texto sem código de estilo do site

sudo wget -O /home/KrypticRelic/Desktop/DefaultAccess.txt phenoelit.org/dpl/dpl.html Isso imprime uma quantidade significativa de preenchimento para o texto real que eu gostaria. Ex. <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01//EN...
16.09.2017 / 19:53
2
respostas

Como combinar as opções '-i file' e '-O filename' do wget?

wget pode ser alimentado com -i inputFileURLList e também pode usar um nome de arquivo personalizado com -O customArbitraryFileName . Como posso combinar esses dois recursos para que eu os alimente com uma lista de URL contendo o arqu...
16.07.2017 / 11:10
1
resposta

Baixar dados no site (http) recursivamente com wget

Não consigo baixar os arquivos corretamente neste site . Eu uso o comando mostrado em esta pergunta wget -nd -r -l 10 -e robots=off http://biomet.ucdavis.edu/Evapotranspiration/ Ele pode realmente baixar os arquivos, mas infelizmen...
08.06.2017 / 09:28