Perguntas sobre 'wget'

O GNU Wget (ou apenas wget) é um programa baseado em linha de comando para baixar conteúdo da Internet usando HTTP, HTTPS e FTP.
1
resposta

passar um link alternativo para wget ao baixar fotos / arquivos em erro

wget é uma ótima ferramenta para fazer download de arquivos ou páginas da web. Não é o primeiro timke que eu acho que os links de uma página da Web não estão atualizados ou errados. Por exemplo, uma página da web que tenha suas fotos / arquiv...
06.12.2016 / 21:59
1
resposta

Problema de rastreamento do Wget

Eu vi que, para rastrear um site inteiro, esse comando deve funcionar: wget --spider -r https://wikipedia.org/ Mas a minha pergunta é por que o mesmo comando para rastrear um site inteiro não funciona com a Wikipédia? Meu objetivo não...
31.08.2016 / 15:57
1
resposta

Baixe apenas uma página do Tumblr com o wget

Eu quero baixar as imagens de apenas uma página no tumblr. Por exemplo, link Ao carregar esta página no navegador (já testei o firefox e o chrome), existem exatamente 15 imagens, mas quando tento baixá-las com o wget, obtenho 60 imagens (c...
17.08.2016 / 14:41
1
resposta

baixar um arquivo torrent de kickass torrent de linux cli

este tem me incomodado há algum tempo e não consigo encontrar nenhuma resposta. Na verdade, eu geralmente recebo resultados do google para cli torrents em vez do que eu quero. Portanto, rtorrent é notório quanto a travar quando alimentado...
20.07.2016 / 11:28
1
resposta

wget TLSv1 se comporta da mesma maneira que TLSv1_2

Eu usei wireshark para comparar curl --tlsv1.0 vs --tlsv1.2 O handshake do servidor obedientemente usa TLSv1.0 para servidores que o suportam (o objetivo é verificar para validar se eles não o fazem): wget url --no-check-certificate...
16.03.2016 / 21:56
1
resposta

Deixando o arquivo HTML agir como URL com o wget

Se você quiser ir diretamente para a pergunta, pule para a pergunta em negrito e em itálico, além do código. Introdução: Estou com problemas com arquivos wget e html. Estou usando o Ubuntu 15.10. Estou tentando coletar dados de um banco...
27.12.2015 / 06:43
1
resposta

Como extrair todos os links de um determinado URL em um tempo decente

Estou tentando extrair os links de um URL especificado e redirecioná-los para um arquivo. Primeiro, tentei usar --spider , esse é o meu código: wget --spider --force-html -m http://file/path 2>&1 | grep '^--' | awk '{ print $3 }'|...
22.12.2015 / 12:37
1
resposta

wget do Source Forge

Eu sei que isso foi perguntado aqui: Como faço o download do SourceForge com o wget? Mas não consigo trabalhar com minha ferramenta específica. Alguém pode me ajudar a baixar deste link do sourceforge: http://sourceforge.net/project...
27.10.2015 / 19:59
1
resposta

Download Anexos do Fórum

Existe uma maneira de fazer download de anexos de imagem do jpeg do fórum, possivelmente usando o Wget ou o Curl ou alguma outra ferramenta? Gostaria de baixar anexos jpeg de páginas específicas em fóruns. Não estou interessado em baixar todos o...
16.02.2015 / 13:47
1
resposta

Configure wget para ignorar um domínio especificado ou tratá-lo de forma diferente?

Estou usando wget para espelhar um site antigo com todos os seus %código%. Infelizmente, um dos domínios que costumavam atende a alguns desses requisitos - agora está off-line. Toda vez que o wget tenta para obter qualquer coisa desse domínio...
26.11.2014 / 03:08