Perguntas sobre 'wget'

O GNU Wget (ou apenas wget) é um programa baseado em linha de comando para baixar conteúdo da Internet usando HTTP, HTTPS e FTP.
4
respostas

Como fazer o download com o wget sem seguir os links com parâmetros

Estou tentando baixar dois sites para inclusão em um CD: http://boinc.berkeley.edu/trac/wiki http://www.boinc-wiki.info O problema que estou tendo é que estes são ambos wikis. Então, ao fazer o download com, por exemplo: wget -r -k -np...
29.06.2010 / 23:03
1
resposta

Como baixar partes do mesmo arquivo de diferentes fontes com o curl / wget?

Eu tenho um arquivo muito grande hospedado em cinco servidores diferentes. Eu gostaria de poder baixar diferentes partes do arquivo de cada servidor e, em seguida, concatenar as partes, a fim de produzir o arquivo original. Existe alguma m...
03.03.2010 / 15:47
4
respostas

Wget é silencioso, mas exibe mensagens de erro

Eu quero baixar um arquivo com Wget , mas de acordo com a filosofia usual do UNIX, eu não quero que ele output qualquer coisa se o download for bem-sucedido. No entanto, se o download falhar, eu quero uma mensagem de erro. A opção -q su...
03.05.2012 / 16:18
3
respostas

Faz um loop sobre um intervalo de números para download com wget

Como posso escrever um script bash que fará o seguinte: URL = "example.com/imageID=" while (1..100) wget URL + $i #it will wget example.com/imageID=1, then 2, then 3, etc done Então eu tenho um número de loops para executar, um URL que...
04.08.2012 / 17:57
4
respostas

Usando o Wget para rastrear recursivamente um site e baixar imagens

Como você instrui o wget a rastrear recursivamente um site e fazer download apenas de certos tipos de imagens? Eu tentei usar isso para rastrear um site e baixar apenas imagens JPEG: wget --no-parent --wait=10 --limit-rate=100K --recursive...
29.03.2011 / 17:23
3
respostas

Como baixar lista de arquivos de um servidor de arquivos?

Como faço para baixar uma lista de arquivos de um servidor de arquivos como este link ? Suponho que eu poderia usar o wget, mas ele tenta obter todos os links e o arquivo html também. Existe uma ferramenta melhor para conseguir isso?     
26.09.2009 / 06:29
5
respostas

Como você usa o WGET para espelhar um nível de nível 1 do site, recuperando recursos JS, CSS, incluindo imagens CSS?

Finja que eu queria que uma simples cópia de página fosse baixada no meu HD para manutenção permanente. Eu não estou procurando por um get recursivo profundo, apenas uma única página, mas também todos os recursos carregados por essa página també...
01.10.2011 / 04:26
3
respostas

Faça com que o wget não baixe arquivos maiores que o tamanho X

Ok, eu desisto. Como faço para limitar o tamanho dos arquivos que são baixados, como dizer que não quero arquivos maiores que 2 MB?     
18.03.2010 / 01:45
2
respostas

Como posso usar uma ferramenta de linha de comando como o Wget para efetuar login em um site do OpenID?

Especificamente, gostaria de poder baixar algumas páginas do meu perfil de usuário nos vários sites do Stack Exchange. Gostaria, no entanto, de fazer isso automaticamente (usando um cron job), na linha de comando e em um formato analisável. E...
06.08.2013 / 04:11
1
resposta

Espelhe um blog com wget

Estou tentando espelhar um blog, por exemplo, www.example.com , com wget . Eu uso o wget com as seguintes opções (as variáveis do shell são substituídas corretamente): wget -m -p -H -k -E -np \ -w 1 \ --random-wait \ --rest...
16.10.2014 / 05:17