Perguntas sobre 'wget'

O GNU Wget (ou apenas wget) é um programa baseado em linha de comando para baixar conteúdo da Internet usando HTTP, HTTPS e FTP.
3
respostas

Como posso passar o argumento armazenado em uma variável para o WGET?

Estou escrevendo um script bash que usa extensivamente o wget. Para definir todos os parâmetros comuns em um local, armazeno-os em variáveis. Aqui está um trecho de código: useragent='--user-agent="Mozilla/5.0 (Windows NT 6.1; WOW64; rv:27.0)...
19.03.2014 / 21:36
5
respostas

Bash: maneira mais rápida de determinar as dimensões da imagem do URL

Estou tentando descobrir um método realmente rápido na hora de determinar as dimensões de uma imagem. Eu sei que eu poderia wget a imagem e, em seguida, use imagemagick para determinar a altura e largura da imagem. Estou preocupado que isso n...
15.10.2013 / 19:12
2
respostas

Existe um método de linha de comando pelo qual eu possa verificar se um arquivo baixado está completo ou quebrado?

Estou escrevendo um script que envolve o download e a manipulação de um arquivo, e quero garantir que o arquivo não esteja incompleto (devido a uma conexão descartada, por exemplo) antes de trabalhar nele.     
07.06.2014 / 15:16
1
resposta

como definir a pasta de destino para wget?

Sou muito novo em wget . Eu só preciso saber como posso definir a pasta de destino onde os downloads são salvos. Eu acredito que seja --directory-prefix . Obrigado,     
01.09.2016 / 22:31
3
respostas

baixar somente os primeiros bytes de uma página de origem

Estou baixando a página de origem HTML de um site usando o comando cURL . O problema é que não quero a maior parte do conteúdo da página. Eu só preciso das primeiras 100 linhas da página de origem. Existe uma maneira de parar o download da pág...
03.03.2014 / 22:18
2
respostas

Há alguma boa ferramenta além do SeleniumRC que possa buscar páginas da Web, incluindo conteúdo pós-pintado por JavaScript?

Uma grande falha de curl é que mais e mais páginas estão tendo seu conteúdo principal pintado por uma resposta JavaScript AJAX que ocorre após a resposta HTTP inicial. curl nunca pega esse conteúdo pós-pintado. Portanto, para buscar es...
28.04.2011 / 14:15
3
respostas

O caminho mais curto para baixar do GitHub

Isto é, como faço o download de várias ramificações mestras do GitHub, e pretendo ter um script mais bonito (e talvez mais confiável?). wget -P ~/ https://github.com/user/repository/archive/master.zip unzip ~/master.zip mv ~/*-master ~/dir-...
04.02.2018 / 14:00
2
respostas

Diz ao wget para não spider URL correspondente a um padrão?

Eu quero testar como meu site se comportaria ao ser spidered. No entanto, desejo excluir todos os URLs que contenham a palavra "página". Eu tentei: $ wget -r -R "*page*" --spider --no-check-certificate -w 1 http://mysite.com/ O sinalizado...
11.06.2014 / 07:03
3
respostas

Como posso fazer o download de um arquivo de um servidor FTP e depois excluí-lo automaticamente do servidor depois que o download for concluído?

Na linha de comando, quero baixar um arquivo de um servidor FTP. Quando o download for concluído, quero que o arquivo seja excluído no servidor. Existe alguma maneira de fazer isso? Originalmente eu considerei wget, mas não há nenhuma razão p...
17.03.2015 / 21:39
3
respostas

Faça o download de vários URLs de uma só vez

Estou ciente de wget -i como uma maneira de fazer o download de uma lista de URLs. O único problema é que preciso passar alguns dados POST diferentes para cada um, o que funciona para URLs únicas usando wget --post-data= , mas não para list...
11.02.2014 / 02:55