../../../ é removido quando eu o uso com o comando url in wget . Por favor veja abaixo:
user $ wget http://n0t.meaning.anything:20000/../../../some/folder/file
--2015-10-29 16:48:13-- http://n0t.meaning.anything:20000/some/folder/file
R...
Quando faço este comando:
wget --report-speed=type
eles só digitam aceitam é bits . Não terá números, kilobits / kilobytes ou bytes.
A página de ajuda ( wget --help ) diz:
--report-speed=TYPE Output bandwidth as TYPE. TYPE...
Estou no Sci Linux e não sei nada sobre comandos.
Como posso usar o comando wget ? Alguém pode fornecer um exemplo simples de onde realmente faz o download de algo?
Como você especifica onde o download é salvo?
Estou tentando usar o wget para baixar a imagem do Raspbian para o Raspberry Pi (http://downloads.raspberrypi.org/images/raspbian/2012-07-15-wheezy-raspbian/2012-07-15-wheezy -raspbian.zip).
Ele começa a baixar bem, mas depois de um segundo s...
Eu não tenho acesso root no meu Ubuntu, mas quero instalar git . Eu estava seguindo este tutorial , mas ao executar make ou make install diz que curl não está instalado.
Posso usar wget se essa for uma configuração make con...
Tenho experiência com a versão do Windows:
GNU Wget 1.19.4 built on mingw32.
Mas agora no Ubuntu, eu tenho:
GNU Wget 1.19.4, a non-interactive network retriever.
Existe uma relativamente nova opção chamada --compression que...
Estou tentando descobrir uma maneira de fazer o download deste arquivo:
zoiper5_5.2.6_x86_64.tar.xz
deste link:
https://www.zoiper.com/en/voip-softphone/download/zoiper5/for/linux
desta página da Web de maneira respeitosa:
https...
Eu estava baixando um arquivo bigimage.iso de https<nolink>://ftp.slowsite.edu/images/bigimage.iso usando o seguinte comando wget :
wget https://ftp.slowsite.edu/images/bigimage.iso
Mas, o servidor FTP ficou muito lento e ago...
Atualmente estou fazendo isso:
wget -i download.txt -x
Cria um diretório raiz example.org/ . O que eu gostaria de fazer é criar apenas subdiretórios.
Existe uma maneira de obrigar o wget a fazer o que eu gostaria?
Eu tenho uma lista de 900 URLs. Cada página contém uma imagem. Algumas imagens são duplicadas (com o mesmo URL). Quero fazer o download de 900 imagens, incluindo duplicatas .
Consegui fazer o download de todas as páginas e imagens incorporada...