Perguntas sobre 'wget'

O GNU Wget (ou apenas wget) é um programa baseado em linha de comando para baixar conteúdo da Internet usando HTTP, HTTPS e FTP.
0
respostas

Pode pingar URL mas não pode acessar via cURL ou wget

Estou com um problema em que posso ping , mas não consigo usar wget ou curl . Esta é a saída desses comandos. Eu copiei uma VM Vagrant funcional de um PC Win7 para outro e esse é o problema que estou tendo. Isso poderia ser um problema...
10.09.2015 / 15:41
0
respostas

pode wget número limite de páginas / links recuperados no modo recursivo / spider?

eu uso o wget para: recuperando alguns sites recursivamente, spider (recuperar links de sites) Por vezes, gostaria de obter apenas um determinado número máximo de páginas / links. Os únicos limites que encontrei no wget até agora são...
12.08.2015 / 16:34
1
resposta

Qual é o equivalente curl de wget -qO (wget -q -O)?

Eu preciso executar o seguinte comando no Red Hat Linux: wget -q -O link bash Mas eu não tenho o wget instalado. Eu poderia instalá-lo, mas quero saber como fazer isso com o curl.     
19.08.2015 / 02:30
0
respostas

Completar o rasgo do site de um site usando o wget

Estou tentando executar um site completo de um site, sei onde os locais de vídeos transmitidos estão, no entanto, fazendo com que o processo seja executado de forma eficiente e produtiva está se mostrando difícil. Primeiro problema é o login:...
18.08.2015 / 22:37
0
respostas

Crie site estático a partir do site wordpress usando o bash

Eu tentei alguns outros scripts que podem fazer uma versão estática de um site wordpress, mas nenhum deles é projetado para sites em massa e eu não encontrei nenhum que apenas servirá uma versão estática, mantendo o original. Aqui foi a minha te...
07.07.2015 / 23:05
0
respostas

Como baixar arquivos do site usando o bash [closed]

Estou tentando baixar uma coleção de arquivos de um site. Onde a coleção é retirada de "TAGS". Eu tentei usar muitas combinações de wget e bash scripts sem sorte. Cada arquivo é aninhado em sua própria página da web e parece que o site usa...
02.04.2015 / 20:46
0
respostas

wget apenas arquivos novos ou atualizados quando os arquivos de origem são compactados, mas os arquivos de destino são descompactados

Eu gostaria de saber como wget arquivos de uma url que são armazenados com compressão bz2. No entanto, gostaria de apenas wget os arquivos novos e atualizados, em relação ao meu destino, onde os arquivos são armazenados descompactados. Normal...
25.03.2015 / 18:56
0
respostas

FTP: download de curingas

Estou tentando baixar um arquivo com o nome que termina com * .csv O problema é complicado pelo fato de que este * .csv contém no diretório de nome desconhecido: por exemplo. Às vezes seria 2015- > Data 29: 10: 20: 10- > One.csv...
19.03.2015 / 02:43
1
resposta

Como fazer o wget criar arquivos apropriados de zero bytes?

Estou tentando usar o wget para fazer download de diretórios inteiros com o conteúdo de um servidor da web. Alguns dos arquivos são de tamanho zero. Existe uma maneira de fazer com que wget crie o arquivo de 0 bytes no cliente? Como est...
28.01.2015 / 16:02
1
resposta

Por que o cURL é mais lento que o wget?

Página de teste: link Este é o resultado usando o wget (ou um navegador real): # time wget https://www.beobank.be/nl/Home.aspx -O /dev/null --2015-01-26 12:05:46-- https://www.beobank.be/nl/Home.aspx Resolving www.beobank.be (www.beoban...
26.01.2015 / 11:09