Perguntas sobre 'wget'

O GNU Wget (ou apenas wget) é um programa baseado em linha de comando para baixar conteúdo da Internet usando HTTP, HTTPS e FTP.
0
respostas

Faça o download das páginas que eu preciso fazer login para obter o wget

Há um site no qual preciso fazer login antes de poder navegar no conteúdo, e o conteúdo seria muito útil para meu trabalho se eu pudesse navegar enquanto estivesse off-line. É treinamento e conserto de informações para algumas coisas. Eu pode...
26.02.2012 / 01:00
1
resposta

wget clone não é exato

Estou tentando obter uma réplica exata de uma página. Eu uso: wget -E -H -k -K -p http://example.com Tudo funciona bem, exceto: Se no meu estilo houver uma importação de outro arquivo CSS, ele não será baixado. Se o JavaScript coloc...
06.07.2011 / 20:56
0
respostas

Debian no Dockstar: consultando a página de administração do modem ADSL com o wget

Novo no Linux, estou tentando consultar a página de status do meu modem DG834G com o wget do meu Dockstar executando o debian. Não tenho certeza se faz alguma diferença, mas estou conectado ao Dockstar através do SSH a partir de uma caixa do Win...
26.09.2011 / 13:57
0
respostas

wget -nd (--no-directories) não funciona como esperado

Estou usando wget 1.12 (em msys se isso faz diferença) e estou tentando espelhar um site com a opção -nd , pois os nomes de arquivos e pastas neste site são muito longos. Os documentos afirmam que ‘-nd’ ‘--no-directories’ Do not crea...
16.06.2011 / 09:53
1
resposta

Não é possível “wget” da minha casa Debian servidor Lenny! Mas as portas estão abertas!

Eu tenho um problema muito estranho para mim. Neste exemplo, o dns e o IP são ocultados por motivos de segurança. Quando eu tento do putty manager para conectar ao meu Debian e escrever o próximo comando: debian:~# wget http://myhost.no-i...
03.04.2011 / 00:57
2
respostas

O armazenamento de 300k arquivos em uma pasta pode causar problemas?

Estou rastreando um site grande (mais de 200 mil páginas) usando o wget (existe uma ferramenta melhor?). O Wget está salvando todos os arquivos em um diretório. A partição é HFS (eu acho), isso causará problemas se eu tiver todos os arquivos...
12.04.2011 / 13:08
0
respostas

web spidering / crawling, posso fazê-lo ou apenas mecanismos de pesquisa?

Eu já tinha uma pergunta respondida sobre o web-scraping com o wget. mas à medida que leio um pouco mais, percebo que talvez esteja procurando por um programa de rastreamento da web. particularmente a parte sobre rastreadores da web sendo capaze...
07.03.2011 / 07:35
1
resposta

Rastreando um diretório grande com wget com dois links apontando para a mesma coisa

Estou tentando rastrear um diretório em um site e basicamente baixar tudo nele. A estrutura é simples o suficiente (mas também há várias pastas), mas há uma coisa que faz com que o wget seja bloqueado. A fonte é algo como isto: <a href="in...
19.03.2011 / 03:39
3
respostas

Como baixar um arquivo de URL no Linux

Normalmente, um faz o download de um arquivo com um URL que termina na extensão do arquivo. Para baixar o Ubuntu ISO, seria simples wget http://releases.ubuntu.com/14.04.3/ubuntu-14.04.3-desktop-amd64.iso No entanto, deparei com um sit...
29.01.2016 / 19:06
2
respostas

O wget tem um histórico de download?

Eu usei o wget para baixar vários pacotes compactados (em uma tentativa fracassada de emular manualmente o apt-get, se isso tiver algum significado), e não me lembro das localizações dos pacotes. É possível ver o histórico de download do wget (...
21.12.2013 / 18:31