Sei que você está no Windows, mas no mundo Linux / Mac OS X pode-se usar curl
ou wget
se você souber o URL de destino de uma página e quiser salvá-lo em um arquivo. Eu vejo que há uma versão do Windows de curl
disponível aqui , bem como outras versões no site oficial curl
também, então talvez isso funcione para você se você estiver confortável com a linha de comando?
Por exemplo, usando curl
, você pode salvar o conteúdo da página principal do Google como esta em uma linha de comando:
curl -L google.com > google_index.html
O comando curl
é óbvio e o comando -L
informa ao curl
para simplesmente resolver qualquer redirecionamento com o qual alguém possa se deparar ao acessar um URL. O google.com
é o URL de destino e o >
diz ao comando para redirecionar a saída de curl -L google.com
para o arquivo chamado google_index.html
.
Depois de executar esse comando, o conteúdo de google_index.html
será 100%, exatamente como você veria se visualizasse o formulário fonte de um navegador da Web.
Mas lembre-se: todo o comando curl
, como esse, faria o conteúdo bruto retornado pela URL. Ele não forneceria gráficos, CSS, JavaScript ou qualquer outro conteúdo auxiliar que estivesse conectado a esse HTML.
Para fazer uma busca mais complexa e sofisticada do conteúdo completo do site, wget
é o caminho a percorrer. Parece haver uma versão do Windows de wget
hospedado aqui , mas não tem certeza de como ela pode estar desatualizada em comparação com a versão principal do GNU de wget
. Portanto, tente por sua conta e risco.