Copia todos os arquivos de um local de pasta HTTP para uma pasta local

6

Sou um estudante e preciso extrair muitas coisas do site do meu professor, preferencialmente retendo parte da estrutura de pastas.

Estou trabalhando em caixas do Windows e tenho acesso ao Windows XP, Windows 7 e Windows Server 2008 R2. Bem no passado (2-3 anos atrás) eu tentei alguns utilitários que espelhavam páginas da Web e esse tipo de coisa e, por várias razões, eles nunca funcionavam direito, ou eu nunca conseguia o que eu queria deles.

Por exemplo, estas pastas:

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolderABCXYZ

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder123456

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder4321

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder2345

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolderABCXYZ2

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder1234563

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder43214

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder23455

Em essência, é muito difícil tentar fazer o download manualmente para uso posterior.

Eu tentei este utilitário e também é um exagero, ou não é simples o suficiente para matar, porque eu nunca consegui basta baixar arquivos para o meu disco rígido.

Idealmente, gostaria de examinar recursivamente a pasta, recriar a estrutura de pastas em alguma pasta especificada e, em seguida, copiar os arquivos do servidor remoto para a pasta correspondente em minha máquina local.

    
por YetAnotherRandomUser 07.06.2013 / 04:35

3 respostas

8

O utilitário mais simples para baixar os arquivos do site de forma recursiva é o WGET:

link

    
por 07.06.2013 / 05:05
5

Firefox addon: DownThemAll!

Extensão do Chrome: GetThemAll

    
por 21.07.2014 / 05:20
4

Veja o HTTrack :

It allows you to download a World Wide Web site from the Internet to a local directory, building recursively all directories, getting HTML, images, and other files from the server to your computer. HTTrack arranges the original site's relative link-structure. Simply open a page of the "mirrored" website in your browser, and you can browse the site from link to link, as if you were viewing it online. HTTrack can also update an existing mirrored site, and resume interrupted downloads. HTTrack is fully configurable, and has an integrated help system.

    
por 07.06.2013 / 08:08

Tags