Baixe todos os links PDF em uma página da web? [fechadas]

22

Você conhece um bom software para baixar todos os links em PDF em uma página da Web?

O sistema operacional é o Windows 7.

    
por iAsk 20.03.2011 / 21:20

6 respostas

33

Você pode usar wget e executar um comando como este:

wget --recursive --level=1 --no-directories --no-host-directories --accept pdf http://example.com

Ou com as opções curtas:

wget -r -l 1 -nd -nH -A pdf http://example.com

ATUALIZAÇÃO: Como sua atualização diz que você está executando o Windows 7: use o wget para Windows de um cmd prompt.

UPDATE 2: Para uma solução gráfica - embora possa ser um exagero, uma vez que outros arquivos também são DownThemAll

    
por 20.03.2011 / 21:33
6
  1. No seu navegador, pressione CTRL + SHIFT + J e digite

    var pdflinks =[]; Array.prototype.map. call(document.querySelectorAll("a[href$=\".pdf\"]"), function(e, i){if((pdflinks||[]).indexOf(e.href)==-1){ pdflinks.push( e.href);} }); console.log(pdflinks.join(" "));

    Isso retornará no console:

    "https://superuser.com/questions/tagged/somepdf1.pdf" "https://superuser.com/questions/tagged/somepdf2.pdf" "https://superuser.com/questions/tagged/somepdf3.pdf"

  2. Agora usando wget com as opções de linha de comando wget url1 url2 ...

Copie e cole isso, abra um console, insira wget pressione o botão direito do mouse para inserir o conteúdo da área de transferência e pressione Enter.

Para usar um arquivo de download, junte as linhas com "\ n" e use o parâmetro da seguinte forma: wget -i mydownload.txt

Observe que a maioria dos outros programas de download (GUI) também aceita ser chamada com uma lista separada por espaços de URLs.

Espero que isso ajude. É assim que geralmente faço isso. É mais rápido e mais flexível do que qualquer extensão com uma interface gráfica, tenho que aprender e me familiarizar com ele.

    
por 07.11.2013 / 14:28
1

Se você quiser permanecer no navegador, escrevi uma extensão da Web exatamente com essa finalidade. Estou trabalhando para adicionar a capacidade de salvar PDFs de artigos acadêmicos com títulos formatados corretamente, mas se você quiser apenas fazer o download deles tudo é perfeito para isso.

Ele é chamado de Separador Salvar e, na Chrome web store aqui . Você nem precisa inserir a lista de URLs se você simplesmente abri-los em todas as guias (mas, para um grande número de arquivos, isso pode deixar um computador mais lento, então eu adicionei a opção de adicionar o seu próprio).

    
por 26.05.2014 / 18:27
0

Recentemente, usei uGet (no Windows) para isso. Ele tem uma GUI e você pode filtrar os arquivos que deseja baixar.

Salva tentando lembrar de todos aqueles

    
por 04.06.2017 / 12:25
0

No Google Chrome, é possível usar extensões como:

  • Faça o download do mestre

    With this extension you can download all images, videos, pdf, doc and any other file linked on the web page you are visiting.

por 18.01.2018 / 14:03
0

Google

Existem poucas ferramentas em Python que permitem o download de links em PDF do site com base nos resultados de pesquisa do Google.

Por exemplo,

  • google_dl script (recomendado).

    Uso:

    ./google_dl -s http://www.example.com/ -f pdf ""
    
  • gsrchDwn script (com base em script do neo ).

    Uso:

    ./gsrchDwn.py --query "site:http://www.example.com/" --ftype pdf
    

Nota: Sou o mantenedor dos dois scripts mencionados.

Ambos estão implementando a biblioteca Python xgoogle . Minha bifurcação desta biblioteca é baseada na pkrumins/xgoogle versão .

Relacionados: Uma pesquisa na web a partir da linha de comando do Linux .

    
por 18.01.2018 / 19:40