download de imagem em massa da galeria web baseada em piwigo

1

Gostaria de baixar imagens de tamanho original deste site, criadas com base no piwigo CM link

O download de uma única imagem é permitido, mas isso levaria muito tempo Você poderia me sugerir um software, extensão, script ou qualquer outra coisa capaz dessa tarefa?

    
por ed0 22.02.2015 / 12:15

2 respostas

1

Você pode usar wget como mostrado :

  

Download de um site inteiro com wget

     

05 de setembro de 2008 Por Dashamir Hoxha em HOW TO

     

Se você precisar baixar um site inteiro, talvez para o off-line   visualizando, o wget pode fazer o trabalho - por exemplo:

$ wget \
     --recursive \
     --no-clobber \
     --page-requisites \
     --html-extension \
     --convert-links \
     --restrict-file-names=windows \
     --domains website.org \
     --no-parent \
         www.website.org/tutorials/html/
     

Este comando faz o download do site    link .

     

As opções são:

     
  • --recursive : baixe o site inteiro.
  •   
  • --domains website.org : não segue links fora do website.org.
  •   
  • --no-parent : não segue links fora do diretório tutorials / html /.
  •   
  • --page-requisites : obtenha todos os elementos que compõem a página (imagens, CSS e outros).
  •   
  • --html-extension : salva arquivos com a extensão .html.
  •   
  • --convert-links : converte links para que funcionem localmente, off-line.
  •   
  • --restrict-file-names=windows : modifique nomes de arquivos para que também funcionem no Windows.
  •   
  • --no-clobber : não sobrescreva nenhum arquivo existente (usado caso o download seja interrompido e reiniciado).
  •   

Fora desses --page-requisites & amp; --recursive provavelmente será necessário, embora --convert-links ou --no-clobber possa ser útil. Para obter mais informações sobre o uso de wget run man wget (ou procure aqui ).

    
por Wilf 24.02.2015 / 18:10
0

Esta é a minha solução para isso, pois a sua pergunta obtém as imagens

Primeiramente, crie a pasta para salvar as imagens e, em seguida, faça o cd nela

#terminal
mkdir imagesFolder
cd imagesFolder/

# this one will take a long time but will download 
# every single image related to this website
wget -r -nd -H -p -A '*.jpg','*.jpeg','*.png' -e robots=off http://mermaid.pink/

#I recomend to use this one better as the images in this site are all jpg
# And recursion level is set to 1
wget -r -l 1 -nd -H -p -A '*.jpg' -e robots=off http://mermaid.pink/

Os argumentos do wget explicaram:

  • -r | --recursivo:

    • Ative a recuperação recursiva. A profundidade máxima padrão é 5.
  • -l profundidade | --level = profundidade:

    • Especifique a profundidade máxima do nível de profundidade da recursão.
  • -e | --no-directories:

    • Não crie uma hierarquia de diretórios ao recuperar    recursivamente. Com esta opção ativada, todos os arquivos serão salvos    para o diretório atual, sem sobrescrever (se aparecer um nome    mais de uma vez, os nomes dos arquivos receberão extensões .n).
  • -H | --span-hosts:

    • Ative a abrangência de hosts ao realizar recuperações recursivas.
  • -p | --page-requirements:

    • Esta opção faz com que o Wget baixe todos os arquivos que estão    necessário para exibir adequadamente uma determinada página HTML. Isso inclui    coisas como imagens embutidas, sons e folhas de estilo referenciadas ...
  • -A | --aceito:

    • Especifique listas separadas por vírgulas de sufixos ou padrões de nome de arquivo para    aceitar. Observe que, se algum dos caracteres curinga, ,    ?, [ou], aparecem em um elemento de acclist, será    tratado como um padrão, em vez de um sufixo. Neste caso, você tem    para colocar o padrão entre aspas para evitar que o seu shell    expandindo-o, como em -A " .mp3" ou -A '* .mp3'.
  • -e | --execute:

    • Executa o comando como se fosse parte de .wgetrc. Um comando assim    invocado será executado após os comandos em .wgetrc, levando assim    precedência sobre eles. Se você precisar especificar mais de um wgetrc    comando, use várias instâncias de -e.
    • Nesse caso, o robôs = desativado é o argumento de -e

Para mais informações no tipo wget no terminal

man wget

OU verifique ESTE

Obrigado T04435

    
por T04435 11.11.2015 / 02:51