Eu uso o wget para fazer o download de todas as páginas html em uma galeria on-line - para pegar todos os links para as imagens em tamanho real da seguinte forma:
wget --wait = 3 --user-agent = Webtografia --no-cookies --timestamping --recursivo --level = 2 --convert-links --no-pai --page -quisits --adjust -extensão --max-redirect = 0 --exclude-directories = blog link
Faz o download com sucesso de todas as páginas da galeria específica do usuário e não rastreia nenhum outro lugar - é bom.
Não pega nenhuma imagem.
Eu uso o wget para fazer isso em diferentes galerias e ele funciona bem - peguei alguns ajustes para conseguir pegar tudo e ficar na galeria - sendo example.com/jasper1123.
Após o download, eu uso os comandos cat, sed e awk para criar um arquivo de texto contendo apenas links para as imagens.
Eu planejo importar esses links de imagem para o downloader de imagens em massa e, a fim de pegá-los e manter os downloads ordenados.
Aqui está o problema que encontrei com este site:
Os links para as imagens em tamanho total não são padrão em html - eles estão em um script da seguinte forma:
SCRIPT PARA LIGAÇÃO À IMAGEM:
var e = '.jpg', t = 'b', i = '14712583', h = '0.us.is.exemplo.com', s = '/', n = 'WIV', u = 'jasper1123 / 3 / example.com _' + i + n.charAt (2) + n.charAt (0) + n.charAt (1); document.getElementById ('big_pic') .src = 'http: //'+t+h+s+u.charAt (0) + s + u + e;
LINK REAL PARA IMAGEM:
MINHA PERGUNTA:
Existe uma maneira de converter os SCRIPTs de LINK em LINKES REAIS?
Eu gostaria de fazer isso em um processo em lote - o comando do terminal seria ótimo - todos os SCRIPTS LINK estão em um único arquivo de texto.
A única solução que vem à mente agora é importar o arquivo de texto para o Libre Calc e convertê-lo usando uma fórmula.
Alguma opinião?
Muito obrigado.