Isso deve ser relativamente fácil de fazer com iMacros . Se todas as páginas estiverem dentro da mesma conta protegida por senha, você poderá fazer o login normalmente através do navegador e depois executar o seu script. Mesmo que não estejam atrás do mesmo login e senha, é possível automatizar o processo de login, embora isso acrescente um nível de complexidade.
O iMacros retorna seus resultados em um formato csv. Se for difícil fazer com que o iMacros selecione o elemento HTML preciso que você deseja, geralmente selecionarei uma parte maior da página e, em seguida, extrairei a sequência exata de que preciso com uma função Mid () no Excel. A versão completa autônoma do iMacros tem alguns recursos úteis que não estão presentes no plug-in do Firefox (pelo menos na interface gráfica do usuário). Você pode usar o programa completo gratuitamente como uma avaliação de 30 dias.
Como alternativa, você pode usar o wget para baixar todas as páginas e, em seguida, trabalhar com elas localmente. Pode recuperar páginas de uma lista de URLs. O Wget também permite o login, embora eu não tenha tentado isso. Depois de tê-los local você pode processá-los com iMacros ou até mesmo uma macro executando o editor de texto, como o notepad ++.
Uma ferramenta mais poderosa seria Scraperwiki . Isso, no entanto, requer alguma experiência de programação.