O seu for
loop está bem (exceto que ele poderia ser escrito de forma mais eficiente usando break
quando $j -ge 10
, para que ele não continue iterando pelos elementos restantes.
O problema é que você espera que wget ... -r
obtenha apenas um arquivo por iteração. Não é assim que funciona; o loop está contando apenas o número de invocações de wget ... -r
e cada uma dessas invocações pode fazer o download de um número ilimitado de arquivos.
O -e robots=off
não está relacionado, exceto pelo fato de que usar robots.txt
pode impedir a recursão muito mais cedo se muitos dos arquivos forem realmente bloqueados para rastreadores.
Você não deveria usar -e robots=off
. Dependendo da sua jurisdição, pode haver consequências legais ao fazê-lo (eu concordo que isso é péssimo, a raspagem deve ser legal, mas essa é a situação atual).