Se você quiser apenas pegar cada URL (independentemente do número), a resposta é fácil:
#!/bin/bash
URL_LIST="http://url1/ http://url2/"
for url in $URL_LIST ; do
wget ${url} & >/dev/null
done
Se você quiser apenas criar um número limitado de pulls, digamos 10. Então você faria algo assim:
#!/bin/bash
URL_LIST="http://url1/ http://url2/"
function download() {
touch /tmp/dl-${1}.lck
wget ${url} >/dev/null
rm -f /tmp/dl-${1}.lck
}
for url in $URL_LIST ; do
while [ 1 ] ; do
iter=0
while [ $iter -lt 10 ] ; do
if [ ! -f /tmp/dl-${iter}.lck ] ; then
download $iter &
break 2
fi
let iter++
done
sleep 10s
done
done
Observe que eu não testei, mas acabei de bater em 15 minutos. mas você deve ter uma ideia geral.