Não conheço nenhum servidor da Web que ofereça suporte a downloads com curingas. Você precisará buscar cada URL individualmente.
Manter o máximo possível do seu script original seria algo como:
#!/bin/sh
orig=$1
var=${orig%.jpg}
var=$(echo "$var" | grep -o "[0-9][0-9]$")
cutten=${orig%[0-9][0-9].jpg}
for i in $(seq 1 $(($var - 1))) ; do
echo $cutten$i.jpg
done | wget -i -
Isso faz uso da opção -i
do wget para ler uma lista de URLs para buscar a partir de um arquivo, neste caso stdin, para que possamos apenas canalizar a lista de arquivos para wget.
(se você quiser ver o que vai baixar antes de executá-lo, substitua wget -i -
por cat
)