Vimos que você está tentando usar padrões de glob no seu robots.txt.
De página de robôs da web :
Note also that globbing and regular expression are not supported in either
the User-agent or Disallow lines. The '*' in the User-agent field is a
special value meaning "any robot". Specifically, you cannot have lines like
"User-agent: *bot*", "Disallow: /tmp/*" or "Disallow: *.gif".
Você precisaria fazer o que a Arenstar ou o Tom O'Connor recomendam (isto é, usar uma ACL do Apache para bloqueá-los, eliminar o tráfego no nível do IP) ou, possivelmente, rotear os endereços IP via 127.0.0.1 ( isso os impediria de estabelecer sessões TCP em primeiro lugar).
Em longo prazo, considere se você pode colocar todas as suas páginas com uso intensivo de CPU em um prefixo comum e, em seguida, poderá usar o robots.txt para instruir os rastreadores a se manterem longe deles.