A realidade é que esses "ataques" são, na maioria das vezes, apenas robôs que rastreiam a Web em busca de uma página específica ou de links a seguir. Se você tiver um arquivo "robots.txt" e esperar que isso pare, não será. Se você está tentando reduzir o consumo no tráfego, eu tenho algumas sugestões abaixo. Se você só quer que seu site seja acessado em seu país, use iptables
e bloqueie todas as solicitações, exceto os endereços IPv4 alocados em seu país. Encontre o registrador do seu país aqui .
Se você quiser proteger seu servidor, há algumas coisas que você pode fazer. Primeiro é usar fail2ban . Configure-o para que, em certos ataques, ele bloqueie automaticamente o ip. Você também deve usar o ModSecurity para o httpd do Apache. Se você tiver o poder no sistema, sugiro um IDS; Eu recomendo Suricata .
Você pode usar um cronjob para pegar a lista negra mais recente do provedor de sua escolha e criar regras de iptable para elas ... mas isso diminuirá um pouco sua conexão quando você tiver MUITAS regras. (FYI, se você usar um IDS, ele vai cuidar das listas negras para você e será mais rápido).