Como bloquear os URLs que solicitam o robots.txt no lighttpd?

1

Temos um servidor de desenvolvimento dedicado que executa apenas aplicativos PHP de teste em uma rede pública.
Nós instalamos a autenticação baseada em sessão para o site.

O problema que temos é que há muitos 404s registrados no log de acesso do robots.txt.
Então, queremos bloquear / ignorar essas solicitações no lighttpd para economizar alguma largura de banda.

Como podemos conseguir isso no lighttpd / 1.4.31?

    
por Vishnu Kumar 19.11.2012 / 15:14

0 respostas