Como bloquear alguns robôs e páginas de referência no nível raiz do Apache

1

Quando eu estava usando o Lighttpd, posso facilmente conseguir isso por meio dessas entradas. Então, todos os sites foram protegidos.

Wget robots:

$HTTP["useragent"] =~ "Wget" {
        $HTTP["url"] =~ "^/tagi(.*)" {
#       $HTTP["url"] =~ "" {
                url.access-deny = ( "" )
        }

        $HTTP["url"] =~ "^/tags(.*)" {
                url.access-deny = ( "" )
        }

        $HTTP["url"] =~ "^/kom.php(.*)" {
                url.access-deny = ( "" )
        }

        $HTTP["querystring"] =~ "^(.*)strony(.*)" {
                url.access-deny = ( "" )
        }

        $HTTP["querystring"] =~ "^(.*)page(.*)" {
                url.access-deny = ( "" )
        }

        $HTTP["url"] =~ "^(.*)/www/delivery/lg.php(.*)" {
                url.access-deny = ( "" )
        }

        $HTTP["url"] =~ "^(.*)/reklamy/(.*)" {
                url.access-deny = ( "" )
        }

        $HTTP["url"] =~ "^(.*)/ads/(.*)" {
                url.access-deny = ( "" )
        }

        $HTTP["url"] =~ "^(.*)/www/delivery/ck.php(.*)" {
                url.access-deny = ( "" )
        }
  }

Sites com tráfego falso:

$HTTP["referer"] =~ "(.*)surfing.php(.*)" {
        url.access-deny = ( "" )
}

$HTTP["referer"] =~ "(.*)promote.php(.*)" {
        url.access-deny = ( "" )
}

$HTTP["referer"] =~ "(.*)trafficadder.php(.*)" {
        url.access-deny = ( "" )
}

$HTTP["referer"] =~ "(.*)traffic.php(.*)" {
        url.access-deny = ( "" )
}

$HTTP["referer"] =~ ".*loic*." {
       url.access-deny = ( "" )
}

$HTTP["referer"] =~ ".*autosurf*." {
       url.access-deny = ( "" )
}

Como fazer o mesmo no Apache? Eu não quero adicionar isso ao .htaccess.

    
por Spacedust 10.03.2012 / 15:49

1 resposta

1

Você pode usar o mod_rewrite, que requer um pouco de esforço. Aqui estão alguns pontos de partida:

link

Observe, em particular, a seção "Bloqueio de robôs": link

Veja também: link

    
por 10.03.2012 / 19:10