Para reduzir a carga de rastreamento - Isso só funciona com a Microsoft e o Yahoo. Para o Google, você precisa especificar uma velocidade de rastreamento mais lenta por meio das Ferramentas do Google para webmasters ( link ).
Tenha muito cuidado ao implementar isso, porque se você diminuir muito o rastreamento, os robôs não poderão acessar todo o seu site, e você poderá perder páginas do índice.
Aqui estão alguns exemplos (estes aparecem no seu arquivo robots.txt
):
# Yahoo's Slurp Robot - Please wait 7 seconds in between visits
User-agent: slurp
Crawl-delay: 7
# MSN Robot - Please wait 5 seconds in between visits
User-agent: msnbot
Crawl-delay: 5
Ligeiramente fora do assunto, mas você também pode especificar um arquivo de índice de Sitemap ou Sitemap.
Se você deseja fornecer aos mecanismos de pesquisa uma lista abrangente de seus melhores URLs, também é possível fornecer uma ou mais diretivas de descoberta automática do Sitemap. Por favor, note que user-agent não se aplica a esta diretiva, então você não pode usar isso para especificar um sitemap para alguns, mas nem todos os motores de busca.
# Please read my sitemap and index everything!
Sitemap: http://yourdomain.com/sitemap.axd