Seu tlld .local pode ser o problema, o zeroconf usa isso. Não existe um padrão real, mas o tld sugerido para um tld interno é .site ou .internal. Veja link para isso.
Estou enfrentando uma pequena pergunta aqui. Eu tenho um longo arquivo /etc/hosts
. (trabalhando na web, então estou hospedando muitos sites localmente para desenvolvimento). Vamos dizer que é cerca de 40, 50 linhas de comprimento.
Todos redirecionando para 127.0.0.1.
Agora, ao verificar o inspetor do Chrome, parece que minhas páginas da web locais estão carregando lentamente devido à parte de pesquisa de DNS. Em um mygreatwebsite.local
url também definido no arquivo /etc/hosts
.
Após uma verificação rápida, parece que a redução do arquivo hosts
para algumas linhas acelera drasticamente a parte de pesquisa de DNS. Então, minha pergunta, é possível ser confrontado com diferenças de cerca de 5 segundos para 50 linhas e tempos insignificantes para algumas linhas? Ou eu estou completamente perdendo alguma coisa?
Seu tlld .local pode ser o problema, o zeroconf usa isso. Não existe um padrão real, mas o tld sugerido para um tld interno é .site ou .internal. Veja link para isso.
Can a long /etc/hosts file slow DNS lookup?
A resposta é sim , em uma máquina Windows (XP / Vista / 7).
É um problema conhecido que um arquivo hosts longos não funciona bem com o serviço "Cliente DNS".
link :
in most cases a large HOSTS file (over 135 kb) tends to slow down the machine.
[Solution: Set "DNS Client" service to manual or disabled]
link :
Note that a hosts file that is much over 100 KB can actually slow up browsing unless the service "DNS Client" is set to manual start.
www.ericphelps.com/scripting/samples/Hosts /:
The most important thing to do before using large HOSTS files is to disable the Domain Name Service client ("DNS Client" or "DnsCache") service on your machine. It sounds bizarre, but the DNS client isn't needed to do DNS. Worse, if you have a large HOSTS file (which is what I suggest), the DNS client chokes your entire PC.
... e testemunhei isso pessoalmente em três máquinas Windows diferentes: XP Pro, Vista e 7 Starter.
Eu sugiro usar o tcpdump para ver o que realmente está acontecendo. Sem isso você só estará adivinhando.
A sintaxe básica seria
tcpdump -n -i eth0 port 80 or port 53
(se você estiver interessado em ver as portas 80 e 53, -n para evitar pesquisas de DNS, supondo que toda a comunicação esteja ocorrendo na eth0).
Se isso for muito rápido ou muita informação, redirecione-o para o dumpfile adicionando:
-s 0 -w /tmp/dump
e use, por exemplo, wireshark para procurar no arquivo de despejo. Você pode ver informações precisas de tempo no arquivo e muito mais ...
Quando eu usei o Spybot, ele inserirá cerca de 50.000 entradas de arquivo de hosts que redirecionam sites maliciosos conhecidos para 127.0.0.1. Eu nunca notei nenhum problema de ter um longo arquivo hosts dessa natureza. Provavelmente tem mais a ver com sua configuração de desenvolvimento ou com o próprio código. Quantos sites você está servindo localmente (50?) Será que todos um deles demoram tanto para responder quando 50 inscrições estão presentes?
Por vários motivos, tenho arquivos de hosts em algumas máquinas com centenas de entradas. Isso não tem impacto nas pesquisas de DNS, simplesmente porque, uma vez que a máquina tenha encontrado uma entrada no arquivo de hosts, ela não fará uma pesquisa pelas mesmas informações. Se tudo estiver configurado corretamente, o tamanho do arquivo de hosts não afetará o desempenho, pois mesmo com milhares de entradas, esse arquivo ainda pode ser analisado mais rapidamente do que realizar uma pesquisa de DNS. Verifique a ordem na qual sua máquina está resolvendo endereços. O arquivo hosts deve ser o primeiro.
Com base no meu teste, um arquivo de hosts de 34 MB com alguns milhões de entradas desacelera a navegação no Windows mesmo quando o serviço "Cliente DNS" está desabilitado. Portanto, há um tamanho máximo além do qual você provavelmente não quer ir.