O Squid filtra alguns dos URLs HTTPs do Bugzilla

0

Estou tentando ajustar a filtragem da Web com o squid, mas atendendo a um comportamento incompreensível (para mim).

Por exemplo, se eu abrir o seguinte endereço:

link

Tudo vai bem. Mas se eu tentar abrir

link

mostra a página proibida do squid. Eu não tenho nenhum site do bugzilla na lista explícita.

UPDATE

Outra descoberta.

Se eu abrir o URL

https://abs.twimg.com/c/swift/ru/init.faad1a e mais tempo mostra a página proibida. Se eu abrir https://abs.twimg.com/c/swift/ru/init.faad1 e mais curto, ele exibe a página do Twitter 404, ou seja, passa o squid.

Não consigo encontrar nada que corresponda a essa diferença. Pode ser que eu não sei, como verificar?

A regra proibitiva é semelhante a esta

acl adslist url_regex -i "/etc/squid/adslist.txt"
http_access deny adslist

enquanto o adslist.txt é assim:

.101com.com
.101order.com
.103092804.com
.103bees.com
.1100i.com
.123banners.com
.123found.com
.123pagerank.com
.180hits.de

As linhas como essas correspondem parcialmente à regra e acionam 403?

    
por Dims 22.04.2016 / 14:08

0 respostas

Tags