Espero que você possa ajudar.
Atualmente eu tenho haproxy 1.7.9 compilado com Tproxy em centos 7.
Isso é usado para balancear a carga de 6 servidores proxy para acesso à Internet no back-end. É configurado como um braço nat com um 10gb vmnet3 nic. Os 6 servidores proxy são Cisco WSA. keepalived é configurado com um vip. O IPtables é utilizado para encapsular o tráfego para garantir que o proxy cisco wsa do back end receba o endereço IP de origem em vez do endereço IP haproxy.
Estamos com problemas de desempenho / latência com os usuários relatando acesso lento à Internet, etc., pois a contagem de usuários aumentou. Alguém pode ver ou sugerir algo no balanceador de carga que possa estar causando problemas?
config:
global
daemon
log 127.0.0.1 local4
maxconn 40000
ulimit-n 81000
defaults
log global
timeout connect 5000
timeout client 300000
timeout server 300000
mode http
frontend http-in
bind *:80,*:443,*:8021
maxconn 50000
default_backend backend_servers
option forwardfor
#option http-server-close
#option forceclose
backend backend_servers
#option http-server-close
#option forceclose
balance leastconn
stick-table type ip size 20240k expire 5m
stick on src
server edu-wsa01 10.80.10.111:80 check inter 30000 fall 3
server edu-wsa02 10.80.10.112:80 check inter 30000 fall 3
server edu-wsa03 10.80.10.113:80 check inter 30000 fall 3
server edu-wsa04 10.80.10.114:80 check inter 30000 fall 3
server edu-wsa06 10.80.10.116:80 check inter 30000 fall 3
server edu-wsa07 10.80.10.117:80 check inter 30000 fall 3
#server web2 10.80.10.248:80 check inter 30000 fall 3
#server web3 10.80.10.247:80 check
source 0.0.0.0 usesrc clientip
Abaixo, esta é apenas a configuração de estatísticas na porta 7000
Eu estava procurando fazer o retorno direto do servidor, no entanto, estou tendo problemas com o loopback de suporte da WSA.
Tags haproxy centos7 keepalived