O link do escravo bond é muito lento

3

Em um dos meus servidores, configurei um dispositivo de ligação que consiste em uma placa de rede integrada e uma placa de rede PCIe. (eth1 e eth5)

Eu configurei a configuração de acordo com man ifcfg-bonding - ou seja, eth1 e eth5 não serão ativados na inicialização do sistema, mas o bond0 fará isso.

Agora, o problema parece ser que o eth5 leva muito tempo para estabelecer um link. O resultado é um bond0 em execução que consiste em eth1 e eth5, mas o link eth5 está inativo.

Se eu fizer um manual ifconfig eth5 up nessa situação, o eth5 terá um link e tudo ficará bem.

Detalhes:

# cat /proc/net/bonding/pbond0
Ethernet Channel Bonding Driver: v3.2.5 (March 21, 2008)

Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: eth1
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth1
MII Status: up
Link Failure Count: 0

Slave Interface: eth5
MII Status: up
Link Failure Count: 0

# ethtool -i eth1
driver: bnx2
version: 2.0.18-suse
firmware-version: 6.2.16 bc 5.0.4 UMP 1.1.9

# ethtool -i eth5
driver: e1000
version: 7.6.15.5-NAPI
firmware-version: 5.6-2

A solução pode ser dar a eth5 mais tempo para resolver o link durante a inicialização. Isso é provavelmente muito específico do sistema operacional (aqui: SLES10 SP4).

    
por Nils 19.07.2012 / 14:43

1 resposta

1

Supondo que eth1 e eth5 estejam pelo menos configurados como ONBOOT=yes (embora não tenha outra configuração), você pode usar a variável POST_UP_SCRIPT em ifcfg-eth5 para chamar um sleep 5 .

Ou, o contrário, em ifcfg-bond0 set PRE_UP_SCRIPT para dar a eth5 algum tempo para resolver.

Compare com Documentação do Suse .

    
por 30.09.2012 / 11:36