Acontece que o problema estava relacionado à troca. Quando finalmente substituímos a HP por um novo switch Dell, conseguimos obter velocidades de vários gigabits assim que tudo estava conectado.
Estou conectando uma caixa RHEL5 a um Dell EqualLogic PS5000X e vendo no máximo 1 Gbps mesmo ao usar o MPIO com três NICs gigabit.
Eu tenho todas as três interfaces no PS5000X e três interfaces iSCSI dedicadas no servidor conectado ao mesmo switch. Ao usar mais de uma interface para conectar-se à SAN, recebo apenas 1 / n tráfego em cada. Eu segui o guia de configuração da Dell e tudo parece estar funcionando perfeitamente, além de meus números de processamento.
[root@testbox ~]# multipath -ll
linuxvol (36090a02840c3bd2f5ec324010000707f) dm-5 EQLOGIC,100E-00
[size=50G][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=3][enabled]
\_ 6:0:0:0 sdf 8:80 [active][ready]
\_ 14:0:0:0 sde 8:64 [active][ready]
\_ 15:0:0:0 sdi 8:128 [active][ready]
[root@testbox ~]# dd if=/dev/zero of=/mnt/linuxvol/testfile obs=64k count=16M
16777216+0 records in
131072+0 records out
8589934592 bytes (8.6 GB) copied, 76.4894 seconds, 112 MB/s
Eu posso até desligar as sessões iSCSI na metade da transferência e observar a utilização da interface nas conexões restantes saltar de 33% para 50% para 100%, indo de três para duas para uma única sessão. Eu tentei tweaking as várias configurações de profundidade de fila e round robin que apenas fazem uma pequena diferença.
O PS5000X é configurado com 14 unidades de dados mais 2 unidades SAS de 10k RPM hot spare. Meu volume de teste está configurado para RAID-10 com vários iniciadores ativados. Sem provisionamento thin, sem snapshots, sem outro tráfego na SAN.
O que estou perdendo? Existe alguma configuração MPIO que eu preciso ajustar no sistema operacional?
Atualização: o switch é um HP ProCurve 4104GL. Não suporta frames jumbo. O controle de fluxo está ativado em todas as portas SAN. A árvore de abrangência está desativada. Os únicos dispositivos conectados ao switch são o PS5000, o servidor de teste e uma porta de uplink. Eu sei que o tráfego não está passando pelo uplink porque posso observar a utilização da porta no switch durante a execução do teste. Também estou observando o gráfico da interface de rede no PS5000 e ele se alinha perfeitamente com a utilização do switch, com cerca de 33% de taxa de transferência em cada interface.
Acontece que o problema estava relacionado à troca. Quando finalmente substituímos a HP por um novo switch Dell, conseguimos obter velocidades de vários gigabits assim que tudo estava conectado.
Apenas para pensar ... nós tínhamos caixas Server 2003 com software multipath IO em um switch HP ProCurve para SANs Dell PS5000 funcionando bem ... Eu diria que tivemos que lutar com muitas configurações na Dell Lado EqualLogic e do lado iSCSI software no Windows para obter tudo funcionando bem no entanto.
No Windows, um passo crucial para fazer as coisas funcionarem foi mudar o balanceamento de carga de "menos fila" para "round robin" (isso é da memória, então me dê alguma folga se não estiver lembrando os termos corretamente). Uma vez que fizemos isso, pudemos ver a largura de banda do Banalcning EqualLogic em todas as nossas três NICs iSCSI dedicadas.
Certifique-se de que o seu cenário de trabalho iSCSI sobreviva também nas reinicializações! Tivemos que ajustar a ordem em que os serviços são iniciados no Windows (alterando as dependências de serviço) para que o iSCSI e o MPIO funcionem "corretamente" após uma reinicialização
Quais são as suas placas de rede? Integrado ou Cartões? Quais são as limitações de barramento de sua conectividade? Então, basicamente são as interfaces de rede embutidas na placa-mãe ou são uma placa PCI de alguma forma? O que é o barramento PCI, PCI-X ou o que? Qual é a velocidade do barramento? O sistema não pode empurrar mais do que a velocidade do barramento do sistema de interface