O MPIO agrega largura de banda para uma única conexão?

1

Considere a seguinte configuração:

Windows 2008 R2, recurso MPIO instalado. Dois NICs iSCSI (não ligados), 1 GB cada.
Armazenamento: Compellent, 2 portas iSCSI de 1 Gb, controlador único.

Em meus testes, confirmei que, usando o Round Robin MPIO, ambas as NICs iSCSI no host estão ativas durante um teste IOMETER de trabalhador único. Ambas as NICs iSCSI no armazenamento também estão ativas durante esse teste. Estou vendo cerca de 50% a 60% de utilização em cada NIC de host, e eu esperaria mais. Estou usando um switch D-Link de baixa qualidade no momento e isso certamente não está ajudando, então não estou muito preocupado com isso ainda .

A minha pergunta é: em vez de "como posso fazer essa configuração específica executar", gostaria de saber, de forma mais geral, se o MPIO round robin (ativo / ativo) permite que eu obtenha uma largura de banda maior que 1 Gb do host para o armazenamento, usando um único fluxo de E / S (como copiar um arquivo ou executar um único teste IOMETER de trabalhador).

Se sim, por quê? Se não, porque não?

    
por Jeremy 20.01.2012 / 22:22

3 respostas

4

O MPIO tem várias políticas disponíveis. Como o Coding Gorilla aponta, a maioria dessas políticas permite o balanceamento de carga em várias conexões para agregar largura de banda. Tanto o iniciador quanto o destino precisam ter várias conexões para que, na verdade, sejam mais rápidos que a velocidade de um único link. Rodada Robin é uma má escolha de política; você deve usar Distribuição Ponderada ou Menor Profundidade de Fila.

A SAN iSCSI e o Servidor que tenho aqui têm 4 portas cada e eu posso realmente obter ~ 3.2Gbps em circunstâncias bastante ideais. Se você precisar de algo mais rápido do que isso, você estaria olhando para FC ou IB.

Além disso, não use Trunking / Link Aggregation / etc em links iSCSI. Quando um link falha, a conexão falhará. Você deve usar o MPIO para realizar a redundância de links.

    
por 20.01.2012 / 22:43
1

Não sou especialista nos recursos do MPIO e no iSCSI, mas na technet: ( link )

Round Robin - Load balancing policy that allows the Device Specific Module (DSM) to use all available paths for MPIO in a balanced way. This is the default policy that is chosen when the storage controller follows the active-active model and the management application does not specifically choose a load-balancing policy.

Isso para mim diz que é simplesmente distribuir o tráfego entre os dois e não vai tentar empurrar nenhum deles para seus limites para aumentar o desempenho.

Além disso, a partir de uma perspectiva puramente de rede, se você tiver as duas NICs conectadas ao mesmo switch, você não obterá mais do que 1Gb. A maioria dos switches "de consumo" só processará 1Gb de tráfego no máximo, não por porta. Há interruptores finais mais altos que têm um plano traseiro melhor que pode lidar com mais tráfego, mas ainda duvido que você obtenha muito mais deles. Seria melhor colocar cada NIC em um segmento separado (ou seja, switch) para eliminar esse potencial "gargalo".

Como eu disse, não sou especialista no assunto, mas são apenas minhas reações iniciais. Sinta-se à vontade para me corrigir onde estou enganado.

    
por 20.01.2012 / 22:37
0

O MPIO com Equallogic basicamente seleciona a melhor interface iSCSI HBA e a melhor interface na SAN com base na carga avaliada. Pelo que sei, você só obterá um fluxo por LUN, o que significa que você não dividirá o tráfego pela metade em um link Ethernet. então você nunca terá mais de 1Gbs por conexão a esse lun por host. Agora, se você tiver vários LUNS, poderá acessar outras interfaces na SAN para equilibrar a taxa de transferência. No entanto, isso é baseado no meu entendimento do MPIO. Além disso, como mencionado, não há necessidade de agregação de link e o switch provavelmente não é problema seu (a menos que tenha um nível de throughput que você está atingindo, ou seja, supercomprometimento).

aqui está um bom documento sobre como configurar e examinar as várias opções.

link

    
por 21.01.2012 / 01:05