Configuração do NIC do vSphere?

1

Tenho uma pilha de HP SAN e caixas de servidores atrás da minha mesa.

Para encurtar a história, teremos dois hosts do vSphere, cada um com 12 pNICs, e um único comutador Procurve 2910al (na verdade, dois, mas vinculados) dedicado ao tráfego iSCSI / vMotion e iSCSI SAN (P4000).

Algumas NICs serão alocadas para minha LAN de produção como NICs de VM e, portanto, posso acessar o servidor vCentre, e o tráfego iSCSI e qualquer item mais bem mantido da LAN de produção entrará no 2910al.

Eu quero apresentar as LUNs iSCSI para alguns dos convidados (Exchange / SQL / talvez o servidor de arquivos) usando o iniciador iSCSI do Windows para que eu possa usar os instantâneos VSS integrados da SAN.

Eu também gostaria de poder gerenciar a SAN a partir da rede de produção, então eu acho que eu usaria a função de roteamento no switch para isso?

Gostaria de receber sugestões sobre a maneira ideal de configurar o layout de switch / VLAN.

    
por flooble 03.12.2010 / 18:11

2 respostas

4

Na perspectiva do vSphere, você deseja redundância no console de serviço \ Gerenciamento de rede. Idealmente, dois pnics separados conectam-se a dois switches independentes. Então, dois nics lá em uma VLAN de gerenciamento isolado.

Vmotion \ Fault tolerance (se você estiver usando o último) novamente, pelo menos dois pnics conectados a dois switches independentes. Então, dois nics lá em uma VLAN separada no procurve 2910 (s).

Para iSCSI que será apresentado ao ambiente vSphere, você deseja novamente pelo menos dois e, nesse caso, é muito importante que eles se conectem a switches independentes. A partir de uma perspectiva do cSphere, a recomendação é configurar vários vSwitches separados, com uma única porta VMKernel em cada um e uma única pnic. Cada uma dessas portas vmKernel deve ter o tráfego vMotion \ FT desativado. Todas as portas vmkernel iSCSI precisam ser ligadas à pilha iSCSI para habilitar failover e multipathing, se essa for uma opção para sua matriz. É possível obter multipathing nativo com balanceamento de carga sem precisar do Enterprise Plus, desde que o seu fornecedor tenha um Módulo de Extensão de Multipathing (MEM), se ele fornecer um PSP (Path Selection Provider), então o Enterprise Plus é necessário. Eu não tenho certeza de como o LeftHand lida com isso, o pior é que você obtém failover, mas não tem balanceamento de carga real. Na frente do switch, mantenha as conexões iSCSI em sua própria VLAN no Procurves.

Para o iSCSI nativo apresentado às VMs, você deseja o mesmo tipo de resiliência, com pelo menos dois pnics conectados a switches físicos separados. Idealmente, você deve repetir o padrão usado para os switches iSCSI do vSphere - um pnic por vSwitch e um grupo de portas VM por vSwitch. Isso permite que os componentes internos de vários caminhos nas VMs tomem decisões sensatas de gerenciamento de caminhos e lhes dê alguma visibilidade sobre o estado da conexão do caminho. Se o balanceamento de carga não for importante para você nas VMs, então o agrupamento simples e um único vSwitch funcionarão, mas com seus planos que não parecem ideais. Novamente, estes se conectam ao Procurves.

Eu recomendo strongmente que seus dois Procurves não sejam configurados como uma única unidade lógica (usando empilhamento), se possível. Muitos links entre switches configurados como um único LAG são melhores, 10Gig se possível, de uma perspectiva de gerenciamento e segurança. Considere como você atualizará o firmware nesses switches ou executará outras manutenções pela linha.

Em qualquer caso, ele usa 8 de seus 12 pnics em cada host do vSphere, deixando-o com quatro para o tráfego de produção, o que parece razoável o suficiente.

Em seguida, você pode gerenciar o ambiente iSCSI de VMs conectadas aos grupos de portas VM iSCSI, caso contrário, você precisará fornecer alguma conectividade entre as aquisições e seu ambiente de produção. Definitivamente lidar com isso na camada 3 - você deseja manter o ambiente iSCSI livre de tráfego estranho quanto possível na camada2.

    
por 03.12.2010 / 19:05
1

Suponho que ninguém conseguirá fornecer detalhes sem mais informações sobre a edição do vSphere que você possui (somente o Enterprise e o Enterprise Plus suportam alguns dos recursos avançados, como multipathing de armazenamento), além disso para quais são os seus requisitos para uso de BW e tolerância a falhas. Com isso dito, ao planejar essas coisas, eu sempre divido as NICs nas quatro categorias a seguir e, em seguida, determino quais são meus requisitos para cada uma, seguidas pelo que realmente pode ser realizado:

  1. Gerenciamento
  2. vMotion
  3. Armazenamento
  4. Distributed vSwitch (assumindo o Enterprise Plus)

Você precisa de redundância para cada um? Você precisa de mais de 1G para cada um? Você tem NICs suficientes para fornecer redundância? (Neste caso, você faz, IMHO.) Depois de tomar essas decisões, em seguida, planejando o que realmente ligar onde deve ser um pedaço de bolo (supondo que você vai manter a separação entre as quatro redes acima, o que eu recomendo).

Então parece que você precisará de pelo menos

  1. 2 x Gerenciamento
  2. 2 x vMotion
  3. 4 x Armazenamento - Hosts (2Gbps x 2 para redundância)
  4. 4 x Armazenamento - convidados (2Gbps x 2 para redundância)

Ainda bem que você tem 12 NICs em cada host, porque você já está no limite!

Supondo que os switches se comportem como uma única unidade, você precisará de uma VLAN para gerenciamento, uma para o vMotion e outra para o Storage, e conectará tudo para que cada grupo tenha conexões iguais com os dois switches físicos.

    
por 03.12.2010 / 18:25