HP ProLiant BL460C Gen9 - NICs

3

Existe uma maneira de obter mais de 4 NICs físicas (4 ativas / 4 em standby) em um servidor HP BL460c Gen9 SEM usar cartões mezzanine e VCMs extras?

EDIT para mais informações:

Eu tenho dois gabinetes c7000. Em cada uma, tenho duas configurações de Flex-10 VCMs como ativo / em espera. Os blades BL460c Gen8 e Gen9 em cada c7000 possuem os módulos LOM de 10 GB e executam o ESXi v6. Na configuração atual, os sistemas têm a seguinte aparência e funcionam bem:

[para maior clareza, os Blades NICs 5,6,7 e 8 são o lado redundante dos NICs 1,2,3 e 4]

Uplink em x1 = tronco de 10 GB (todas as vlans, exceto SAN)
Uplink em x2 = 10GB SAN vlan apenas

Blade NIC 1 (Uplink x1) - 100 MB do VMware Management
Blade NIC 2 (Uplink x1) - 1GB vMotion
Blade NIC 3 (Uplink x2) - iSCSI SAN de 5 GB Blade NIC 4 (Uplink x1) - 3.9GB todas as redes de dados (separadas por vlans)

Nossa equipe de armazenamento adquiriu uma nova SAN e configurou essa nova SAN para usar dois domínios de falha, exigindo duas conexões físicas com a SAN de cada blade.

Agora, suponho que eu possa executar o gerenciamento do VMware e o vMotion no mesmo NIC, mas essa não é uma prática recomendada do VMware. Então, eu teria liberado um NIC para ser o segundo para o novo domínio de falha de SAN.

Minha pergunta inicial era verificar se existe alguma maneira de analisar outra placa de rede em cada blade, para que eu não precise ir contra as melhores práticas da VMware e, mais importante, não precise comprar quatro novas placas mezanino e mais quatro VCMs. Vou mencionar que eu tenho um trio c7000 que é configurado da mesma forma que os dois listados acima e este terceiro c7000 se juntará aos outros dois em função para que os números de compra sejam de fato seis cartões mezaninos e seis VCMs.

Vocês me perguntando por mais detalhes me forçaram a documentar nossa configuração, algo que eu queria fazer há anos, então obrigado por isso.

    
por Dave Claussen 23.05.2016 / 17:21

1 resposta

2

Você está dificultando a vida para si mesmo, eu tenho lidado com Virtual Connects desde o primeiro dia e usá-los extensivamente agora - o que eu acho que você deveria fazer é isso;

Crie duas VC 'Ethernet Networks', ambas bastante idênticas, defina preferencialmente 10Gbps, habilite passagem de VLAN e Smart Mode, aponte um na porta 1 do VC 1 (ou qualquer que seja o tronco principal no comutador físico 1) eo segundo A porta 1 do VC2 (ou o que quer que faça o mesmo para o comutador físico 2) - em seguida, faça o trunk de todas as VLANs apropriadas em ambos os links.

Em seguida, crie um Perfil do Servidor que tenha 2 x 10 Gbps, um link por 'Ethernet Network' (você terá que usar o iniciador iSCSI do software) OR 4 x vNICS com 2 para iSCSI e 2 para todo o resto, se você quiser usar o iniciador de hardware, você decide a divisão de velocidade.

Depois, tudo o que você precisa fazer é configurar seu vSS ou vDS para ter Grupos de portas para gerenciamento, vMotion, iSCSI e seu tráfego de VMs e usar o agrupamento por padrão para enviar todo o tráfego do Management, vMotion e iSCSI no segundo ou terceiro + quarto vNICs (portanto, para o comutador físico 2) e, em seguida, o tráfego da VM sobre o primeiro vNIC (portanto, para o comutador físico 1).

Dessa forma, com links para as VMs, você obtém 10Gbps para si mesmo ou para qualquer divisão de velocidade escolhida, enquanto o Gerenciamento, o vMotion e o iSCSI recebem seus próprios 10Gbps ou, novamente, o que você dividir rapidamente. Obviamente, se você perder um link, eles estarão todos do mesmo 'lado', mas isso é verdade para qualquer configuração como essa.

Temos literalmente centenas de hosts configurados de forma semelhante a isso (2 x 10Gbps, pois usamos FC em vez de iSCSI) e isso funciona bem, é muito fácil de gerenciar também.

De qualquer forma, a única lição que aprendi com o VC é porque você CAN divide seus pNICs em vários vNICs, não significa que faça sentido - manter as coisas o mais simples possível.

    
por 23.05.2016 / 19:07

Tags