SAN iSCSI para cluster do vCenter

2

Estou procurando configurar uma SAN para um cluster VMWare vCenter de hosts ESX. Eu gostaria que fosse o dispositivo de armazenamento primário para VMs. Haverá até 10 hosts no cluster, eventualmente.

Estou criando um ambiente de teste com o FreeNAS instalado em um Poweredge R610. Se der certo, poderemos comprar um R720 ou algo com muitos compartimentos de unidade. Eu tenho um RAID-Z nas unidades no R610 com um cache SSD de 120GB. Eu planejo conectar este servidor a um switch gigabit dedicado / isolado com jumbo-frames habilitados, e todos os hosts se conectarão a este switch para iSCSI.

Isso é o que eu tenho até agora.

  1. O FreeNAS é uma boa opção para isso?
  2. Como configuro isso no lado do VMWare? Eu conecto cada host individualmente à SAN via iSCSI? Ou eu adiciono diretamente ao vCenter? Eu gostaria que a capacidade de balancear a carga de VMs entre os hosts facilmente, sem ter que transferir VMDKs, o que eu suponho é bastante implícito, já que todos eles estarão na SAN de qualquer maneira.

Qualquer ajuda, dicas, coisas que você aprendeu com a experiência seriam muito apreciadas!

Devo observar que nunca configurei um SAN / iSCSI antes, então estou pisando em novas águas.

EDITAR Este post me ajudou a perceber que vou precisar investir muito em equipamentos de rede mais sofisticados para fazer isso da maneira que eu quero. Hora de reavaliar!

    
por computmaxer 22.03.2013 / 04:58

4 respostas

6

Esta questão depende muito da sua camada de licenciamento do VMware vSphere ... , os aplicativos e VMs que você pretende executar e a quantidade de espaço de armazenamento e perfil de desempenho necessários.

Responda: primeiro, como uma organização que pode arcar com o licenciamento adequado de dez hosts ESXi em um cluster do vSphere deve estar preparada para uma solução de armazenamento de ponta e backbone de rede do que você está planejando. (O preço do Ballpark para o nível de licenciamento correto para muitos hosts é de ~ US $ 100 mil).

Acho que o escopo dessa questão é um pouco abrangente, já que existem princípios de design estabelecidos para instalações VMware de todos os tamanhos. Vou tentar resumir alguns pensamentos ...

Notas específicas do ZFS:

  • O RAIDZ é uma escolha ruim para o uso de máquinas virtuais em praticamente todos os casos de uso. Ele também não permitirá a expansão que você pode precisar com o tempo . O uso de espelhos ou espelhos triplos seria preferível para manipular os padrões de E / S aleatórios de leitura / gravação de máquinas virtuais. Para as práticas recomendadas do ZFS, confira COISAS QUE NINGUÉM DISSERAM SOBRE O ZFS
  • A escolha de
  • SSD é importante em soluções baseadas em ZFS. Você tem opções de cache L2ARC e ZIL. Eles são otimizados para leitura e otimizados para gravação, respectivamente. As características dos SSDs que você usaria em cada aplicativo são diferentes. SSDs SAS de qualidade para caching ZFS são US $ 1500 + US.
  • O FreeNAS não é um alvo robusto do VMware. Tem uma reputação de desempenho ruim. Se você está definido no ZFS, considere algo como NexentaStor , que pode ser executado no mesmo tipo de hardware, mas é compatível com o aceleração de hardware de armazenamento (VAAI) e tem algum nível de suporte disponível.

Notas do VMware vSphere:

Notas da rede:

Eu executo grandes clusters VMware no meu trabalho diário. Quando estou lidando com mais de três hosts, começo a confiar nas conexões de 10 GbE entre o storage array e o switch (es). Minhas conexões com hosts individuais podem permanecer em 1GbE, mas geralmente são 10GbE.

Isole sua rede de armazenamento dos dados. Quadros jumbo nem sempre são a chave para o desempenho. Se você habilitá-los, verifique se eles estão configurados de ponta a ponta em todos os dispositivos no caminho.

    
por 23.03.2013 / 04:41
4

FreeNAS para um ambiente de vSPhere de produção? Eu não recomendaria isso.

No entanto, em cada host, você precisará adicionar o Software iSCSI Adapter (do nó Storage Adapters na guia Configuration de cada host) e, em seguida, precisará configurar o adaptador iSCSI de acordo para conectar-se ao seu destino iSCSI . Depois de conectar o adaptador iSCSI ao destino iSCSI, você precisará verificar novos dispositivos de armazenamento em um de seus hosts e criar um novo armazenamento de dados a partir do dispositivo de bloco de destino iSCSI descoberto. Você se conectará ao datastore recém-criado de cada um dos seus outros hosts. Você pode então mover seu armazenamento de VM para a SAN iSCSI.

Você precisa de uma Edição ou um Kit específico para mover as VMs de um host para outro e / ou mover o armazenamento da VM.

    
por 22.03.2013 / 22:56
3
  1. Para teste? Claro, porque não.
  2. Cada host ESX precisa de uma conexão com a rede iSCSI. Tente não compartilhar esses adaptadores iSCSI com o tráfego da LAN, portanto, isso pode significar a necessidade de ter um monte de NICs em cada host quando você começar a adicionar múltiplos caminhos ou agregação. Sim.
  3. a máquina do vCenter não precisa de nenhuma conexão com a rede iSCSI, a menos que você esteja fazendo algo que exija isso.
por 22.03.2013 / 05:10
1

Como você está usando os servidores da Dell, talvez queira investigar o EqualLogic da Dell ou a série MD de SANs iSCSI de extremidade inferior ... Não estou sugerindo que funcionem melhor com os servidores Dell, mas os uso há mais de quatro anos e eu realmente gosto deles e o apoio é bom se você precisar. Eles têm modelos de 10Gbps, mas você também precisa de switches de 10Gbps. Vimos uma taxa de transferência muito boa com nossos modelos mais novos EQLs que têm 4 NICs cada, mas o par de mais antigos que temos com apenas 3 X NICs de 1 Gbps também funciona com 4 a 6 hosts Hyper-V e ESX, cada um com um conjunto de aplicativos e servidores db executando o Windows e o CentOS. Bottom line, 10Gbps não é necessário, o iSCSI é amplamente implementado com vários 1Gbps e MPIO.

A execução do FreeNAS em um servidor padrão não é ruim, mas se o servidor falhar, seu armazenamento estará inativo. Um array de propósito específico, como EQL ou similar, geralmente é executado com controladores duplos, além de fontes de alimentação duplas e RAID ... menos chance de tempo ocioso.

Jumbo frames é bom, mas honestamente, temos coisas funcionando sem e não há perceptível diferença. O switch separado é OK, mas não é obrigatório, você pode usar VLANs ... Eu realmente recomendaria dois switches para redundância com o tráfego de armazenamento VLAN desativado se o orçamento fosse uma preocupação.

    
por 23.03.2013 / 03:44