Eu estive lá! No ano passado, configurei um cluster semelhante (exceto que minhas caixas eram Fujitsu) usando uma SAN iSCSI para Hyper V.
Na verdade, não é tão difícil, mas haverá obstáculos ao longo do caminho. Se você está colocando, eu definitivamente estaria ensaiando sua instalação em um rack de servidor em suas próprias instalações antes de movê-lo para o datacenter (eu usei um gabinete de servidor à prova de som para isso).
Ah, uma outra coisa em preparação, você não menciona isso, mas uma coisa com a qual eu não me preocuparia é a inicialização iSCSI, que é oferecida em alguns sistemas iSCSI. É difícil de configurar e nem sempre funciona com redundância. É sempre melhor ter um ou dois discos de inicialização física nos nós para que, se você tiver um problema de configuração de rede ou um problema de iSCSI, ainda possa inicializá-los. Eu uso unidades de estado sólido pequenas (40GB) em cada um dos meus servidores para discos de inicialização.
Você definitivamente precisa de um AD DC separado. Na verdade, comecei com um cluster de três nós e limitei-o a dois nós, além de um 'nó principal' não agrupado que executa backups no DPM 2010 e um DC virtualizado.
Você mencionou 6 portas, isso pode ser suficiente. Mas permita-me illustate minha configuração de nó que tem 10 portas:
- Você sempre precisará de 2 portas por nó para a rede iSCSI (cada uma pertence a uma sub-rede diferente para a redundância MPIO e deve estar em NICs separadas)
- 1 porta para pulsação que não possui nenhum outro tráfego
- 1 porta para migração ao vivo e transferências (essa é a única que você pode querer atualizar para 10g ou infiniband, mas a menos que você esteja provisionando 10s de VMs por dia, não vale a pena)
- 1 porta para acesso remoto à área de trabalho
- 1 porta para cartão de gerenciamento do servidor
- 1 conjunto de portas agrupadas que constitui a principal rede de acesso *
- 1 conjunto de portas de equipe que constituem uma rede DMZ (opcional) *
* É frequentemente apontado por detratores que a Microsoft não suporta oficialmente o agrupamento de portas (enquanto VMWare o faz), mas na verdade a palavra oficial é que eles não desencorajam isso, mas simplesmente sentem que o suporte está nas mãos dos fornecedores NIC . Eu uso placas de rede Intel que são da geração ET, que possuem recursos específicos de rede virtual e acho que funcionam muito bem com o Hyper V. Eles realmente permitem dividir uma equipe entre switches para que se um dos switches falhar você tenha acesso consistente à equipe , um pouco como o MPIO, mas para máquinas virtuais.
O Hyper V é realmente muito resistente e bom de usar. Eu me aproximaria do seu trabalho nessa sequência: 1) Configure os nós individualmente, instale o iniciador iSCSI, instale o MPIO, forneça as portas iSCSI, as portas de transporte e de aquecimento, as portas de gerenciamento, endereços de sub-rede diferentes. 2) Configure o Hyper V e atribua as portas escolhidas à sua rede virtual 3) Em seguida, execute o assistente de validação do cluster e forme o cluster.
Você deve sempre atribuir portas à sua rede virtual primeiro, porque isso impede que elas sejam usadas pelo cluster. Isso parece contra-intuitivo, mas basicamente você manterá sua rede virtual agnóstica em sua rede de clusters. Isso ainda lhe dá redundância, então não se preocupe. Mas, para conseguir isso (e não há outro jeito), você terá que ter um conjunto separado de switches para o seu cluster e hyper V (dois para redunidade) ou você precisará configurar as VLANs nos seus switches. Eu faço o último (usando VLANS sem tag) e funciona muito bem.
Alguns outros posts aqui sugeriram que você use um consultor para fazer esse trabalho. Se eles estiverem familiarizados com o Hyper V, isso pode ser uma boa ideia. Ele não dá a você o conhecimento profundo que você, de outra forma, adquiriria do DIY, mas pouparia seu tempo. Eu tive bastante tempo no ano passado, e não tenho vergonha de admitir que precisei de vários meses de trabalho e descobri que tudo funcionaria bem.
Boa sorte!