Você está perguntando sobre como fazer uma pequena SAN iSCSI e está no caminho certo. Fazemos algo muito semelhante com os servidores Dell e os arrays MD3000i.
No diagrama fornecido, você mostra dois links do servidor para alternar. Eu acho que você pode se virar com um link, a menos que você esteja ligando-os para um maior throughput. Conforme mostrado, o arranjo protege contra falha da NIC do servidor, do cabo e da porta no comutador. Uma abordagem melhor (alta do dólar) seria adicionar um segundo comutador e conectar cada Servidor a cada comutador e conectar os comutadores de forma cruzada. Isso protege contra a perda de um switch inteiro, mas adiciona a complexidade do Spanning Tree, que é o protocolo Layer2 para impedir o loop que de outra forma aparece na rede quando dois switches são introduzidos. A partir daí, os dois switches são comumente conectados a duas cabeças SAN, que são conectadas de forma cruzada ... mas isso é uma escala maior do que a que você perguntou. Vá caminho único todo o caminho, e aceite o risco marginal aumentado no comércio para facilidade de atendimento & alimentando.
Em relação à facilidade de atendimento & alimentação: Pense muito sobre a probabilidade relativa de falha de hardware versus falha de wetware. Eu sinto que vejo uma proporção de 5: 1 de humanos fracassados em comparação com a falha real de HW, e então se você não vai fazer o mega-buck totalmente redundante - tudo, mantenha isso simples.
Se você ativar os Jumbo Frames, terá que fazer Jumbo Frames em toda a rede. Você esboçou uma rede de armazenamento dedicada, então você pode fazer isso - eu não tenho tanta sorte.
Se você estiver vinculando essas NICs de servidor para taxa de transferência, considere adicionar mais interfaces vinculadas do switch ao cabeçote SAN. Se cada um dos N servidores estiver fazendo tráfego X, o san precisará acompanhar o tráfego do NX, menos alguns fatores de falsificação de excesso de assinatura.
Eu acredito que a "conexão de cobre" que você perguntou é simplesmente ethernet de par trançado de cobre CAT6, como usado para iSCSI. À medida que você entra no mundo de SAN mais avançado, você vê mais conexões de fibra óptica e placas de HBA com vários conectores físicos modulares - SFP, GBIC, etc.
Tangencialmente, como você está dividindo as sessões de usuários entre os servidores da Citrix? Existe algum tipo de balanceamento de carga ativo no local (Netscaler?) Se você tiver servidores HA Xen, como o processo de failover parece da perspectiva do usuário? Verifique se você identificou o mecanismo pelo qual essa SAN realmente melhora as coisas para os usuários.
Editado para adicionar: você também pode precificar um cluster de armazenamento de anexo direto compartilhado mais tradicional. Eu faço isso com o Windows, então não tenho detalhes sobre o Xen / Linux, mas é um disco SAS compartilhado entre os dois nós. Exemplo é o Dell MD3000 (não o modelo "i"). (Com a Dell, você também precisa do HBA adequado, SAS 5 / e, iirc) Se você nunca vai adicionar mais nós de computação, o cluster SAS pode ser mais fácil & mais barato para construir. Tudo o que você acabar fazendo: validar & Teste, teste, teste. Na minha experiência, as pessoas criam um cluster para adicionar "alta disponibilidade" sem definir o que isso significa em termos reais, e depois não validam que ele as protege contra as falhas que estavam esperando (na verdade, realmente) contra.