Sugestões de hardware e topologia para ambiente iSCSI + GFS

1

No momento, estamos avaliando soluções de hardware e topologia para um novo ambiente usando o GFS + iSCSI e gostaríamos de algumas sugestões / dicas. Nós implantamos uma solução similar no passado, onde todos os hosts acessando os nós GFS eram os próprios nós GFS. A nova topologia seria separar os nós GFS dos clientes que os acessam.

Um diagrama básico ficaria assim:

GFS_client < - > gigE < - > Nós GFS < - > gigE < - > dispositivo SAN iSCSI

  1. Esta é a maneira mais ideal de configurar o GFS + iSCSI?
  2. Você tem sugestões de hardware para os nós do GFS (por exemplo, CPU ou memória pesada)?
  3. Você tem sugestões sobre configurações de tweaks / config para aumentar o desempenho dos nós do GFS?
  4. Atualmente, estamos usando conexões de 3 a 4 gigabytes por host para desempenho e redundância. Neste ponto, 10gigE ou fibra se tornam mais atraentes para custo / escala?
por Josh 02.06.2009 / 00:35

6 respostas

1
  1. Não acho que exista uma configuração "ideal". Apenas certifique-se de iniciar seu iniciador iSCSI antes do GFS. Você já especificou a ligação como uma medida de redundância / desempenho. Você provavelmente também deve pensar em configurar uma conexão multi-path para seu destino, se você tiver 4 NICs, talvez crie 2 caminhos em 2 interfaces unidas para melhor redundância. Você também deve considerar o uso de quadros Jumbo se tiver um comutador iSCSI dedicado que suporte esse recurso.

  2. O GFS como um subsistema não é muito pesado no sistema. Há bloqueios mantidos no kernel, algumas informações de associação / heartbeat circulando entre os nós, isso é muito bonito. Por outro lado, desde que você planeje fazer com que ambos os nós GFS e um servidor sejam acessados por clientes, você provavelmente deve investir em seus nics / switches e RAM para os servidores.

  3. Quadros jumbo. 803.2ad agregação de link, se possível, em ambos os lados (iscsi e clientes). otimizações de pilha tcp (/ proc / sys / net / ipv4 / tcp_rmem | wmem)

  4. Vou pular este aqui, não tenho idéia dos custos de 10g.

por 08.06.2009 / 22:05
1

A única parte desta questão que eu posso sugerir uma resposta é # 4.

Avaliamos e consideramos o 10GbE para nossa SAN, e decidimos que era mais barato, mais eficaz e mais seguro ficar com os apaptadores de 1Gb com equipe / carga balanceada. Alcançar o mesmo nível de redundância com 10GigE foi astronômico, e proporcionou aumento nominal de desempenho para os clientes (afinal, você não vai colocar um cartão de 10GbE em cada cliente).

    
por 04.06.2009 / 00:38
0

Você já pensou em redundância de rede? Os clusters GFS são muito vulneráveis a pulsações perdidas. Usamos a ligação de interface para todos os nossos links de cluster e iSCSI, conectados a switches separados.

    
por 08.06.2009 / 18:52
0

Apenas para adicionar # 3 e 4

O Jumbo's pode fazer uma diferença benéfica enorme no desempenho especialmente para redes de "armazenamento" em que 99,99% dos pacotes serão grandes. Apenas certifique-se de fazer uma auditoria primeiro para garantir que todos os hosts na rede os suportem.

Segundo, vale a pena verificar se todas essas interfaces extras GigE estão lhe dando mais velocidade, a maioria dos switches (por padrão) usa hashes baseados em MAC ou IP, então você pode não ver mais de 1Gb entre um único host.

No momento em que você está colocando 10Gbe, você deve simplesmente morder a bala e usar o FC, que é muito mais rápido para a mesma taxa de link, ou, espere até o começo do próximo ano, onde o material convergente deve finalmente ser enviado abaixo. early adopter "pricing.

    
por 10.06.2009 / 18:28
0

Estamos avaliando a solução para nossa nova SAN, e o produto Equalogic parece ótimo para iscsi. Cada pacote é de 15 discos e 2 controladores (A / P 4GB cada). À medida que você adiciona 2 controladores por 15 discos, você tem um aumento linear no desempenho ao adicionar capacidade de armazenamento.

Eles não vão 10Ge por enquanto, mas cada controlador tem 4 Links. Eles fornecem provisionamento thin real

Link para a página oficial

    
por 10.06.2009 / 21:14
0

Eu não posso comentar (ainda) no post do LapTop006, mas ele está absolutamente certo!

A pressão é que todos os seus equipamentos de rede no IP-SAN devem suportar a mesma quantidade de MTU (Maximum Transmission Unit). Se bem me lembro, o máximo de MTU para Jumbo Frames por especificação é 9000 bytes, mas tenho visto pessoas usando 9100 e acima ..

    
por 11.06.2009 / 09:27