Que tipo de armazenamento as pessoas realmente usam para servidores VMware ESX?

27

A VMware e muitos evangelistas de rede tentam dizer a você que as SANs de fibra sofisticadas (= caras) são a opção de armazenamento "única" para os servidores VMware ESX e ESXi. Bem, sim, claro. Usar uma SAN é rápido, confiável e torna o vMotion possível. Ótimo. Mas: todos os usuários do ESX / ESXi podem realmente adquirir SANs?

Minha teoria é que menos de 20% de todas as instalações do VMware ESX neste planeta realmente usam SANs de fibra ou iSCS. A maioria dessas instalações será em grandes empresas que podem pagar por isso. Eu diria que a maioria das instalações VMware usa "armazenamento anexado" (vmdks são armazenados em discos dentro do servidor). A maioria deles é executada em PMEs e há muitos deles!

Executamos dois servidores ESX 3.5 com armazenamento anexado e dois servidores ESX 4 com um iSCS san. E a "diferença viva real" entre ambos é pouco notável: -)

Você conhece alguma estatística oficial para essa pergunta? O que você usa como meio de armazenamento?

    
por Dirk Paessler 03.11.2009 / 00:00

9 respostas

27

Eu faço muito trabalho de consultoria da VMware e eu diria que os percentuais estão mais próximos de 80% da base instalada usam armazenamento compartilhado de alta disponibilidade (FC, iSCSI ou NAS de ponta) e muitos dos meus clientes são da SME . O principal fator que descobri é se a empresa trata o tempo de servidor como crítico ou não, para a maioria das empresas hoje em dia é.

Você certamente pode executar VMs de alto desempenho a partir de armazenamento conectado diretamente (um HP DL380 G6 com 16 unidades internas em um array RAID 10 teria um IO disco muito rápido), mas se você estiver criando um VMware ou qualquer outro ambiente virtualizado para substituir dezenas, centenas ou milhares de servidores, então você fica insano se não está colocando muito esforço (e provavelmente dinheiro) em uma arquitetura de armazenamento robusta.

Você não precisa comprar uma SAN high-end para as funções de clustering - você pode implementá-las com um NAS razoavelmente barato (ou uma SAN virtualizada como o VSA da HP / Lefthand) e ainda usar armazenamento certificado. No entanto, se você estiver usando armazenamento compartilhado e não tiver redundância em todos os pontos da infra-estrutura SAN \ NAS, não será realmente necessário usá-lo para muito mais do que testes. E a redundância é (no mínimo) NICs de storage de HBA dual (independente) em seus servidores, malhas independentes duplas, controladores redundantes na SAN, cache suportado por bateria \ cache de destino, hot swappots redundantes e fontes de alimentação etc, RAID 5 \ 6 \ 10 \ 50 e números apropriados de peças de reposição quentes.

A diferença real entre os sistemas é que, se um de seus sistemas autônomos falha catastroficamente, você tem muito trabalho a fazer para recuperá-lo e você incorrerá em tempo de inatividade, apenas mantendo-o corrigido. Com os sistemas conectados em cluster em SAN, o patch dos hipervisores, ou até mesmo o upgrade do hardware do hipervisor, deve resultar em tempo de inatividade zero. Uma falha catastrófica do servidor simplesmente reduz o serviço pelo período de tempo necessário para reinicializar a VM em um nó separado (na pior das hipóteses) ou se você tiver uma tolerância a falhas cobrindo essas VMs e, em seguida, não terá nenhum tempo de inatividade.

    
por 03.11.2009 / 02:10
1

Como empresa, temos mais de mil hosts, começamos com o FC, tentamos o iSCSI por um tempo, mas recuamos para o FC devido a problemas de desempenho. Estamos olhando seriamente para o NFS, mas ainda não temos conclusões. Ah, e usamos o HP XP / EVA e alguns NetApp, não temos hosts de desktop / dev de barra de armazenamento local.

    
por 03.11.2009 / 00:29
1

Como você pode ver, não há tamanho único e não é necessária uma única solução de armazenamento de classe. Você pode ter várias classes de armazenamento, dependendo da disponibilidade e dos requisitos de desempenho

    
por 05.11.2009 / 19:49
1

Para gravações e leituras de alto desempenho, achei o FC imbatível em desempenho e, embora o preço seja alto ... Ele só funciona ... para expectativas de desempenho mais mundanas O iSCSI tem se apresentado muito bem, então eu normalmente tem os arquivos de caixa de correio do Exchange Server em um subsistema de disco FC e as unidades de inicialização reais em um disco de interface iSCSI, com os servidores DNS e as máquinas do Active Directory também em execução a partir do iSCSI.

    
por 10.11.2009 / 12:48
1

Eu executei o ESX com SANs, NAS e DAS. Depende inteiramente de:

  1. orçamento
  2. experiência
  3. data center e / ou espaço em rack
  4. dinheiro

Por confiabilidade e velocidade, não acho que você possa superar uma SAN.

Por confiabilidade e custo, eu iria com o NAS.

E para velocidade e custo, DAS.

Não que as opções individuais não se sobreponham algumas, mas essas são as forças que testemunhei.

    
por 10.11.2009 / 13:54
0

Executamos 4 servidores ESX 4 e usamos uma SAN iSCSI EqualLogic.

    
por 03.11.2009 / 00:04
0

Em instalações menores, o armazenamento local é perfeitamente aceitável, desde que você tenha discos decentes - digamos 10k RPM + drives SAS. A única vez que você deve usar um disco compartilhado (eu intencionalmente não disse san como seu disco compartilhado pode estar desligado e compartilhar NFS) solução é quando você precisa fazer clustering - VMWare HA e DRS.

Neste momento, temos três níveis de armazenamento - SAN FibreChannel, SANs Equalogix de ponta e SANs de baixo custo MD3000i. Os dois últimos são iSCSI. Também executamos alguns servidores de armazenamento local dos servidores ESX - principalmente servidores de utilitários, que não nos importamos se eles estão inativos por uma ou duas horas, enquanto consertamos as coisas se tudo correr bem em uma caixa.

Também estamos executando nosso ambiente de teste em um NAS caseiro usando unidades SATA de 7.2k e alvo corporativo iSCSI (o desempenho não é tão bom, mas nos ajuda).

Muitas pessoas também tendem a concorrer com compartilhamentos NFS em ambientes maiores. Eu queria brincar com isso por um tempo, mas não encontrei tempo.

    
por 03.11.2009 / 00:07
0

Executamos quatro hosts ESXi (bem, quatro ao vivo, um para teste) com um fabric iSCSI construído a partir de switches de commodity e um Hitachi SAN low-end - um SMS-100.

Mesmo nesse nível, temos controladores gêmeos, cada um com portas gêmeas em um backplane SAS para que qualquer um dos controladores possa aproveitar os discos e gêmeos - que nós conectamos aos switches gêmeos e aos gêmeos nos hosts ESX .

Cada um dos volumes vfs tem quatro caminhos visíveis, portanto, é razoavelmente tolerante. Usamos a comutação Dell Poweredge para o tecido - eles têm problemas potenciais com certeza (pelo menos, PSUs não redundantes) .. mas eles também são baratos o suficiente para que ter duas peças pré-configuradas em uma caixa pronta para ser trocada se torne uma possibilidade real. / p>

obviamente, se você quer mais noves, precisa gastar mais, mas acho que a beleza do kit iSCSI, ESXi e Gigabit Ethernet é que você pode superar seu peso em termos de resiliência e desempenho.

    
por 06.01.2010 / 09:58
0

Tudo tem seus prós e contras ... o resultado final é o SLA, o carregamento de aplicativos e a escala. Portanto, se você precisar de armazenamento de alto desempenho para uma pequena implantação (1 a 5 hosts), provavelmente conseguirá executá-lo com o NFS (na verdade, consegui uma melhor latência com o NFS do que com a SAN usando discos RAM). Agora tente escalar isso e você descobrirá que o custo de replicar sua configuração em escala é muito comparável a uma SAN agradável, tornando o FC a única opção lógica para examinar ... Na maioria das vezes, acabo usando combinações para vários serviços (aplicativos , Bancos de dados, backups, arquivos) não é uma plataforma única para otimizar o custo, dependendo das necessidades.

    
por 23.03.2017 / 22:17