Eu ficaria feliz se vocês pudessem me responder algumas das minhas perguntas sobre o desempenho do nosso armazenamento. A configuração
- HP P2000 SAS com cache de 2 GB
- Armazenamento SATA 7200 RPM de 8 TB
- RAID6
- 3x hosts com adaptador HBA SAS
- VMware vSphere 4.1
Basicamente, a principal razão pela qual eu tive que olhar para o nosso armazenamento foi a transferência da VM de monitoramento de discos locais de um dos hosts para o armazenamento. Portanto, antes de fazer qualquer migração, configurei uma nova VM com o iometer e executei os testes durante a noite, quando não havia trabalhos importantes sendo executados no cluster. Havia apenas 1 encadeamento de trabalho de dínamo dessa VM.
Access Specification Name IOps Read IOps Write IOps MBps Read MBps Write MBps Transactions per Second Average Response Time Average Read Response Time
512B; 100% Read; 0% random 5617.191059 5617.191059 0.000000 2.742769 2.742769 0.000000 5617.191059 0.176979 0.176979
512B; 75% Read; 0% random 3190.524306 2369.761725 820.762581 1.557873 1.157110 0.400763 3190.524306 0.312244 0.321925
512B; 50% Read; 0% random 1055.807449 524.819993 530.987456 0.515531 0.256260 0.259271 1055.807449 0.946000 0.421600
512B; 25% Read; 0% random 1006.956966 239.414257 767.542709 0.491678 0.116901 0.374777 1006.956966 0.853556 0.687116
512B; 0% Read; 0% random 35.123065 0.000000 35.123065 0.017150 0.000000 0.017150 35.123065 28.349538 0.000000
4K; 75% Read; 0% random 3034.296095 2247.847150 786.448945 11.852719 8.780653 3.072066 3034.296095 0.328614 0.333793
4K; 25% Read; 0% random 2237.793260 587.671309 1650.121951 8.741380 2.295591 6.445789 2237.793260 0.445755 0.636275
16K; 75% Read; 0% random 627.852712 474.796322 153.056389 9.810199 7.418693 2.391506 627.852712 1.591288 1.840213
16K; 25% Read; 0% random 478.619741 116.666329 361.953412 7.478433 1.822911 5.655522 478.619741 2.086953 1.281547
32K; 75% Read; 0% random 848.266506 649.372846 198.893660 26.508328 20.292901 6.215427 848.266506 1.176316 1.334378
32K; 25% Read; 0% random 443.441341 117.275291 326.166050 13.857542 3.664853 10.192689 443.441341 2.253707 7.158792
Testes de leitura hdparm (com hdparm -t / dev / sda) deram 300MB / s.
Nosso sistema de monitoramento obtém informações de + - 40 VMs e 30 dispositivos, cada host tem pelo menos 10 serviços, mas na verdade são cactos que geram a maioria dos IOPS. Ele atualiza maciçamente os dados do RRD simultaneamente a cada minuto. Apesar disso, decidi migrar a VM para o armazenamento. Após a migração, medi o IOPS gerado pelo monitoramento - o valor médio foi 800, mas o tempo de resposta após qualquer operação de leitura em todas as VMs foi horrível - 5-10 segundos , o monitoramento matou algumas VMs como o kernel expirou em algumas operações de IO. O hdparm deu 1.4MB / seg. Eu desliguei o processamento RRD cactos e corre bem, mas não temos gráficos.
Minhas perguntas:
1) O que você acha do desempenho do iometer nessa configuração? Deve ser melhor, está ok, ou devo procurar algum erro de configuração?
2) Você recomenda ter host físico separado com software de monitoramento e não "incomodar" o armazenamento com este tipo de IOPS?
3) Esta questão é mais geral. Após o teste de armazenamento, podemos obter IOPS / mbps para diferentes tamanhos de bloco. Mas como posso avaliar o tamanho de bloco que um aplicativo está usando principalmente? Por exemplo, o sistema de bancos de dados geralmente usa operações de leitura de 75%, mas qual é o tamanho do bloco para que eu possa compará-lo com meus resultados? Sem conhecer essa informação, meus testes de iômetro são simplesmente números.
UPDATE 1:
Obrigado por respostas.
Então, o que fizemos foi que criamos o ramdisk para o processamento rrd e todos os rrds são sincronizados a cada hora no disco de monitoramento. Tudo funciona bem rápido, mas vamos pensar em criar outro grupo de RAID com RAID 10 para esse tipo de IOPS que precisa de um bom desempenho de gravação.