Estou configurando um servidor para um banco de dados pequeno, mas com leitura intensiva de E / S. Ele serve como um índice mestre para acesso público a um banco de dados maior do Oracle RAC. Ao observar os requisitos de E / S, determinou-se que uma matriz de SSDs forneceria o desempenho necessário com custo menor do que um grande número de eixos SAS de 15K. Eu tenho um servidor HP, com um Smart Array P400 que será conectado apenas aos SSDs. O controlador tem 256MB de BBWC. Os SSDs são o Samsung (acredito) fabricado com base em SLC de 60GB e 2,5 "SATA.
Eu estou querendo saber se alguém tem uma visão sobre os melhores tamanhos de faixa para o RAID 10 ou 5, recomendações do sistema de arquivos? Nós vamos estar fazendo o Oracle 11g, então eu acredito que eu sou obrigado a ter um sistema de arquivos, em vez de usar o dispositivo de bloqueio RAW. O servidor estará executando o RHEL 5.5.
Eu fiz uma tonelada de leitura nos últimos meses sobre SSDs, e não me oponho a fazer muito mais, mas meu google-fu começou a falhar em seguir em frente. A maioria dos documentos que eu estou encontrando no SSD RAID são para pessoas que fazem um RAID 0 de SSDs no nível do consumidor para a unidade de inicialização em seu PC doméstico para fazer o Windows 7 inicializar e carregar jogos mais rapidamente. O que eu estou dizendo é que eu não estou procurando alguém para fazer o meu trabalho, apenas fornecer qualquer experiência que eles tiveram ou um link para um doc que encontraram algunshwere.
Obrigado antecipadamente!
EDITE para mais informações em vez de responder a todos os comentários individuais:
O espaço da unidade não é uma preocupação, pois o banco de dados é pequeno o suficiente para caber em um dos SSDs sem nenhum problema.
Sendo um banco de dados pesado muito lido (95% + leitura aleatória em 4-8k), eu pensei que poderia obter melhor desempenho do RAID 5 só porque eu posso ler a partir de unidades N-1 na matriz, em vez de somente discos no espelho, como eu li coisas que indicam que o Smart Array P400 não suporta a leitura de ambos os lados do espelho em um conjunto RAID 10. Dito isso, estou bastante certo de que o controlador acabará sendo um gargalo antes que eu tenha que me preocupar com isso.
No TRIM: Estou bastante certo de que, mesmo que essas unidades suportem TRIM (não acredito que sim), seria um pouco difícil conseguir que os comandos TRIM passassem pelo controlador RAID para as unidades individuais. O suporte do SO também é arriscado, pois o Red Hat Enterprise Linux 5 ainda é baseado na árvore de Kernel 2.6.18, embora com muita customização para trazer recursos de versões posteriores do kernel. EXT4 também não é oficialmente suportado, e sendo uma caixa de Produção, eu preciso me manter no reino onde a Red Hat e a HP irão me ajudar se algo der errado. Eu acredito que há algum tipo de coleta de lixo acontecendo no nível da unidade, no entanto. Eu preenchi os discos várias vezes durante o benchmarking diferente, e não vi uma redução acentuada na velocidade de gravação que eu esperaria se eu tivesse que esperar pelo ciclo Erase / Program, em vez de apenas o ciclo do programa.
Aqui estão alguns dados de benchmark para um array RAID 10 de 6 drives, usando o tamanho Stripe de 256KB. A partição é EXT3, alinhada em 64 setores. O agendador NOOP é usado, e a opção NOATIME é dada na montagem. Também aumentei o cache de leitura do sistema operacional para 8MB (acredito que o padrão seja 512K). Eu usei Iozone 3.347 para este teste, com um tamanho recorde de 4KB, e um tamanho de arquivo de benchmark de 25GB para tirar o cache da imagem e medir o desempenho real das unidades. Eu também corri isto com quatro threads (arquivos de 4x25GB são escritos por 4 processos filhos para enfatizar a unidade).
A corrida começou: seg 30 de agosto 12:09:57 2010
Record Size 4 KB
File size set to 26214400 KB
Command line used: /opt/iozone/bin/iozone -b /root/4k25g4t.xls -r 4k -s 25g -t 4 -i 0 -i 1 -i 2
Output is in Kbytes/sec
Time Resolution = 0.000001 seconds.
Processor cache size set to 1024 Kbytes.
Processor cache line size set to 32 bytes.
File stride size set to 17 * record size.
Throughput test with 4 processes
Each process writes a 26214400 Kbyte file in 4 Kbyte records
Children see throughput for 4 initial writers = 253416.93 KB/sec
Parent sees throughput for 4 initial writers = 229461.66 KB/sec
Min throughput per process = 61416.07 KB/sec
Max throughput per process = 64604.90 KB/sec
Avg throughput per process = 63354.23 KB/sec
Min xfer = 24924492.00 KB
Children see throughput for 4 rewriters = 259375.90 KB/sec
Parent sees throughput for 4 rewriters = 234136.11 KB/sec
Min throughput per process = 63879.16 KB/sec
Max throughput per process = 65675.30 KB/sec
Avg throughput per process = 64843.97 KB/sec
Min xfer = 25497648.00 KB
Children see throughput for 4 readers = 490873.09 KB/sec
Parent sees throughput for 4 readers = 490830.09 KB/sec
Min throughput per process = 119007.65 KB/sec
Max throughput per process = 124878.35 KB/sec
Avg throughput per process = 122718.27 KB/sec
Min xfer = 24984912.00 KB
Children see throughput for 4 re-readers = 477533.65 KB/sec
Parent sees throughput for 4 re-readers = 477503.03 KB/sec
Min throughput per process = 115802.55 KB/sec
Max throughput per process = 121579.46 KB/sec
Avg throughput per process = 119383.41 KB/sec
Min xfer = 24973364.00 KB
Children see throughput for 4 random readers = 35728.62 KB/sec
Parent sees throughput for 4 random readers = 35728.53 KB/sec
Min throughput per process = 8926.97 KB/sec
Max throughput per process = 8937.35 KB/sec
Avg throughput per process = 8932.16 KB/sec
Min xfer = 26183936.00 KB
Children see throughput for 4 random writers = 23527.42 KB/sec
Parent sees throughput for 4 random writers = 20701.37 KB/sec
Min throughput per process = 5757.43 KB/sec
Max throughput per process = 6035.68 KB/sec
Avg throughput per process = 5881.86 KB/sec
Min xfer = 25011236.00 KB
"Throughput report Y-axis is type of test X-axis is number of processes"
"Record size = 4 Kbytes "
"Output is in Kbytes/sec"
" Initial write " 253416.93
" Rewrite " 259375.90
" Read " 490873.09
" Re-read " 477533.65
" Random read " 35728.62
" Random write " 23527.42