conectando o compartimento de ataque SAS gen gen 5 a um controlador de terceiros (3ware, LSI)?

1

Eu tenho um ML350 G5 que estou pensando em redirecionar para economizar dinheiro. Eu estou olhando para instalar o FreeNAS, mas ele (ZFS) não funciona bem com o cartão HP e200i que faz parte da placa-mãe do que eu li. Eu gostaria de comprar uma placa RAID pcie x4 / x8 boa e barata e conectá-la diretamente ao backplane, permitindo que eu continue usando a gaiola LFF para minhas unidades.

O painel traseiro parece usar dois cabos SAS de 4 pistas com conectores sff-8484 em ambas as extremidades - posso desconectar um e usar um cabo breakout, redirecionar para o meu cartão RAID suplementar? Na minha opinião, isso me permitiria dividir eletricamente a gaiola em meio - 3 drives usando o e200i, 3 drives usando o novo cartão.

Não tenho ideia de quanta lógica faz parte de um backplane RAID ou de um backplane HP. Eu não sei se é um componente "burro" que faz apenas uma conexão elétrica do HD para o controlador RAID ou se é "inteligente", executando funções lógicas que basicamente o tornam proprietário e compatível.

pensamentos? obrigado!

    
por Rich Barrett 02.01.2015 / 01:04

1 resposta

0

Se eu estivesse lidando com esse modelo / vintage do servidor (por volta de 2005-2008), provavelmente usaria a configuração existente ... Alguns pontos:

  • O painel traseiro de 3,5 "de 6 discos em um G5 ML350 é um componente burro. Não há lógica RAID ou expansão SAS embutida.
  • Você pode conectar este backplane e o compartimento a qualquer controlador RAID ou SAS HBA, desde que você use o cabeamento correto. SFF-8484 no lado do backplane, e possivelmente SFF-8087 no lado do controlador, se você usar um controlador mais novo.
  • Esse é um hardware antigo, entenda os limites dos seus slots PCIe, largura de banda SAS (3,0 Gbps)
  • Se você usar unidades SATA, a velocidade do link será limitada a 1,5 Gbps por disco se você usar um controlador HP Smart Array de período correto (E200i, P400, P800).

O que eu faria?

  • eu deixaria o FreeNAS. Não é uma ótima solução e você perderá parte da plataforma HP ProLiant recursos de monitoramento . O formato ZFS em disco sob FreeNAS é um pouco peculiar , também ... O FreeNAS tem sido a base de alguns < href="https://serverfault.com/questions/418870/freenas-confusion-not-sure-what-happened-raidz1-degraded-disk-faulted"> WTF questões do ServerFault
  • Em vez disso, o ZFS-on-Linux ou um pacote de dispositivo que aproveita seria uma opção melhor. Confira a edição comunitária gratuita do QuantaStor ou ZetaVault .

Por fim, para essa escala de hardware, faz sentido usar apenas o controlador HP Smart Array E200i existente.

  • Se você considerar a abordagem de um sistema operacional focado no ZFS e um controlador ou HBA compatível com JBOD, será necessário alocar discos para o SO, bem como os dados. Isso é um potencial desperdício de espaço em disco. Se você abordar isso com partições ou fatias dos discos, sua configuração do ZFS se tornará extremamente complexa e preocupante.
  • O E200i é um controlador capaz e você terá o benefício de um cache de gravação (se a bateria do RAID estiver presente e saudável).
  • Se você realmente quiser usar o ZFS, poderá fazê-lo em parte superior de um controlador RAID de hardware . Eu faço isso o tempo todo para fornecer alguns recursos do ZFS (instantâneos, compactação etc.) enquanto ainda tenho a facilidade e a flexibilidade do monitoramento de matriz de hardware.
  • Os controladores HP Smart Array podem ser configurados para fornecer várias unidades lógicas (dispositivos de bloco) a partir de um grupo de discos (uma "Matriz"). No exemplo abaixo, configurei o E200i em um servidor ML350 G5 com 4 discos SATA de 500 GB para fornecer uma unidade de 72 GB e unidades de 240 GB e 200 GB para serem usados como zpools ZFS separados.

    Smart Array E200i in Slot 0 (Embedded)    (sn: QT8CMP3716     )
    
    Internal Drive Cage at Port 1I, Box 1, OK
    
    Internal Drive Cage at Port 2I, Box 1, OK
    array A (SATA, Unused Space: 0  MB)
    
    
      logicaldrive 1 (72.0 GB, RAID 1+0, OK)
      logicaldrive 2 (240.0 GB, RAID 1+0, OK)
      logicaldrive 3 (200.0 GB, RAID 1+0, OK)
    
      physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SATA, 500 GB, OK)
      physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SATA, 500 GB, OK)
      physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SATA, 500 GB, OK)
      physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SATA, 500 GB, OK)
    

saída de status zpool

  pool: vol1
 state: ONLINE
  scan: scrub repaired 0 in 1h33m with 0 errors on Thu Jan  1 09:19:21 2015
config:

    NAME                                       STATE     READ WRITE CKSUM
    vol1                                       ONLINE       0     0     0
      cciss-3600508b1001037313620202020200007  ONLINE       0     0     0

errors: No known data errors

  pool: vol2
 state: ONLINE
  scan: scrub repaired 0 in 2h3m with 0 errors on Thu Jan  1 09:49:35 2015
config:

    NAME        STATE     READ WRITE CKSUM
    vol2        ONLINE       0     0     0
      cciss-4542300b6103731362020202067830007      ONLINE       0     0     0
    
por 02.01.2015 / 02:10