Servidor de arquivos - indo além de 2TB

1

Nosso servidor de arquivamento principal atual é um cluster do Windows 2003 R2 com 3 discos de 2 TB conectados a uma SAN de back-end.

Nosso principal problema agora é que 1 disco de 2 TB está ficando cheio. Quais opções eu tenho?

  1. Monte outro disco em uma pasta dentro do volume de 2 TB
  2. Use discos GPT para ir além do limite de 2 TB

Estou apenas procurando feedback para ver se há outras opções ou dicas com essas duas opções de pessoas que implementaram as duas. Opção 1 seria a solução mais simples de implementar. Eu só estou preocupado com os efeitos negativos com o volume já no limite de 2TB. Obrigado.

    
por Magellan 26.08.2010 / 23:05

2 respostas

1

Eu seria GPT-Dynamic e abrangeria os discos (suponho que esses volumes de 2 TB estejam em um RAID Array).

    
por 26.08.2010 / 23:15
0

O GPT permitirá que você crie discos maiores que 2 TB, desde que tudo no caminho de armazenamento seja de 64 bits. Um de nossos storage arrays não tornará os LUNs tão grandes, portanto, o fato de nossos hosts Win2008 de 64 bits poderem usá-los é irrelevante. Nossa matriz mais recente pode fazer isso e atualmente estamos. Se você tiver a opção, eu diria que vá com o GPT.

Se você está preso a LUNs de 2 TB por causa de um problema de 32 bits em algum lugar, a abrangência do volume em vários LUNs é sua única opção real.

Como você está em um cluster, e o Cluster não oferece suporte a discos dinâmicos (pelo menos não sem o Veritas Storage Essentials ou o que for chamado), você tem ainda menos opções. Estou enfrentando esse problema exato agora e estamos pensando em dividir o volume em vários LUNs e mudar a maneira como nossos usuários acessam o armazenamento.

    
por 26.08.2010 / 23:31