Eu seria GPT-Dynamic e abrangeria os discos (suponho que esses volumes de 2 TB estejam em um RAID Array).
Nosso servidor de arquivamento principal atual é um cluster do Windows 2003 R2 com 3 discos de 2 TB conectados a uma SAN de back-end.
Nosso principal problema agora é que 1 disco de 2 TB está ficando cheio. Quais opções eu tenho?
Estou apenas procurando feedback para ver se há outras opções ou dicas com essas duas opções de pessoas que implementaram as duas. Opção 1 seria a solução mais simples de implementar. Eu só estou preocupado com os efeitos negativos com o volume já no limite de 2TB. Obrigado.
Eu seria GPT-Dynamic e abrangeria os discos (suponho que esses volumes de 2 TB estejam em um RAID Array).
O GPT permitirá que você crie discos maiores que 2 TB, desde que tudo no caminho de armazenamento seja de 64 bits. Um de nossos storage arrays não tornará os LUNs tão grandes, portanto, o fato de nossos hosts Win2008 de 64 bits poderem usá-los é irrelevante. Nossa matriz mais recente pode fazer isso e atualmente estamos. Se você tiver a opção, eu diria que vá com o GPT.
Se você está preso a LUNs de 2 TB por causa de um problema de 32 bits em algum lugar, a abrangência do volume em vários LUNs é sua única opção real.
Como você está em um cluster, e o Cluster não oferece suporte a discos dinâmicos (pelo menos não sem o Veritas Storage Essentials ou o que for chamado), você tem ainda menos opções. Estou enfrentando esse problema exato agora e estamos pensando em dividir o volume em vários LUNs e mudar a maneira como nossos usuários acessam o armazenamento.