Com o ZFS, você realmente deseja permitir que ele manipule os discos diretamente, pois isso melhora a simultaneidade. O único disco de 50 TB que você deu é um ponto de estrangulamento.
Esse script do DTrace está apenas rastreando syscalls. A ação real acontece dentro do kernel e, se você quiser ver o que está consumindo a maior parte da CPU, use o script 'hotkernel' do DTrace Toolkit.
Quando você importa um pool, o ZFS lê a configuração do disco e a valida. Depois que o pool for importado, ele começará a montar todos os sistemas de arquivos e snapshots que você criou. Isso pode demorar um pouco. Se você teve a dedupção ativada (o que você não fez desde que você estava usando snv_111), levaria ainda mais tempo, já que tem que carregar a tabela de desduplicação (DDT).
Desligar o sistema nunca é uma boa opção, especialmente no OpenSolaris snv_111. Você não postou sua configuração de pool (zpool status), mas se você tiver dispositivos slog e eles falharem, você não poderá importar o pool (isso foi resolvido recentemente no Solaris 11 Express snv_151a).
Meu conselho é que você exporte cada um dos 32 discos individualmente e crie vários vdev's raidz2 para ter mais cabeças de leitura / gravação. Não crie vdev's enormes com discos > 8 porque o desempenho será péssimo.
Se você não puder perder tempo com o sistema (a maioria das pessoas não o faz), estude cuidadosamente os instantâneos do ZFS e como replicá-los em um servidor remoto com o zfs send / receive. Isso permitirá que você traga rapidamente um servidor de failover.