OK, problema resolvido.
Isso se tornou um problema da NIC. Nós mudamos o NICS e os atualizamos para os drivers mais recentes e agora estou chegando perto de 500 MB / s. Testamos a velocidade usando o Sql Server e agora é ótimo.
Obrigado a todos.
Temos um computador com o Windows Storage Server 2008 R2 com 6 SSD em RAID 0.
Este computador de armazenamento tem um PCI-E com 4 portas Ethernet e o conectamos a um comutador gigabit para outros computadores. vi iSCSI.
O problema é que não conseguimos obter altas velocidades de leitura / gravação.
Usando a sintonização HD diretamente no computador de armazenamento, obtemos cerca de 500 MB / s, mas usando o link iSCSI (em outro computador), chegamos perto de 200 MB / s.
Definimos o MPIO com vários caminhos, quadros JUMBO e desativamos o CheckSum IPV4.
EDITAR
Eu não me importo com perda de dados. Eu só preciso de velocidade porque este é um computador de cache.
EDITAR
O servidor e o cliente têm 4 GB NICs (1GB cada adaptador) e multipath e o MPIO está corretamente configurado AFAIK.
EDITAR
Uma coisa que não consigo entender: temos um armazenamento Dell Equallogic e ele chega perto de 200MB / s usando o mesmo switch / configuração. Como isso é possível? O equallogic deveria ser muito mais lento que um armazenamento de 6 SSD Disk raid 0.
Além disso, eu li que muitos armazenamentos usam 4 NICs de 1GB e eles podem chegar perto de 500 GB / s. Incluído um da DELL que tem apenas SSDs, como vocês podem ver aqui
EDITAR
Também estou pensando em não usar o Windows Storage Edition e experimentar o OpenFiler. Devo considerar isso?
OK, problema resolvido.
Isso se tornou um problema da NIC. Nós mudamos o NICS e os atualizamos para os drivers mais recentes e agora estou chegando perto de 500 MB / s. Testamos a velocidade usando o Sql Server e agora é ótimo.
Obrigado a todos.