Transferência iSCSI de 10 Gbps transferindo apenas 2 Gbps

3

Eu tenho um problema de desempenho na minha SAN. Eu tenho uma configuração de rede privada de 10 Gbps. Eu tenho a seguinte configuração

1 - Mac com conexão com o transcever de fibra 10GbE
1 - PC com Windows 7 e 10GbE
1 - Switch HP com todas as portas são 10GbE
2 - Servidores Quantum StorNext com 10GbE
1 - Solução Dell Compellent com 2 controladores conectados à rede em 10GbE
Todos os servidores, switches e computadores têm IPs atribuídos estaticamente

Compellent Config
Camada 1 - Unidades SAS de 10K no RAID 10
Tier 2 - 7200 SAS Drives em RAID6 (12 grupos de 13 unidades em cada)

Informações adicionais
Opções de transferência TCP do cliente Windows 7 Descarregamento de soma de verificação IPv4 - ativado TCP Checksum Offload - Enabled
Descarregamento de soma de verificação UDP - ativado Large Send Offload - Ativar
Pacote Jumbo - 9014Bytes Ativados

Montei o volume StorNext no meu PC com Windows 7 e na minha estação de trabalho Lion. Infelizmente todas as minhas velocidades de transferência estão em torno de 2Gbps ou 2,8Gbps (se eu tiver muita sorte). Eu estava procurando obter pelo menos 5Gbps de velocidade desta configuração, mas estou com uma média de 2Gbps ou um pouco acima das taxas de transferência de 250MBps na cópia de arquivos. Quando mapeio um LUN diretamente para as caixas e depois formato nativamente com HFS (com registro no diário) no MAC ou NTFS no PC com Windows 7, e depois copio um arquivo, recebo cerca de 180MBps. Portanto, meu desempenho em um LUN mapeado diretamente é mais lento que meu volume StorNext. Alguma sugestão? Alguém viu um desempenho degradado no iSCSI com 10GbE? Qualquer ajuda seria incrível! Obrigado!

    
por cohortq 24.07.2012 / 01:02

4 respostas

4

1.) Jumbos -might- ajuda se você está vendo muita carga do processador para interromper o tráfego, mas se o TCP está operando corretamente, ele deve ser capaz de passar por 2G em um link de 10G. Eu vi muitos links 10GE rodando acima de 90% sem o jumbos ativado.

2.) Se você usar jumbos, ative o mesmo tamanho em cada NIC e em todas as portas de switch no domínio de VLAN e / ou de broadcast. O PMTU funciona quando pacotes cruzam roteadores e misturam valores de MTU dentro da mesma rede e não levam a nada além de miséria.

3.) Eu não estou particularmente familiarizado com o equipamento Procurve, mas o tráfego TCP pode ser complicado em altas velocidades se houver alguma dúvida sobre a disponibilidade do buffer. Já vi outros testes em que isso se manifestou (sem aparentes quedas no TCP) como um enorme corte no desempenho que acabou sendo corrigido, na verdade, reduzindo os tamanhos de buffer.

4.) Certifique-se de que as configurações TCP reais (1323, SACK, etc) estão todas configuradas de forma consistente. Os sistemas operacionais em questão devem estar bem fora da caixa, mas não sei muito sobre o nó de armazenamento. Pode valer a pena investigar - seja em termos de configurações no dispositivo ou por meio de um rastreamento de protocolo (wireshark ou tcpdump) para observar o dimensionamento da janela e quaisquer retransmissões em andamento.

5.) Tente eliminar tantas variáveis quanto possível - até mesmo um cabo cruzado entre um de seus nós de armazenamento e uma única estação de trabalho - para isolar ainda mais o problema. Não tenha medo de desativar alguns dos offloads que você mencionou também, pois eles são conhecidos por causar problemas de tempos em tempos.

    
por 24.07.2012 / 03:23
1

Se você estiver usando 1500 MTU, peça do conselho # 1, use frames / pacotes jumbo a ~ 9000. Parece que você tem pacotes Jumbo habilitados até certo ponto (com base em "Jumbo Packet - 9014Bytes Enabled"), portanto, também é possível que você esteja lidando com pacotes sendo fragmentados também. Certifique-se de que tudo ao longo do caminho esteja definido para permitir os pacotes de 9014 bytes.

    
por 24.07.2012 / 02:50
1

Não é a resposta que você está procurando, mas nossa Compellent SAN não tem sido nada além de um desempenho decepcionante. Eu também tive números de desempenho semelhantes (Antes de ser pego ... isso é em um switch iSCSI 10G dedicado usando Jumbo frames, e tudo foi validado pelo CoPilot e pela "Tiger Team" da Dell. Nossos outros SANS (EMC e muitos Equallogics) têm desempenho comparativamente empolador). O que nos tirou desse gargalo de desempenho específico foi substituir um controlador defeituoso.

Você já teve copiloto olhando a configuração? Se configurado corretamente, a SAN estará relatando a origem de qualquer maneira, e eles já podem ter sinalizado.

Quais velocidades de interface você tem nessas máquinas clientes? Alguma configuração de rede interessante? Drivers atualizados? Como é a CPU / Memória no Monitor de Recursos ao fazer um teste de transferência?

    
por 24.07.2012 / 03:28
0

Se você estiver preocupado com o desempenho da rede, tente iperf para testar as velocidades de rede entre computadores; isso ajudaria a descartar problemas relacionados à rede.

Você já pensou em desabilitar os jumbo frames?

    
por 21.08.2012 / 22:24