Melhoraria a latência reduzindo os movimentos de cabeça necessários (tendo o conjunto de cabeças responsável por uma faixa específica da superfície do prato ou movendo-os de maneira inteligente para a carga de trabalho determinada). Ele também pode reduzir a quantidade média de tempo que as cabeças aguardam até que o bit correto de dados passe, uma vez que estejam em posição (se a cabeça mais bem posicionada foi colocada no lugar para cada solicitação). Também pode haver um throughput para alguns casos de uso se a lógica do controlador for brilhante o suficiente para ver o padrão de uso e manter as cabeças nos locais gerais corretos.
Mas não acho que isso aconteça devido a despesas e complexidade:
- Você tem que encontrar espaço para as partes mecânicas extras dentro do drive case (se você já abriu um drive, verá quem seria difícil - seria necessário um enorme esforço de miniaturização ou uma redução nos tamanhos dos pratos físicos) .
- A inteligência extra necessária no firmware do controlador para fazer um bom uso das cabeças extras em geral (sem o risco de reduzir o desempenho em alguns casos de uso) resultaria em uma complexidade extra significativa, aumentando a chance de erros.
- Mesmo com todo o esforço mecânico e de programação, o resultado não corresponderia a outras soluções muito mais baratas que reduzem a latência e aumentam o rendimento. Especificamente, o uso de tecnologias de estado sólido e / ou emparelhamento (ou triplicar, e assim por diante) drives individuais em arrays RAID0, portanto, seria muito improvável que a ideia fosse comercialmente viável.
- A complexidade mecânica extra, além de dificultar a fabricação dos drives, os tornaria muito mais propensos a falhas.
Outra idéia semelhante que eu já vi discutido é ter as cabeças servindo cada superfície do disco mover-se independentemente, mas isso também é impraticável devido à complexidade mecânica.