O comando lsblk é ótimo para isso:
lsblk -o NAME,PHY-SeC
Os resultados:
NAME PHY-SEC
sda 512
├─sda1 512
├─sda2 512
└─sda5 512
Estou tentando descobrir o tamanho ideal para uma cópia grande do meu disco rígido usando dd. Eu estou tentando descobrir qual o melhor tamanho de bloco para usá-lo, o que eu diria que é o tamanho do bloco de hardware para essa unidade.
O comando lsblk é ótimo para isso:
lsblk -o NAME,PHY-SeC
Os resultados:
NAME PHY-SEC
sda 512
├─sda1 512
├─sda2 512
└─sda5 512
O Linux expõe o tamanho do setor físico nos arquivos /sys/block/sdX/queue/physical_block_size
. Embora, para obter o melhor desempenho, você provavelmente deveria fazer um pequeno teste com diferentes tamanhos e medidas. Eu poderia não localize a clear responder na medida em que usar exatamente o tamanho do bloco físico obteria o resultado ideal (embora eu suponha que não possa ser uma má escolha).
$ sudo hdparm -I /dev/sda | grep -i physical
Physical Sector size: 4096 bytes
O meu não é uma resposta completa, mas espero que também ajude.
Aqui está uma coisinha do link
Para um backup mais rápido, pode ajudar a encontrar o tamanho de bloco ideal do dispositivo de disco que você vai fazer backup. Supondo que você esteja fazendo backup / dev / sda, aqui está como você pode usar o comando fdisk para determinar o melhor tamanho de bloco:
rescuecd#/> /sbin/fdisk -l /dev/sda | grep Units
Units = cylinders of 16065 * 512 = 8225280 bytes
Observe que a saída do fdisk diz "cilindros de 16065 * 512". Isso significa que existem 512 bytes por bloco no disco. Você pode melhorar significativamente a velocidade do backup, aumentando o tamanho do bloco em um múltiplo de 2 a 4. Nesse caso, um tamanho de bloco ideal pode ser 1k (512 * 2) ou 2k (512 * 4). BTW, ficando ganancioso e usando um tamanho de bloco de 5k (512 * 10) ou algo excessivo não vai ajudar; eventualmente o sistema irá afunilar no próprio dispositivo e você não será capaz de extrair qualquer desempenho adicional do processo de backup. (ênfase adicionada)
Eu suspeito que a diferença de desempenho entre um tamanho de bloco ótimo e ótimo para uma determinada configuração seja insignificante a menos que o conjunto de dados seja enorme. De fato, um usuário na FixUnix (post de 2007) afirmou que seus tempos ótimos eram apenas 5% mais rápidos do que os sub-ótimos. Talvez você possa extrair um pouco mais de eficiência usando um múltiplo do tamanho do "cluster" ou do tamanho do bloco do sistema de arquivos.
É claro que, se você se mover para um dos lados do tamanho ideal do bloco, você terá problemas.
O resultado é que você provavelmente ganhará apenas cerca de 5% no desempenho (ou seja, 3 minutos por hora) com o tamanho absoluto de bloco ideal, portanto considere se vale a pena investir e pesquisar mais. Contanto que você fique longe de valores extremos, você não deve sofrer.
Cada transferência de disco gera uma interrupção que o processador deve manipular. Um disco típico de 50Mb / s vai querer gerar 100.000 deles por segundo a um tamanho de bloco de 512b Processador normal iria lidar com 10s de milhares deles, assim maior tamanho de bloco (2 ^ x) seria mais prático (4k como tamanho de bloco FS padrão na maioria dos sistemas até 64k ISA DMA tamanho) seria mais prático ...
Além disso, você pode examinar a saída de lshw
para verificar outros resultados (e também porque não pareço ter hdparm
disponível em minha distro). Isso pode ajudar a reduzi-lo:
sudo lshw | awk 'BEGIN {IGNORECASE=1;} /SCSI/,!//{print}'
Tags hard-drive dd linux