Software RAID 10 Array Space Loss

3

Eu comprei um servidor dedicado de uma empresa de hospedagem para um fórum que estou iniciando e as unidades são configuradas como 4 x SSDs de 64 GB em uma matriz de software RAID 10.

A quantidade total de espaço que eu esperava estar disponível era de aproximadamente 128 GB, mas por algum motivo eu tenho pouco menos de 110 GB.

Eu perguntei ao provedor sobre o espaço ausente e eles disseram que é apenas por causa das restrições de usar o software RAID, mas depois de fazer muitas pesquisas não consigo encontrar nada que suporte isso.

O sistema é CentOS 6.6 kernel 2.6.32-042stab108.2

Aqui estão os dados do servidor:

Todos os 4 discos são completamente usados para criar matrizes RAID10 em seu disco, o espaço total disponível pode diferir no RAID de software do RAID de hardware. Você pode ver o status do disco e do ataque abaixo.

[root@ ~]# cat /proc/mdstat
Personalities : [raid10] [raid1] 
md0 : active raid1 sdd2[3] sdc2[2] sdb2[1] sda2[0]
      511936 blocks super 1.0 [4/4] [UUUU]

md2 : active raid10 sda3[0] sdc3[2] sdd3[3] sdb3[1]
      89231360 blocks super 1.1 512K chunks 2 near-copies [4/4] [UUUU]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md1 : active raid1 sdc1[2] sdd1[3] sdb1[1] sda1[0]
      16375808 blocks super 1.1 [4/4] [UUUU]

unused devices: <none>


[root@ ~]# fdisk -l

Disk /dev/sda: 63.0 GB, 63023063040 bytes
255 heads, 63 sectors/track, 7662 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0002023a

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1        2040    16384000   fd  Linux raid autodetect
/dev/sda2   *        2040        2104      512000   fd  Linux raid autodetect
/dev/sda3            2104        7663    44648448   fd  Linux raid autodetect

Disk /dev/sdc: 63.0 GB, 63023063040 bytes
255 heads, 63 sectors/track, 7662 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0004f2ab

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1        2040    16384000   fd  Linux raid autodetect
/dev/sdc2   *        2040        2104      512000   fd  Linux raid autodetect
/dev/sdc3            2104        7663    44648448   fd  Linux raid autodetect

Disk /dev/sdb: 63.0 GB, 63023063040 bytes
255 heads, 63 sectors/track, 7662 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000369e8

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1        2040    16384000   fd  Linux raid autodetect
/dev/sdb2   *        2040        2104      512000   fd  Linux raid autodetect
/dev/sdb3            2104        7663    44648448   fd  Linux raid autodetect

Disk /dev/sdd: 63.0 GB, 63023063040 bytes
255 heads, 63 sectors/track, 7662 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00069960

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1        2040    16384000   fd  Linux raid autodetect
/dev/sdd2   *        2040        2104      512000   fd  Linux raid autodetect
/dev/sdd3            2104        7663    44648448   fd  Linux raid autodetect

Disk /dev/md1: 16.8 GB, 16768827392 bytes
2 heads, 4 sectors/track, 4093952 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000


Disk /dev/md2: 91.4 GB, 91372912640 bytes
2 heads, 4 sectors/track, 22307840 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
Disk identifier: 0x00000000


Disk /dev/md0: 524 MB, 524222464 bytes
2 heads, 4 sectors/track, 127984 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

***** NOVOS DADOS por solicitação de @frostschutz *****

[root@host ~]# mdadm --detail /dev/md*

mdadm: /dev/md does not appear to be an md device
/dev/md0:
    Version : 1.0
Creation Time : Fri Jun  5 05:05:44 2015
 Raid Level : raid1
 Array Size : 511936 (500.02 MiB 524.22 MB)
Used Dev Size : 511936 (500.02 MiB 524.22 MB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Sat Jun  6 07:19:42 2015
      State : clean 
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0

       Name : host.domain.com:0  (local to host host.domain.com)
       UUID : f9e0a41c:2c27ffe7:146a6a71:6bc894fe
     Events : 28

Number   Major   Minor   RaidDevice State
   0       8        2        0      active sync   /dev/sda2
   1       8       18        1      active sync   /dev/sdb2
   2       8       34        2      active sync   /dev/sdc2
   3       8       50        3      active sync   /dev/sdd2
/dev/md1:
    Version : 1.1
Creation Time : Fri Jun  5 05:05:32 2015
 Raid Level : raid1
 Array Size : 16375808 (15.62 GiB 16.77 GB)
Used Dev Size : 16375808 (15.62 GiB 16.77 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Sat Jun  6 07:19:42 2015
      State : clean 
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0

       Name : host.domain.com:1  (local to host host.domain.com)
       UUID : ae2e2e67:dd9728e7:2d290b6f:78ecec69
     Events : 19

Number   Major   Minor   RaidDevice State
   0       8        1        0      active sync   /dev/sda1
   1       8       17        1      active sync   /dev/sdb1
   2       8       33        2      active sync   /dev/sdc1
   3       8       49        3      active sync   /dev/sdd1
/dev/md2:
    Version : 1.1
Creation Time : Fri Jun  5 05:05:32 2015
 Raid Level : raid10
 Array Size : 89231360 (85.10 GiB 91.37 GB)
Used Dev Size : 44615680 (42.55 GiB 45.69 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Sat Jun  6 22:04:51 2015
      State : active 
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0

     Layout : near=2
 Chunk Size : 512K

       Name : host.domain.com:2  (local to host host.domain.com)
       UUID : 61d27050:e5608a68:84646e94:aa6d0d0c
     Events : 96

Number   Major   Minor   RaidDevice State
   0       8        3        0      active sync set-A   /dev/sda3
   1       8       19        1      active sync set-B   /dev/sdb3
   2       8       35        2      active sync set-A   /dev/sdc3
   3       8       51        3      active sync set-B   /dev/sdd3

***** Segundo pedido para @frostschultz *****

[root@host ~]# mdadm --examine /dev/sd*
/dev/sda:
   MBR Magic : aa55
Partition[0] :     32768000 sectors at         2048 (type fd)
Partition[1] :      1024000 sectors at     32770048 (type fd)
Partition[2] :     89296896 sectors at     33794048 (type fd)
/dev/sda1:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x0
     Array UUID : ae2e2e67:dd9728e7:2d290b6f:78ecec69
           Name : host.domain.com:1  (local to host host.domain.com)
  Creation Time : Fri Jun  5 05:05:32 2015
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 32751616 (15.62 GiB 16.77 GB)
     Array Size : 16375808 (15.62 GiB 16.77 GB)
    Data Offset : 16384 sectors
   Super Offset : 0 sectors
   Unused Space : before=16304 sectors, after=0 sectors
          State : clean
    Device UUID : 942ee69a:8ab0df94:d35c9128:8bfb7655

    Update Time : Sat Jun  6 07:19:42 2015
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 48294779 - correct
         Events : 19


   Device Role : Active device 0
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sda2:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : f9e0a41c:2c27ffe7:146a6a71:6bc894fe
           Name : host.domain.com:0  (local to host host.domain.com)
  Creation Time : Fri Jun  5 05:05:44 2015
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 1023968 (500.07 MiB 524.27 MB)
     Array Size : 511936 (500.02 MiB 524.22 MB)
  Used Dev Size : 1023872 (500.02 MiB 524.22 MB)
   Super Offset : 1023984 sectors
   Unused Space : before=0 sectors, after=104 sectors
          State : clean
    Device UUID : f1c6b25d:693eee98:2addb450:2aeb5c37

    Update Time : Sat Jun  6 07:19:42 2015
  Bad Block Log : 512 entries available at offset -8 sectors
       Checksum : 62a85b35 - correct
         Events : 28


   Device Role : Active device 0
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sda3:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x1
     Array UUID : 61d27050:e5608a68:84646e94:aa6d0d0c
           Name : host.domain.com:2  (local to host host.domain.com)
  Creation Time : Fri Jun  5 05:05:32 2015
     Raid Level : raid10
   Raid Devices : 4

 Avail Dev Size : 89231360 (42.55 GiB 45.69 GB)
     Array Size : 89231360 (85.10 GiB 91.37 GB)
    Data Offset : 65536 sectors
   Super Offset : 0 sectors
   Unused Space : before=65456 sectors, after=0 sectors
          State : clean
    Device UUID : ba051f9d:ad1c1656:7fdc5bf1:397728fc

Internal Bitmap : 8 sectors from superblock
    Update Time : Sat Jun  6 22:25:13 2015
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : b3fae8fc - correct
         Events : 96

         Layout : near=2
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb:
   MBR Magic : aa55
Partition[0] :     32768000 sectors at         2048 (type fd)
Partition[1] :      1024000 sectors at     32770048 (type fd)
Partition[2] :     89296896 sectors at     33794048 (type fd)
/dev/sdb1:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x0
     Array UUID : ae2e2e67:dd9728e7:2d290b6f:78ecec69
           Name : host.domain.com:1  (local to host host.domain.com)
  Creation Time : Fri Jun  5 05:05:32 2015
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 32751616 (15.62 GiB 16.77 GB)
     Array Size : 16375808 (15.62 GiB 16.77 GB)
    Data Offset : 16384 sectors
   Super Offset : 0 sectors
   Unused Space : before=16304 sectors, after=0 sectors
          State : clean
    Device UUID : 8dd698b4:c8ad9ac0:a92fa8b1:be01b26c

    Update Time : Sat Jun  6 07:19:42 2015
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 2de8c5bb - correct
         Events : 19


   Device Role : Active device 1
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb2:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : f9e0a41c:2c27ffe7:146a6a71:6bc894fe
           Name : host.domain.com:0  (local to host host.domain.com)
  Creation Time : Fri Jun  5 05:05:44 2015
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 1023968 (500.07 MiB 524.27 MB)
     Array Size : 511936 (500.02 MiB 524.22 MB)
  Used Dev Size : 1023872 (500.02 MiB 524.22 MB)
   Super Offset : 1023984 sectors
   Unused Space : before=0 sectors, after=104 sectors
          State : clean
    Device UUID : fe45fa24:a9b1b2e1:357894ce:0a25ae78

    Update Time : Sat Jun  6 07:19:42 2015
  Bad Block Log : 512 entries available at offset -8 sectors
       Checksum : 31e5226f - correct
         Events : 28


   Device Role : Active device 1
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb3:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x1
     Array UUID : 61d27050:e5608a68:84646e94:aa6d0d0c
           Name : host.domain.com:2  (local to host host.domain.com)
  Creation Time : Fri Jun  5 05:05:32 2015
     Raid Level : raid10
   Raid Devices : 4

 Avail Dev Size : 89231360 (42.55 GiB 45.69 GB)
     Array Size : 89231360 (85.10 GiB 91.37 GB)
    Data Offset : 65536 sectors
   Super Offset : 0 sectors
   Unused Space : before=65456 sectors, after=0 sectors
          State : clean
    Device UUID : 3dc3c3bb:7d46da83:6bcffa25:71fb51e3

Internal Bitmap : 8 sectors from superblock
    Update Time : Sat Jun  6 22:25:13 2015
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 1c2c4774 - correct
         Events : 96

         Layout : near=2
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc:
   MBR Magic : aa55
Partition[0] :     32768000 sectors at         2048 (type fd)
Partition[1] :      1024000 sectors at     32770048 (type fd)
Partition[2] :     89296896 sectors at     33794048 (type fd)
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x0
     Array UUID : ae2e2e67:dd9728e7:2d290b6f:78ecec69
           Name : host.domain.com:1  (local to host host.domain.com)
  Creation Time : Fri Jun  5 05:05:32 2015
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 32751616 (15.62 GiB 16.77 GB)
     Array Size : 16375808 (15.62 GiB 16.77 GB)
    Data Offset : 16384 sectors
   Super Offset : 0 sectors
   Unused Space : before=16304 sectors, after=0 sectors
          State : clean
    Device UUID : 970f9254:c1498c69:ae75f67a:499e294e

    Update Time : Sat Jun  6 07:19:42 2015
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 21997d4e - correct
         Events : 19


   Device Role : Active device 2
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc2:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : f9e0a41c:2c27ffe7:146a6a71:6bc894fe
           Name : host.domain.com:0  (local to host host.domain.com)
  Creation Time : Fri Jun  5 05:05:44 2015
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 1023968 (500.07 MiB 524.27 MB)
     Array Size : 511936 (500.02 MiB 524.22 MB)
  Used Dev Size : 1023872 (500.02 MiB 524.22 MB)
   Super Offset : 1023984 sectors
   Unused Space : before=0 sectors, after=104 sectors
          State : clean
    Device UUID : 1b64b17c:6b32f75a:2ea5e242:7fe886e8

    Update Time : Sat Jun  6 07:19:42 2015
  Bad Block Log : 512 entries available at offset -8 sectors
       Checksum : e707b1bc - correct
         Events : 28


   Device Role : Active device 2
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc3:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x1
     Array UUID : 61d27050:e5608a68:84646e94:aa6d0d0c
           Name : host.domain.com:2  (local to host host.domain.com)
  Creation Time : Fri Jun  5 05:05:32 2015
     Raid Level : raid10
   Raid Devices : 4

 Avail Dev Size : 89231360 (42.55 GiB 45.69 GB)
     Array Size : 89231360 (85.10 GiB 91.37 GB)
    Data Offset : 65536 sectors
   Super Offset : 0 sectors
   Unused Space : before=65456 sectors, after=0 sectors
          State : clean
    Device UUID : 9d2d00a0:54582922:b6ff7c9f:d7a72861

Internal Bitmap : 8 sectors from superblock
    Update Time : Sat Jun  6 22:25:13 2015
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 9610a05c - correct
         Events : 96

         Layout : near=2
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd:
   MBR Magic : aa55
Partition[0] :     32768000 sectors at         2048 (type fd)
Partition[1] :      1024000 sectors at     32770048 (type fd)
Partition[2] :     89296896 sectors at     33794048 (type fd)
/dev/sdd1:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x0
     Array UUID : ae2e2e67:dd9728e7:2d290b6f:78ecec69
           Name : host.domain.com:1  (local to host host.domain.com)
  Creation Time : Fri Jun  5 05:05:32 2015
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 32751616 (15.62 GiB 16.77 GB)
     Array Size : 16375808 (15.62 GiB 16.77 GB)
    Data Offset : 16384 sectors
   Super Offset : 0 sectors
   Unused Space : before=16304 sectors, after=0 sectors
          State : clean
    Device UUID : 094af00a:40bf3096:d675d62d:4f77b847

    Update Time : Sat Jun  6 07:19:42 2015
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : b10b066d - correct
         Events : 19


   Device Role : Active device 3
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd2:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : f9e0a41c:2c27ffe7:146a6a71:6bc894fe
           Name : host.domain.com:0  (local to host host.domain.com)
  Creation Time : Fri Jun  5 05:05:44 2015
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 1023968 (500.07 MiB 524.27 MB)
     Array Size : 511936 (500.02 MiB 524.22 MB)
  Used Dev Size : 1023872 (500.02 MiB 524.22 MB)
   Super Offset : 1023984 sectors
   Unused Space : before=0 sectors, after=104 sectors
          State : clean
    Device UUID : b7c19d19:a8b7ca21:23c9259b:0ecaaa2f

    Update Time : Sat Jun  6 07:19:42 2015
  Bad Block Log : 512 entries available at offset -8 sectors
       Checksum : ea2e9a19 - correct
         Events : 28


   Device Role : Active device 3
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd3:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x1
     Array UUID : 61d27050:e5608a68:84646e94:aa6d0d0c
           Name : host.domain.com:2  (local to host host.domain.com)
  Creation Time : Fri Jun  5 05:05:32 2015
     Raid Level : raid10
   Raid Devices : 4

 Avail Dev Size : 89231360 (42.55 GiB 45.69 GB)
     Array Size : 89231360 (85.10 GiB 91.37 GB)
    Data Offset : 65536 sectors
   Super Offset : 0 sectors
   Unused Space : before=65456 sectors, after=0 sectors
          State : clean
    Device UUID : 25151df4:f0c22a6f:fa9d3e43:d40295dd

Internal Bitmap : 8 sectors from superblock
    Update Time : Sat Jun  6 22:25:13 2015
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 575cebc3 - correct
         Events : 96

         Layout : near=2
     Chunk Size : 512K

   Device Role : Active device 3
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
[root@host ~]# 

***** ATUALIZAÇÃO após feedback adicional de feedback: *****

Refazer o sistema (sou do zero tipo em uma caixa nova)

**Option 1)**
Boot : 512 MB on 4 drives in RAID 10 : 1GB
Swap : 8 GB on 4 drives in RAID 10   : 16 GB
/    : ~54 GB on 4 drives in RAID 10 : ~108 GB

**Option 2)**
Boot : 256 MB on 4 drives in RAID 10 : 512 MB
Swap : 8 GB on 4 drives in RAID 10   : 16 GB
/    : ~55 GB on 4 drives in RAID 10 : ~110 GB

Sendo a questão restante, a Opção 2 é suficiente ou devo ir com a Opção 1 apenas para ser conservador / seguro?

    
por BentDreams 06.06.2015 / 22:35

3 respostas

4

Suas unidades não são configuradas inteiramente como dispositivos RAID10. Cada uma das suas quatro unidades é particionada em três partições, uma contendo aproximadamente 16.8 GB (estou usando GB SI aqui), um contendo 524MB e um contendo 45.7GB.

O conjunto de quatro partições de 16.8GB é montado em md1 , um dispositivo RAID1 de 16.8GB ( md1: active raid1 ; todas as quatro partições são espelhadas, portanto, a capacidade total é a de uma única partição). O conjunto de quatro partições de 524MB é montado em md0 , um dispositivo RAID1 de 512MB. Finalmente, o conjunto de quatro 45.7GB é montado em md2 , um dispositivo RAID10 de 91,4 GB.

Como resultado de tudo isso, sua capacidade total é de 91,4 + 0,5 + 16,8 = 108,7 GB, em vez dos 126 GB que você esperaria se tudo estivesse configurado como dispositivos RAID10.

É possível converter um RAID1 com quatro dispositivos em um RAID10, e mdadm suporta isso indiretamente (como apontado por frostschutz ): ele pode "aumentar" uma matriz RAID1 em uma matriz RAID0 e, então, aumentar a matriz RAID0 em uma matriz RAID10. (Leia a seção "modo de cultivo" da manpage mdadm(8) .) Se você converter suas duas matrizes RAID1 em matrizes RAID10, você terá uma capacidade total de 91.4 + 0.5 * 2 + 16.8 * 2 = 91.4+ 1 + 33,6 = 126 GB.

Das suas opções eu escolheria uma variante da opção 1:

  • boot: 512 MB em 4 unidades no RAID 1: 512 MB
  • swap: 8 GB em 4 unidades no RAID 10: 16 GB
  • /: ~ 54 GB em 4 unidades no RAID 10: ~ 108 GB

simplesmente porque eu não sei quão bem grub (ou qualquer bootloader que você use) suporta RAID10, e porque uma partição RAID1 pode ser usada diretamente, sem md support.

    
por 06.06.2015 / 23:52
1

Existem algumas razões para a confusão aqui.

  1. As unidades SSD costumam ser anunciadas como capacidade "bruta", o que inclui todo o superprovisionamento de setores defeituosos. Portanto, um dispositivo de 64 GB pode ter apenas 60 GB de espaço utilizável.

  2. Os discos são especificados em 10 ^ n unidades, então 64 GB são (64 * 10 ^ 9) bytes. As freqüentes expectativas dos usuários de memória e computador baseiam-se em torno de 2 ^ m unidades, onde 64GiB são (2 ^ 36) bytes.

Se você observar o tamanho bruto de seus discos, conforme relatado por fdisk , 63023063040 bytes, isso equivale a aproximadamente 63 GB ou 58 GiB.

Além disso, as partições geralmente não são iniciadas no primeiro setor de disco e geralmente são arredondadas em um limite conveniente (se você tiver formatado com cilindros, será um número completo de cilindros. É melhor formatar SSDs por blocos ou setores). E então há sobrecarga do sistema de arquivos, e é por isso que df -h em um disco completo nunca corresponde ao tamanho reivindicado via fdisk .

    
por 07.06.2015 / 00:11
1

Stephen Kitt já respondeu à sua pergunta corretamente, mas desde que você mencionou 'restrições ao uso do software RAID', há outro problema que pode desperdiçar um pouco de espaço e esse é o tamanho dos metadados RAID.

Em teoria, os metadados RAID são realmente pequenos, alguns kilobytes no máximo.

Na prática mdadm reserva bastante espaço para seus metadados. No seu caso, são 16384 setores em /dev/sd[abcd]1 e 65536 setores em /dev/sd[abcd]3 . Então, isso é cerca de 40MiB desperdiçado - por disco. A versão atual de mdadm reserva até 262144 setores. Com várias partições RAID e muitos discos em um determinado RAID, ele é adicionado. Na minha própria configuração, seriam necessários vários gigabytes apenas para compensações.

A única razão pela qual ele usa compensações tão grandes é tornar algumas operações de crescimento mais eficientes, e toda vez que você aumenta seu RAID você perde um pouco do deslocamento.

Se você não precisar desse recurso, poderá especificar --data-offset=2048 no momento da criação do RAID. Dessa forma, os metadados usarão 1MiB offset para fins de alinhamento de dados.

    
por 07.06.2015 / 13:35