Como transferir dados de um disco com tamanho de bloco 512 para um maior com tamanho de bloco 4096

1

Tentando copiar dados de 1,9 TB de um disco bruto para um maior de 2,6 TB e, em algum momento, a transação é interrompida devido à falta de espaço no disco de destino. Fiz uma pesquisa sobre isso e descobri que isso tem a ver com a diferença no tamanho do bloco dos discos de origem (512) e de destino (4096). Então eu procurei soluções para criar um disco com tamanho de bloco de 512, sem sucesso. Alguém poderia apontar alguma direção onde procurar?

Qualquer ajuda seria muito apreciada!

Atualizar :

(Alguns detalhes que eu perdi mais cedo e poderiam ser úteis)

Existe um arquivo chamado data.dd que eu montei usando a montagem de loop.

root@server:# fdisk -l data.dd
Disk data.dd: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x00000000

Device                 Boot Start        End    Sectors  Size Id Type
data.dd1          1 3907024064 3907024064  1.8T fd Linux raid autodetect

root@server:# losetup /dev/loop1 data.dd -o $((1 * 512))
root@server:# lsblk
NAME                           MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
loop1                            7:1    0   1.8T  0 loop
└─shark-storage                252:25   0   1.7T  0 lvm

root@server:# mount /dev/shark/storage /storage/mnt/

root@server:# df -h
Filesystem                     Size  Used Avail Use% Mounted on
/dev/mapper/shark-storage      1.7T  1.5T  193G  89% /storage/mnt

Finalmente, estou copiando os dados para outro disco usando cp ou rsync. Nenhum deles está completando.

    
por Attila A. 07.11.2017 / 00:08

1 resposta

0

Ok, funcionou agora. Em vez de copiar o conteúdo da imagem do disco, eu o clonei diretamente no destino. Talvez isso devesse ter sido feito em primeiro lugar.

Esta pode não ser a resposta exata, mas vale a pena compartilhar.

Aqui está o que eu fiz:

  1. criou um disco (suponha que ele seja chamado de vdb ) de 2,6 TB para garantir que haja espaço suficiente.
  2. restaurou com sucesso a imagem usando o dd
root@server:~# dd if=./data.dd of=/dev/vdb bs=4096 conv=notrunc,noerror

root@server:~# lsblk
vdb                 253:16   0   2.6T  0 disk
└─vdb1              253:17   0   1.8T  0 part
  1. Durante a montagem, ele se tornou um membro Raid
root@server:~# mdadm --assemble --run /dev/md127 /dev/vdb1
mdadm: /dev/vdb1 is busy - skipping
root@server:~# mdadm --assemble --run --force /dev/md127 /dev/vdb1
mdadm: /dev/vdb1 is busy - skipping
root@server:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md127 : inactive vdb1[0](S)
      1953511936 blocks

unused devices: <none>
root@server:~# mount /dev/md127 /mydata/
mount: /dev/md127: can't read superblock
root@server:~# mdadm --examine /dev/vdb1
/dev/vdb1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 0a0f4cab:13da9f8f:32773d18:de90fe8d (local to host server)
  Creation Time : Mon Jun 20 14:38:59 2011
     Raid Level : raid1
  Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB)
     Array Size : 1953511936 (1863.01 GiB 2000.40 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 4

    Update Time : Tue May 31 06:45:38 2016
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0
       Checksum : f2035ced - correct
         Events : 1354346


      Number   Major   Minor   RaidDevice State
this     0       8       17        0      active sync

   0     0       8       17        0      active sync
   1     1       8       49        1      active sync

root@server:~# mdadm -A -R /dev/md127 /dev/vdb1
mdadm: /dev/vdb1 is busy - skipping

root@server:~# mdadm -S /dev/md127
mdadm: stopped /dev/md127

root@server:~# mdadm -A -R /dev/md127 /dev/vdb1
mdadm: /dev/md127 has been started with 1 drive (out of 2).

root@server:~# mount /dev/md127 /mydata/
mount: unknown filesystem type 'LVM2_member'

root@server:~# fdisk -l /dev/md127
Disk /dev/md127: 1.8 TiB, 2000396222464 bytes, 3907023872 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

root@server:~# lvmdiskscan
  /dev/vgname/lvname  [       1.66 TiB]
  /dev/md127          [       1.82 TiB] LVM physical volume

root@server:~# lvdisplay
  --- Logical volume ---
  LV Path                /dev/vgname/lvname
  LV Name                lvname
  VG Name                vgname
  LV UUID                W4abfE-wnuM-Q2Z1-item-mdo9-daHx-K10yQB
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              available
  # open                 0
  LV Size                1.66 TiB
  Current LE             435456
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:2

root@server:~# vgdisplay
  --- Volume group ---
  VG Name               vgname
  System ID
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  6
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               1.82 TiB
  PE Size               4.00 MiB
  Total PE              476931
  Alloc PE / Size       435456 / 1.66 TiB
  Free  PE / Size       41475 / 162.01 GiB
  VG UUID               tNqlCk-SSzi-1eFO-ZPyX-fAee-3cIi-Tdu2gR

root@server:~# lsblk
NAME                MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
vdb                 253:16   0   2.6T  0 disk
└─vdb1              253:17   0   1.8T  0 part
  └─md127             9:127  0   1.8T  0 raid1
    └─vgname-lvname 252:2    0   1.7T  0 lvm

root@server:~# mount /dev/vgname/lvname /mydata/
root@server:~# lsblk
NAME                MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
vdb                 253:16   0   2.6T  0 disk
└─vdb1              253:17   0   1.8T  0 part
  └─md127             9:127  0   1.8T  0 raid1
    └─vgname-lvname 252:2    0   1.7T  0 lvm   /mydata

root@server:~# cd /mydata/
root@server:/mydata# ll
... lots of files and folders ....

Recursos que me ajudaram a encontrar uma maneira de lidar com o caso:

por Attila A. 07.11.2017 / 22:48