Eu tenho um disco rígido de um gabinete Javelin S4 (semelhante ao Promise NS4600N) que foi configurado como um único disco RAID0 que eu tentei adicionar ao meu servidor Ubuntu Linux (14.x) genérico "Linux 3.13.0-49 -genérica "Eu acredito que o tipo FS é xfs com base no que eu li. Eu também tenho um disco de um Promise NS4300N que eu era capaz de adicionar (ext3) sem problemas, mesmo formato RAID0 de disco único.
Sempre que tento montar o dispositivo XFS, recebo o erro "Função não implementada".
fdisk -l (apenas itens relativos fornecidos):
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00000000
[...]
Disk /dev/mapper/vg002-lv001: 1999.0 GB, 1998950760448 bytes
255 heads, 63 sectors/track, 243025 cylinders, total 3904200704 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00000000
Disk /dev/mapper/vg002-lv001 doesn't contain a valid partition table
Esta informação é a mesma que o dispositivo ext3 que é bem montado.
Quando faço o seguinte:
sudo mount -t xfs /dev/vg002/lv001 /hdd/volume2
sudo mount -t xfs /dev/mapper/vg002-lv001
sudo mount /dev/vg002/lv001 /hdd/volume2
sudo mount /dev/mapper/vg002-lv001
I just get Function not implemented.
Eu instalei o xfsprogs e o xfsdump
Eu tentei opções no servidor Ubuntu e no desktop Ubuntu
Eu executei o xfs-repair, primeiro como -n e next sem a opção sem ação:
sudo xfs_repair -v /dev/mapper/vg002-lv001
Phase 1 - find and verify superblock...
- block cache size set to 758408 entries
Phase 2 - using internal log
- zero log...
zero_log: head block 195328 tail block 195328
- scan filesystem freespace and inode maps...
- found root inode chunk
Phase 3 - for each AG...
- scan and clear agi unlinked lists...
- process known inodes and perform inode discovery...
- agno = 0
- agno = 1
- agno = 2
- agno = 3
- process newly discovered inodes...
Phase 4 - check for duplicate blocks...
- setting up duplicate extent list...
- check for inodes claiming duplicate blocks...
- agno = 0
- agno = 1
- agno = 2
- agno = 3
Phase 5 - rebuild AG headers and trees...
- agno = 0
- agno = 1
- agno = 2
- agno = 3
- reset superblock...
Phase 6 - check inode connectivity...
- resetting contents of realtime bitmap and summary inodes
- traversing filesystem ...
- agno = 0
- agno = 1
- agno = 2
- agno = 3
- traversal finished ...
- moving disconnected inodes to lost+found ...
Phase 7 - verify and correct link counts...
Note - quota info will be regenerated on next quota mount.
XFS_REPAIR Summary Wed Aug 19 09:45:12 2015
Phase Start End Duration
Phase 1: 08/19 09:44:51 08/19 09:44:52 1 second
Phase 2: 08/19 09:44:52 08/19 09:45:02 10 seconds
Phase 3: 08/19 09:45:02 08/19 09:45:10 8 seconds
Phase 4: 08/19 09:45:10 08/19 09:45:11 1 second
Phase 5: 08/19 09:45:11 08/19 09:45:11
Phase 6: 08/19 09:45:11 08/19 09:45:11
Phase 7: 08/19 09:45:11 08/19 09:45:11
Total run time: 20 seconds
Eu fiz vgscan
Reading all physical volumes. This may take a while...
Found volume group "vg002" using metadata type lvm2
[...]
Eu verifiquei que o xfs está suportando em / procs / filesystems e que ele não tem nodev nele (não tem / etc / filesystems)
Acredito que os tamanhos dos blocos do HDD sejam 4096 e tenham feito um getconf PAGE_SIZE com um retorno de 4096
a dmesg | tail yields:
[ 1631.686429] XFS (dm-0): Corruption detected. Unmount and run xfs_repair
[ 1631.686433] XFS (dm-0): SB validate failed with error 38.
[31648.998141] XFS (dm-0): unknown mount option [csize].
[31665.514229] XFS (dm-0): unknown mount option [csize].
Eu também executei este comando em ambos os discos rígidos dos dois NASs diferentes:
sudo file -s /dev/sda
/dev/sda: LVM2 PV (Linux Logical Volume Manager), UUID: KNAIIR-rtHE-ucTO-cWT4-Zke0-7NVX-7WNpD0, size: 2000331800576
sudo file -s /dev/sdc
/dev/sdc: LVM2 PV (Linux Logical Volume Manager), UUID: ANxiVX-4s1T-dtNj-vCGA-xNGE-p39E-UP0bHc, size: 1999999991808
E ainda mais dados no dispositivo:
sudo lvdisplay
--- Logical volume ---
LV Path /dev/vg002/lv001
LV Name lv001
VG Name vg002
LV UUID cOl9oX-IoNh-azhW-cnxS-USa6-LpV6-sI0RKQ
LV Write Access read/write
LV Creation host, time ,
LV Status available
# open 0
LV Size 1.82 TiB
Current LE 476587
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:0
--- Logical volume ---
LV Path /dev/vg002/nsswap
LV Name nsswap
VG Name vg002
LV UUID qidCbH-TlD0-oXPB-cb36-tPZy-3anI-7gcC2Q
LV Write Access read/write
LV Creation host, time ,
LV Status available
# open 0
LV Size 512.00 MiB
Current LE 128
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:1
Com o comando lvdisplay, percebo que ele tem uma entidade nswap que o outro dispositivo ext3 não tinha. Não tenho certeza se isso significa alguma coisa (desculpe, pouco de noob, ou pelo menos, não é bem versado em gerenciar a infraestrutura Linux).
Alguém tem alguma opinião sobre o que eu ainda não tentei? Sugestões? Os dados estão bem, eu só gostaria de poder transferir os dados do disco para o disco em vez de ter que fazê-lo através da rede - NAS & gt; estação de trabalho & gt; NAS - demora muito tempo.
Obrigado