Não é possível montar o dispositivo - acredite que é do tipo XFS

2

Eu tenho um disco rígido de um gabinete Javelin S4 (semelhante ao Promise NS4600N) que foi configurado como um único disco RAID0 que eu tentei adicionar ao meu servidor Ubuntu Linux (14.x) genérico "Linux 3.13.0-49 -genérica "Eu acredito que o tipo FS é xfs com base no que eu li. Eu também tenho um disco de um Promise NS4300N que eu era capaz de adicionar (ext3) sem problemas, mesmo formato RAID0 de disco único.

Sempre que tento montar o dispositivo XFS, recebo o erro "Função não implementada".

fdisk -l (apenas itens relativos fornecidos):

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00000000

[...]

Disk /dev/mapper/vg002-lv001: 1999.0 GB, 1998950760448 bytes
255 heads, 63 sectors/track, 243025 cylinders, total 3904200704 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00000000

Disk /dev/mapper/vg002-lv001 doesn't contain a valid partition table

Esta informação é a mesma que o dispositivo ext3 que é bem montado.

Quando faço o seguinte:

sudo mount -t xfs /dev/vg002/lv001 /hdd/volume2
sudo mount -t xfs /dev/mapper/vg002-lv001
sudo mount /dev/vg002/lv001 /hdd/volume2
sudo mount /dev/mapper/vg002-lv001

I just get Function not implemented.

Eu instalei o xfsprogs e o xfsdump

Eu tentei opções no servidor Ubuntu e no desktop Ubuntu

Eu executei o xfs-repair, primeiro como -n e next sem a opção sem ação:

sudo xfs_repair -v /dev/mapper/vg002-lv001
Phase 1 - find and verify superblock...
        - block cache size set to 758408 entries
Phase 2 - using internal log
        - zero log...
zero_log: head block 195328 tail block 195328
        - scan filesystem freespace and inode maps...
        - found root inode chunk
Phase 3 - for each AG...
        - scan and clear agi unlinked lists...
        - process known inodes and perform inode discovery...
        - agno = 0
        - agno = 1
        - agno = 2
        - agno = 3
        - process newly discovered inodes...
Phase 4 - check for duplicate blocks...
        - setting up duplicate extent list...
        - check for inodes claiming duplicate blocks...
        - agno = 0
        - agno = 1
        - agno = 2
        - agno = 3
Phase 5 - rebuild AG headers and trees...
        - agno = 0
        - agno = 1
        - agno = 2
        - agno = 3
        - reset superblock...
Phase 6 - check inode connectivity...
        - resetting contents of realtime bitmap and summary inodes
        - traversing filesystem ...
        - agno = 0
        - agno = 1
        - agno = 2
        - agno = 3
        - traversal finished ...
        - moving disconnected inodes to lost+found ...
Phase 7 - verify and correct link counts...
Note - quota info will be regenerated on next quota mount.

        XFS_REPAIR Summary    Wed Aug 19 09:45:12 2015

Phase           Start           End             Duration
Phase 1:        08/19 09:44:51  08/19 09:44:52  1 second
Phase 2:        08/19 09:44:52  08/19 09:45:02  10 seconds
Phase 3:        08/19 09:45:02  08/19 09:45:10  8 seconds
Phase 4:        08/19 09:45:10  08/19 09:45:11  1 second
Phase 5:        08/19 09:45:11  08/19 09:45:11
Phase 6:        08/19 09:45:11  08/19 09:45:11
Phase 7:        08/19 09:45:11  08/19 09:45:11

Total run time: 20 seconds

Eu fiz vgscan

Reading all physical volumes.  This may take a while...
  Found volume group "vg002" using metadata type lvm2

[...]

Eu verifiquei que o xfs está suportando em / procs / filesystems e que ele não tem nodev nele (não tem / etc / filesystems)

Acredito que os tamanhos dos blocos do HDD sejam 4096 e tenham feito um getconf PAGE_SIZE com um retorno de 4096

a dmesg | tail yields:

[ 1631.686429] XFS (dm-0): Corruption detected. Unmount and run xfs_repair
[ 1631.686433] XFS (dm-0): SB validate failed with error 38.
[31648.998141] XFS (dm-0): unknown mount option [csize].
[31665.514229] XFS (dm-0): unknown mount option [csize].

Eu também executei este comando em ambos os discos rígidos dos dois NASs diferentes:

sudo file -s /dev/sda
/dev/sda: LVM2 PV (Linux Logical Volume Manager), UUID: KNAIIR-rtHE-ucTO-cWT4-Zke0-7NVX-7WNpD0, size: 2000331800576

sudo file -s /dev/sdc
/dev/sdc: LVM2 PV (Linux Logical Volume Manager), UUID: ANxiVX-4s1T-dtNj-vCGA-xNGE-p39E-UP0bHc, size: 1999999991808

E ainda mais dados no dispositivo:

sudo lvdisplay
  --- Logical volume ---
  LV Path                /dev/vg002/lv001
  LV Name                lv001
  VG Name                vg002
  LV UUID                cOl9oX-IoNh-azhW-cnxS-USa6-LpV6-sI0RKQ
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              available
  # open                 0
  LV Size                1.82 TiB
  Current LE             476587
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:0

  --- Logical volume ---
  LV Path                /dev/vg002/nsswap
  LV Name                nsswap
  VG Name                vg002
  LV UUID                qidCbH-TlD0-oXPB-cb36-tPZy-3anI-7gcC2Q
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              available
  # open                 0
  LV Size                512.00 MiB
  Current LE             128
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:1

Com o comando lvdisplay, percebo que ele tem uma entidade nswap que o outro dispositivo ext3 não tinha. Não tenho certeza se isso significa alguma coisa (desculpe, pouco de noob, ou pelo menos, não é bem versado em gerenciar a infraestrutura Linux).

Alguém tem alguma opinião sobre o que eu ainda não tentei? Sugestões? Os dados estão bem, eu só gostaria de poder transferir os dados do disco para o disco em vez de ter que fazê-lo através da rede - NAS & gt; estação de trabalho & gt; NAS - demora muito tempo.

Obrigado

    
por DeanoDino 19.08.2015 / 19:33

0 respostas