4HDDs no RAID 10 Um disco específico é degradado durante cada reinicialização. O disco está ruim? Smartmoontools informação incluída

0

Então tudo começou há cerca de 6 meses atrás quando eu troquei uma nova placa-mãe. O RAID já havia sido o meu principal disco que eu iniciei. Eu atualizei cpus que significou uma atualização mobo, e junto com isso eu troquei para um SSD como minha unidade principal. Eu não fiz nada extravagante para trazer o novo RAID, larguei as unidades e instalei os drivers RAID e reiniciei para ligar o RAID no BIOS. Tudo parecia intacto, exceto esta unidade, que apareceu degradada durante a primeira inicialização.

Uma vez que eu carreguei para o Windows, o software Intel RST iniciou automaticamente um reparo que levou 2 horas para ser concluído. Depois do que tudo parecia bem, então eu desliguei. Eu fui em frente e reabri o caso, verificando novamente todos os cabos / conexões / assentos da unidade, etc. Tudo estava bem nesse sentido.

Em seguida, mostrou-se degradado novamente durante a inicialização a seguir e ele se reparou novamente sem problemas. Então eu troquei as portas nas quais as unidades estavam, mas o mesmo problema persistiu com a mesma degradação da unidade. Mudei todos os arquivos realmente importantes que eu queria para o RAID e desde então tenho usado como armazenamento. Não notei nenhum problema entre as reinicializações quando eu armazeno ou recupero arquivos no RAID. Independentemente dos raros momentos em que reinicializo os relatórios da unidade como degradados novamente como um relógio.

Durante os reparos, o inversor é marcado com um aviso, mas sem outras informações pertinentes. Após o reparo A ferramenta RST da Intel se parece com isso. Discos individuais de cada relatório Status: Normal.

Depois de algum tempo, eu estou pensando em quebrar o RAID, mas antes disso eu gostaria de saber o que realmente está acontecendo com este disco, já que parecia uma grande coincidência que tudo estivesse funcionando sem problemas até o momento em que eu troquei mobos . Old drive, mas ei, se funciona, eu gostaria de mantê-lo para armazenamento de emergência ou temporário.

De qualquer forma, não consegui encontrar muita informação apenas com o Intel RST, e os logs não foram encontrados em nenhum lugar, por isso encontrei o smartmontools e tentei usar a linha de comando

smartctl -a /dev/csmi0,3

0,3 sendo o drive problemático que produz o seguinte:

smartctl 6.5 2016-05-07 r4318 [x86_64-w64-mingw32-win7-sp1] (sf-6.5-1)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Maxtor DiamondMax 10 (ATA/133 and SATA/150)
Device Model:     Maxtor 6B300S0
Serial Number:    B60NDB2H
Firmware Version: BANC1B70
User Capacity:    300,090,728,448 bytes [300 GB]
Sector Size:      512 bytes logical/physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA/ATAPI-7 T13/1532D revision 0
Local Time is:    Mon Jan 16 23:28:51 2017 PST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82) Offline data collection activity
                                        was completed without error.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0) The previous self-test routine completed

                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                ( 2283) seconds.
Offline data collection
capabilities:                    (0x5b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off supp
ort.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        No Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   2) minutes.
Extended self-test routine
recommended polling time:        ( 118) minutes.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_
FAILED RAW_VALUE
  3 Spin_Up_Time            0x0027   183   149   063    Pre-fail  Always       -
       28226
  4 Start_Stop_Count        0x0032   250   250   000    Old_age   Always       -
       6749
  5 Reallocated_Sector_Ct   0x0033   140   140   063    Pre-fail  Always       -
       1149
  6 Read_Channel_Margin     0x0001   253   253   100    Pre-fail  Offline      -
       0
  7 Seek_Error_Rate         0x000a   253   247   000    Old_age   Always       -
       0
  8 Seek_Time_Performance   0x0027   250   231   187    Pre-fail  Always       -
       56890
  9 Power_On_Minutes        0x0032   001   001   000    Old_age   Always       -
       851h+19m
 10 Spin_Retry_Count        0x002b   253   209   157    Pre-fail  Always       -
       0
 11 Calibration_Retry_Count 0x002b   253   252   223    Pre-fail  Always       -
       0
 12 Power_Cycle_Count       0x0032   251   251   000    Old_age   Always       -
       1014
192 Power-Off_Retract_Count 0x0032   253   253   000    Old_age   Always       -
       0
193 Load_Cycle_Count        0x0032   253   253   000    Old_age   Always       -
       0
194 Temperature_Celsius     0x0032   044   253   000    Old_age   Always       -
       48
195 Hardware_ECC_Recovered  0x000a   253   212   000    Old_age   Always       -
       22159
196 Reallocated_Event_Count 0x0008   253   253   000    Old_age   Offline      -
       0
197 Current_Pending_Sector  0x0008   253   249   000    Old_age   Offline      -
       0
198 Offline_Uncorrectable   0x0008   253   252   000    Old_age   Offline      -
       0
199 UDMA_CRC_Error_Count    0x0008   199   199   000    Old_age   Offline      -
       0
200 Multi_Zone_Error_Rate   0x000a   253   252   000    Old_age   Always       -
       0
201 Soft_Read_Error_Rate    0x000a   253   252   000    Old_age   Always       -
       0
202 Data_Address_Mark_Errs  0x000a   253   233   000    Old_age   Always       -
       0
203 Run_Out_Cancel          0x000b   253   252   180    Pre-fail  Always       -
       1
204 Soft_ECC_Correction     0x000a   253   252   000    Old_age   Always       -
       0
205 Thermal_Asperity_Rate   0x000a   253   252   000    Old_age   Always       -
       0
207 Spin_High_Current       0x002a   253   209   000    Old_age   Always       -
       0
208 Spin_Buzz               0x002a   253   252   000    Old_age   Always       -
       0
209 Offline_Seek_Performnce 0x0024   240   240   000    Old_age   Offline      -
       161
210 Unknown_Attribute       0x0032   253   252   000    Old_age   Always       -
       0
211 Unknown_Attribute       0x0032   253   252   000    Old_age   Always       -
       0
212 Unknown_Attribute       0x0032   253   253   000    Old_age   Always       -
       0

Read SMART Log Directory failed: CSMI(25) failed with ReturnCode=1

SMART Error Log Version: 1
ATA Error Count: 368 (device log contains only the most recent five errors)
        CR = Command Register [HEX]
        FR = Features Register [HEX]
        SC = Sector Count Register [HEX]
        SN = Sector Number Register [HEX]
        CL = Cylinder Low Register [HEX]
        CH = Cylinder High Register [HEX]
        DH = Device/Head Register [HEX]
        DC = Device Command Register [HEX]
        ER = Error register [HEX]
        ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 368 occurred at disk power-on lifetime: 11897 hours (495 days + 17 hours)
  When the command that caused the error occurred, the device was in an unknown
state.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  78 00 01 10 00 00 40

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  00 00 01 10 00 00 40 00      02:43:33.823  NOP [Abort queued commands]
  00 80 40 00 19 d0 40 00      02:43:32.365  NOP [Reserved subcommand] [OBS-ACS-
2]
  00 80 38 80 18 d0 40 00      02:43:32.363  NOP [Reserved subcommand] [OBS-ACS-
2]
  00 80 38 80 18 d0 40 00      02:43:32.363  NOP [Reserved subcommand] [OBS-ACS-
2]
  00 80 30 00 18 d0 40 00      02:43:32.361  NOP [Reserved subcommand] [OBS-ACS-
2]

Error 367 occurred at disk power-on lifetime: 11897 hours (495 days + 17 hours)
  When the command that caused the error occurred, the device was in an unknown
state.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  78 00 01 10 00 00 40

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  00 00 01 10 00 00 40 00      02:43:30.598  NOP [Abort queued commands]
  00 80 98 00 ff cf 40 00      02:43:26.799  NOP [Reserved subcommand] [OBS-ACS-
2]
  00 80 90 80 fe cf 40 00      02:43:26.798  NOP [Reserved subcommand] [OBS-ACS-
2]
  00 80 90 80 fe cf 40 00      02:43:26.797  NOP [Reserved subcommand] [OBS-ACS-
2]
  00 80 88 00 fe cf 40 00      02:43:26.796  NOP [Reserved subcommand] [OBS-ACS-
2]

Error 366 occurred at disk power-on lifetime: 11897 hours (495 days + 17 hours)
  When the command that caused the error occurred, the device was in an unknown
state.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  78 00 01 10 00 00 40

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  00 00 01 10 00 00 40 00      02:43:23.357  NOP [Abort queued commands]
  00 80 40 00 fa cf 40 00      02:43:21.905  NOP [Reserved subcommand] [OBS-ACS-
2]
  00 80 38 80 f9 cf 40 00      02:43:21.904  NOP [Reserved subcommand] [OBS-ACS-
2]
  00 80 38 80 f9 cf 40 00      02:43:21.903  NOP [Reserved subcommand] [OBS-ACS-
2]
  00 80 30 00 f9 cf 40 00      02:43:21.902  NOP [Reserved subcommand] [OBS-ACS-
2]

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA
_of_first_error
# 1  Short offline       Completed without error       00%     25973         -
# 2  Short offline       Completed: read failure       60%      8088         311
4240

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Curiosamente, inicialmente, houve apenas 1 teste curto que mostrou falha de leitura. Executar manualmente outro teste não mostrou falha. Eu analisei os outros drives também, mas nenhum foi salpicado com pré-falha, erro, algo assim aqui.

Alguém mais versado nisso acha que esta informação aponta para uma falha no disco ou há algo mais? Se estiver falhando, o que o processo de reparo está fazendo e a matriz está realmente funcionando como um RAID 10 ao distribuir corretamente o espelhamento depois de reparado ou não?

    
por Tim Kurt 17.01.2017 / 09:23

1 resposta

0

Esse software da Intel é muito ruim. Posso confirmar que, a partir das minhas experiências com o RAID5. Para fazer uma verificação adequada, obtenha HDTune e execute uma verificação de unidade em cada unidade. Você também poderá ler informações relevantes da SMART diretamente com ele (se você tiver algum aviso, elas serão marcadas com amarelo no status SMART). No status SMART, certifique-se de verificar se há setores realocados. Se não houver nenhum e nenhum setor defeituoso, as unidades estão bem.

    
por 17.01.2017 / 12:15