web-dev-qa-db-fra.com

NAS Récupération Raid 5 à l'aide de mdadm: problèmes de volume et de montage, merci de l'aide

Bonjour, c’est ma première incursion dans ubuntu, ou toute autre forme de Linix, ainsi que ma première tentative de retrouver un raid perdu, mais j’étudie assez rapidement. J'ai un Sharespace WD de 8 To, quatre disques de 2 To configurés sur le RAID 5 avec deux disques "en panne" (peut-être pas). Je suis désespéré de récupérer mes données. Mis à part toute la musique, les films, les jeux, etc., toutes mes photos et vidéos personnelles de mes enfants grandissant sont sur ce sujet et je suis assez désespéré pour les récupérer. En plus de préférer faire les choses moi-même, je ne peux pas me permettre une récupération de données professionnelle. Je n'ai pas de lecteurs de sauvegarde pour copier mes originaux et je ne peux pas me les payer, alors je suis coincé pour essayer de le faire moi-même avec les disques originaux. Toute aide est appréciée.

Pardonnez-moi si j'explique trop car je ne suis pas vraiment sûr de ce qui est pertinent et de ce qui ne l'est pas car j'essaie de comprendre cela. Je crois que le contrôleur de mon NAS a échoué et que les données sont encore intactes sur les disques. J'ai sorti les quatre lecteurs du NAS et les ai mis en ordre dans mon ordinateur déconnecté de mon disque dur normal et j'utilise le Live CD en mode essai pour exécuter Ubuntu. J’ai essayé de faire cela jusqu’à présent en utilisant ce guide: HOWTO: Récupération de données Sharespace Raid 5 , mais j’ai rencontré quelques problèmes en cours de route et le forum entier est fermé pour que je puisse 'poser des questions là-bas.

La première chose que j'ai faite a été de me placer à la racine et de vérifier que tous mes disques étaient au bon endroit et reconnus. Utiliser fdisk -l

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      417689      208844+  fd  Linux raid autodetect
/dev/sda2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sda3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sda4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdb2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdb3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdb4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdc2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdc3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdc4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdd2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdd3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdd4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Ne sachant pas vraiment ce que je cherche, mais ne voyant rien qui ait déclenché des drapeaux rouges, ils me paraissent tous assez intacts et en bonne santé. Je tente donc de rassembler le raid à partir des partitions sd * 4 censées fonctionner. être ceux avec les données pour reconstruire le raid.

J'ai essayé:

mdadm --assemble /dev/md0 /dev/sda4 /dev/sdb4 /dev/sdc4 /dev/sdd4

mais j'ai eu une erreur à propos de 2 lecteurs et ne pas être assez alors a commencé à parcourir Internet et appris qu'il y avait une commande de force alors je l'ai utilisée:

mdadm --assemble --force /dev/md0 /dev/sda4 /dev/sdb4 /dev/sdc4 /dev/sdd4

et cela a semblé fonctionner. YAY! ... en quelque sorte ...

vgscan

No volume groups found

Boo ... Donc, revenant à Internet, j'ai trouvé un article dans lequel un utilisateur rencontrait un problème similaire et qui devait recréer son volume et les groupes locaux pour accéder avec succès à ses données. En utilisant les noms des groupes de volumes et des groupes locaux du guide que j'utilisais, je les ai créés à l'aide des nouvelles commandes que j'ai trouvées:

vgcreate vg0 /dev/md0

et

lvcreate -L5.45T -n lv0 vg0

les deux ont signalé être créé et tout semblait bien dans le monde. Jusqu'au retour à mon guide j'ai essayé de le monter:

mkdir /mnt/raid
mount -t auto /dev/vg0/lv0 /mnt/raid
mount: you must specify the filesystem type

Apparemment, "auto" ne fonctionne pas comme le dit le guide. En fouillant le réseau, j'ai trouvé quelques types de systèmes de fichiers ext3 et ext 4, donc je les ai aussi essayés:

mount -t ext3 /dev/vg0/lv0 /mnt/raid
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg0-lv0,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

et

mount -t ext4 /dev/vg0/lv0 /mnt/raid
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg0-lv0,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

Comme vous pouvez le constater, aucun des deux n’a fonctionné ... Après plusieurs heures de recherche, j’en suis venu à la conclusion que j’avais vraiment besoin de demander de l’aide. Si quelqu'un a des suggestions, des conseils, ou même mieux sait comment faire pour que cela fonctionne, j'apprécierais vraiment la perspicacité. Si je faisais quelque chose de mal, ce serait aussi vraiment bon à savoir.

J'ai pensé que cela pourrait aussi être utile:

mdadm --detail /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Thu Dec 10 05:44:29 2009
     Raid Level : raid5
     Array Size : 5854981248 (5583.75 GiB 5995.50 GB)
  Used Dev Size : 1951660416 (1861.25 GiB 1998.50 GB)
   Raid Devices : 4
  Total Devices : 3
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Apr  4 08:12:03 2013
          State : clean, degraded 
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : dd69553d:5c832cf7:9755c9c8:d208511e
         Events : 0.3986045

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       8       20        1      active sync   /dev/sdb4
       2       8       36        2      active sync   /dev/sdc4
       3       0        0        3      removed

ainsi que cette:

cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md0 : active raid5 sda4[0] sdc4[2] sdb4[1]
      5854981248 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]

unused devices: <none>

Voici à quoi ressemble mon fdisk -l après avoir joué avec tout ça:

fdisk -l

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      417689      208844+  fd  Linux raid autodetect
/dev/sda2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sda3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sda4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdb2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdb3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdb4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdc2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdc3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdc4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdd2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdd3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdd4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/md0: 5995.5 GB, 5995500797952 bytes
2 heads, 4 sectors/track, 1463745312 cylinders, total 11709962496 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

Disk /dev/mapper/vg0-lv0: 5992.3 GB, 5992339210240 bytes
255 heads, 63 sectors/track, 728527 cylinders, total 11703787520 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000

Disk /dev/mapper/vg0-lv0 doesn't contain a valid partition table

N'oubliez pas que je suis encore novice dans ce domaine. Nous vous serions donc très reconnaissants de bien vouloir nous donner des conseils, accompagnés de quelques explications de base sur les raisons pour lesquelles vous proposez votre suggestion. Cela m'aidera beaucoup à mieux comprendre ce que je fais. Je vous remercie!

1
Nelliana Calvert

D'après les informations que vous avez fournies, vous avez probablement raison de dire que la grande majorité de vos données restent intactes. À ce stade, vous traitez avec une matrice RAID cassée. Évidemment pas où vous voulez être mais pas la fin du monde non plus.

D'après mon expérience avec les unités ShareSpace, un lecteur est généralement déconnecté de la matrice bien avant le crash du RAID. Le système RAID Linux Software détecte la première panne de disque et bascule la matrice en mode dégradé. Cela signifie que la baie de disques continue de fonctionner mais n'utilise que les trois bons disques restants. Les choses semblent fonctionner normalement pendant un certain temps, jusqu'à ce qu'un second disque quitte le tableau. Ensuite, le RAID se bloque et vous avez un problème.

Ces lecteurs abandonnent pour une raison. Généralement ce sont de mauvais secteurs. Heureusement, le rétablissement est très souvent possible. Mais vous devez faire preuve de prudence, car toute erreur de votre part réduira les chances de récupération des données.

Si vous voulez y aller seul, je vous conseillerais de prendre des images de sauvegarde avant de continuer. Je sais plus facile à dire qu'à faire avec quatre disques de 2 To. Mais vous n’auriez vraiment besoin que de sauvegarder trois d’entre elles:/dev/sda,/dev/sdb et/dev/sdc.

Ou si vous souhaitez de l'aide, je suis un consultant en récupération de données en ligne. Et j'exécute la récupération de données à distance NAS/RAID via Internet pour des clients du monde entier. Dans le passé, j'ai exécuté avec succès de nombreuses opérations de récupération de données WD ShareSpace à distance. Je propose à la fois la récupération de données à distance et une assistance de récupération de données à faire soi-même. Si vous aimez je serais heureux de vous aider. Contactez-moi via mon site. Je m'appelle Stephen Haran et mon site est http://www.FreeDataRecovery.us

1
Stephen Haran

Mise à jour: Toutes mes données ont pu être récupérées grâce à Stephen. Je recommande fortement son service si quelqu'un a besoin d'aide pour tout type de récupération de données. http://www.FreeDataRecovery.us

0
Nelliana Calvert