web-dev-qa-db-fra.com

Pourquoi mon RAID / dev / md1 apparaît-il sous le nom / dev / md126? Est-ce que mdadm.conf est ignoré?

J'ai créé un RAID avec:

Sudo mdadm --create --verbose /dev/md1 --level=mirror --raid-devices=2 /dev/sdb1 /dev/sdc1
Sudo mdadm --create --verbose /dev/md2 --level=mirror --raid-devices=2 /dev/sdb2 /dev/sdc2

Sudo mdadm --detail --scan renvoie:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

Je l'ai ajouté à /etc/mdadm/mdadm.conf, voir ci-dessous:

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This file was auto-generated on Mon, 29 Oct 2012 16:06:12 -0500
# by mkconf $Id$
ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat renvoie:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdb2[0] sdc2[1]
      208629632 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md renvoie:

brw-rw----   1 root disk      9,   1 Oct 30 11:06 md1
brw-rw----   1 root disk      9,   2 Oct 30 11:06 md2

Donc, je pense que tout va bien et je redémarre.


Après le redémarrage,/dev/md1 est maintenant / dev/md126 et/dev/md2 est maintenant / dev/md127 ?????

Sudo mdadm --detail --scan renvoie:

ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat renvoie:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md126 : active raid1 sdc2[1] sdb2[0]
      208629632 blocks super 1.2 [2/2] [UU]

md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md renvoie:

drwxr-xr-x   2 root root          80 Oct 30 11:18 md
brw-rw----   1 root disk      9, 126 Oct 30 11:18 md126
brw-rw----   1 root disk      9, 127 Oct 30 11:18 md127

Tout n'est pas perdu, je:

Sudo mdadm --stop /dev/md126
Sudo mdadm --stop /dev/md127
Sudo mdadm --assemble --verbose /dev/md1 /dev/sdb1 /dev/sdc1
Sudo mdadm --assemble --verbose /dev/md2 /dev/sdb2 /dev/sdc2

et tout vérifier:

Sudo mdadm --detail --scan renvoie:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat renvoie:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdb2[0] sdc2[1]
      208629632 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md renvoie:

brw-rw----   1 root disk      9,   1 Oct 30 11:26 md1
brw-rw----   1 root disk      9,   2 Oct 30 11:26 md2

Alors encore une fois, je pense que tout va bien et je redémarre.


De nouveau, après le redémarrage,/dev/md1 est / dev/md126 et/dev/md2 est / dev/md127 ?????

Sudo mdadm --detail --scan renvoie:

ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat renvoie:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md126 : active raid1 sdc2[1] sdb2[0]
      208629632 blocks super 1.2 [2/2] [UU]

md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md renvoie:

drwxr-xr-x   2 root root          80 Oct 30 11:42 md
brw-rw----   1 root disk      9, 126 Oct 30 11:42 md126
brw-rw----   1 root disk      9, 127 Oct 30 11:42 md127

Qu'est-ce que j'oublie ici?

26
mmorris

J'ai trouvé la réponse ici, RAID à partir de md127 au lieu de md . En résumé, j'ai coupé mes définitions /etc/mdadm/mdadm.conf de:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

à:

ARRAY /dev/md1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

et a couru:

Sudo update-initramfs -u

Je suis loin d'un expert en la matière, mais ce que je comprends c'est ...

Le noyau assemblé les tableaux avant l'heure normale pour assembler les tableaux se produit. Lorsque le noyau assemble les tableaux, il n'utilise pas mdadm.conf. Comme les partitions avaient déjà été assemblées par le noyau, la matrice normale Assembly, qui utilise mdadm.conf, a été ignorée.

L'appel de Sudo update-initramfs -u indique au noyau d'examiner à nouveau le système pour savoir comment démarrer.

Je suis sûr que quelqu'un avec une meilleure connaissance me corrigera/élaborera sur ceci.

Utilisez la ligne suivante pour mettre à jour l'initrd pour chaque noyau respectif existant sur votre système:

Sudo update-initramfs -k all -u
26
mmorris
Sudo update-initramfs -u

était tout ce dont j'avais besoin pour résoudre ce problème. Je n'ai rien édité dans /etc/mdadm/mdadm.conf.

6
ajaaskel

J'ai eu le même problème.

Cette solution a résolu mon problème: http://aubreykloppers.wordpress.com/2012/07/06/mdadm-devmd127/

1
Marc

J'ai réussi à reproduire le problème de la manière suivante:

Quand "Software Updater" m'a demandé si je voulais mettre à jour des paquets (y compris la base Ubuntu "et le noyau, j'ai répondu: OK. Le noyau nouvellement installé utilise les paramètres du système/du noyau actuel. J'ai ensuite créé le tableau. Seul le noyau en cours d'exécution a été mis à jour. Avec les nouveaux paramètres RAID. Une fois que j'ai redémarré, le nouveau noyau ne savait rien du raid et lui donna un nom md127!

0
Angelos Vassiliou