web-dev-qa-db-fra.com

Connexion et montage du volume EBS existant au problème de système de fichiers d'instance EC2

J'ai eu un problème inconnu avec mon ancienne instance EC2 afin que je ne puisse plus utiliser SSH. Par conséquent, j'ai créé un nouveau volume EBS à partir d'un instantané de l'ancien volume et j'ai essayé de l'attacher et de le monter sur la nouvelle instance. Voici ce que j'ai fait:

  1. Création d'un nouveau volume à partir d'un instantané de l'ancien.
  2. Créer une nouvelle instance EC2 et y attacher le volume en tant que /dev/xvdf (ou /dev/sdf)
  3. SSHed dans l'instance et a tenté de monter l'ancien volume avec: 

    $ Sudo mkdir -m 000 /vol $ Sudo mount /dev/xvdf /vol

Et la sortie était:

mount: block device /dev/xvdf is write-protected, mounting read-only
mount: you must specify the filesystem type

Maintenant, je sais que je devrais spécifier le système de fichiers sous la forme ext4, mais comme le volume contient beaucoup de données importantes, je ne peux pas le formater avec $ Sudo mkfs -t ext4 /dev/xvdf. Pourtant, je ne connais aucun autre moyen de conserver les données et de spécifier le système de fichiers en même temps. J'ai beaucoup cherché à ce sujet et je suis actuellement perdue.

Soit dit en passant, le montage en "lecture seule" m'inquiète également, mais je ne me suis pas encore penché sur la question car je ne peux plus monter le volume.

Merci d'avance!

Modifier:

Quand je fais Sudo mount /dev/xvdf /vol -t ext4 (pas de formatage), je reçois:

mount: wrong fs type, bad option, bad superblock on /dev/xvdf,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

Et dmesg | tail me donne:

[ 1433.217915] EXT4-fs (xvdf): VFS: Can't find ext4 filesystem
[ 1433.222107] FAT-fs (xvdf): bogus number of reserved sectors
[ 1433.226127] FAT-fs (xvdf): Can't find a valid FAT filesystem
[ 1433.260752] EXT4-fs (xvdf): VFS: Can't find ext4 filesystem
[ 1433.265563] EXT4-fs (xvdf): VFS: Can't find ext4 filesystem
[ 1433.270477] EXT4-fs (xvdf): VFS: Can't find ext4 filesystem
[ 1433.274549] FAT-fs (xvdf): bogus number of reserved sectors
[ 1433.277632] FAT-fs (xvdf): Can't find a valid FAT filesystem
[ 1433.306549] ISOFS: Unable to identify CD-ROM format.
[ 2373.694570] EXT4-fs (xvdf): VFS: Can't find ext4 filesystem
50
Gabriel Rebello

La doublure


Utilisez cette commande pour le monter si votre type de système de fichiers est ext4:

Sudo mount /dev/xvdf /vol -t ext4

Beaucoup de gens ont du succès avec (si le disque est partitionné):

Sudo mount /dev/xvdf1 /vol -t ext4

où:

  • /dev/xvdf est remplacé par le volume EBS périphérique en cours de montage
  • /vol est remplacé par le dossier que vous souhaitez monter.
  • ext4 est le type de système de fichiers du volume en cours de montage

Erreurs courantes Comment:


Liste des périphériques attachés

Vérifiez votre commande de montage pour correct _ Volume EBS noms de périphériques et types de systèmes de fichiers. Ce qui suit les listera tous:

Sudo lsblk --output NAME,TYPE,SIZE,FSTYPE,MOUNTPOINT,LABEL

Si votre volume EBS affiche une partition attachée, montez la partition; pas le disque.

Si cela ne s'affiche pas, vous n'avez pas Attach votre volume EBS dans la console Web AWS


Remontage automatique au redémarrage

Ces périphériques sont à nouveau démontés si l'instance EC2 redémarre un jour.

Une façon de les faire monter à nouveau au démarrage consiste à éditer le fichier serveur indiqué ci-dessous et à insérer uniquement la commande de montage unique que vous avez utilisée à l'origine.

/etc/rc.local

(Placez votre modification au-dessus de exit 0, la dernière ligne de ce fichier.)

83
FactoryAidan

J'ai remarqué que, pour une raison quelconque, le volume était situé à /dev/xvdf1, pas /dev/xvdf

En utilisant 

Sudo mount /dev/xvdf1 /vol -t ext4

travaillé comme un charme

23
Eric Wilson

J'ai également rencontré ce problème après avoir ajouté un nouveau volume de 16 Go et l'avoir connecté à une instance existante. Tout d’abord, vous devez savoir quels disques vous avez présents.

  Sudo fdisk -l 

Vous obtiendrez une sortie semblable à celle présentée ci-dessous, détaillant les informations relatives à vos disques (volumes).

 Disk /dev/xvda: 12.9 GB, 12884901888 bytes
  255 heads, 63 sectors/track, 1566 cylinders, total 25165824 sectors
  Units = sectors of 1 * 512 = 512 bytes
  Sector size (logical/physical): 512 bytes / 512 bytes
  I/O size (minimum/optimal): 512 bytes / 512 bytes
  Disk identifier: 0x00000000

Device Boot      Start         End      Blocks   Id  System
/dev/xvda1   *       16065    25157789    12570862+  83  Linux

 Disk /dev/xvdf: 17.2 GB, 17179869184 bytes
 255 heads, 63 sectors/track, 2088 cylinders, total 33554432 sectors
 Units = sectors of 1 * 512 = 512 bytes
 Sector size (logical/physical): 512 bytes / 512 bytes
 I/O size (minimum/optimal): 512 bytes / 512 bytes
 Disk identifier: 0x00000000

 Disk /dev/xvdf doesn't contain a valid partition table

Comme vous pouvez le voir, le disque ajouté/dev/xvdf est présent. Pour le rendre disponible, vous devez créer un système de fichiers et le monter sur un point de montage. Vous pouvez y parvenir avec les commandes suivantes

 Sudo mkfs -t ext4 /dev/xvdf

Créer un nouveau système de fichiers efface tout le volume, faites-le donc sur un nouveau volume sans données importantes

Puis montez-le peut-être dans un répertoire sous le dossier/mnt

 Sudo mount /dev/xvdf /mnt/dir/

Confirmez que vous avez monté le volume sur l'instance en exécutant

  df -h

C'est ce que tu devrais avoir

Filesystem      Size  Used Avail Use% Mounted on
 udev            486M   12K  486M   1% /dev
 tmpfs           100M  400K   99M   1% /run
 /dev/xvda1       12G  5.5G  5.7G  50% /
 none            4.0K     0  4.0K   0% /sys/fs/cgroup
 none            5.0M     0  5.0M   0% /run/lock
 none            497M     0  497M   0% /run/shm
 none            100M     0  100M   0% /run/user
 /dev/xvdf        16G   44M   15G   1% /mnt/ebs

Et voilà, vous avez le volume à utiliser ici attaché à votre instance existante . credit

17
Gideon Maina

J'ai rencontré ce problème et je l'ai compris maintenant,

[ec2-user@ip-172-31-63-130 ~]$ lsblk
NAME    MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda    202:0    0   8G  0 disk
└─xvda1 202:1    0   8G  0 part /
xvdf    202:80   0   8G  0 disk
└─xvdf1 202:81   0   8G  0 part

Vous devriez monter la partition

/ dev/xvdf1 (quel type est une partition)

pas monter la disk

/ dev/xvdf (quel type est un disque)

11
Webb Lu

J'avais un problème différent. Lorsque j'ai vérifié les journaux dmesg, le problème concernait le même UUID du volume racine existant et celui du volume racine d'un autre ec2. Donc, pour résoudre ce problème, je l'ai monté sur un autre type de Linux ec2. Ça a marché. 

1
vivek9018

Vous n'avez pas besoin de créer un système de fichiers du volume nouvellement créé à partir de snapshot.simply. Connectez simplement le volume et montez le volume dans le dossier où vous voulez. J'ai attaché le nouveau volume au même emplacement que le volume précédemment supprimé et cela fonctionnait bien. 

[ec2-user@ip-x-x-x-x vol1]$ Sudo lsblk
NAME    MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda    202:0    0   8G  0 disk 
└─xvda1 202:1    0   8G  0 part /
xvdb    202:16   0  10G  0 disk /home/ec2-user/vol1
0
Naveen Kerati