web-dev-qa-db-fra.com

xfs_growfs: n'est pas un système de fichiers xfs monté lorsque vous essayez de développer ol-root

J'ai plus de 25 machines virtuelles exécutant OL7.5. À mesure qu'ils grandissent/sont réutilisés, j'ai parfois besoin de leur ajouter plus de disque dur.

J'ai ajouté de l'espace à ol-root et ol-swap plusieurs fois auparavant, en suivant [en résumé]:

fdisk to create partition
partprobe -s
pvcreate /dev/sdb1
vgextend ol /dev/sdb1
pvscan
lvextend /dev/mapper/ol-root /dev/sdb1

mais sur certaines machines virtuelles, je ne peux plus ajouter cet espace ol-root au système de fichiers:

xfs_growfs /dev/mapper/ol-root
Error:   xfs_growfs: /dev/mapper/ol-root is not a mounted XFS filesystem

J'ai fait cela plusieurs fois auparavant sans problème sur les mêmes VM. Sur ce VM j'ai construit à partir de zéro et j'ai ajouté sda3 et sda4.

Sur cette boîte particulière, je dois mettre à niveau 11g vers 18c. J'ai besoin d'un ol-swap 10G et de plus de disque dur pour installer la base de données 18c.

$ lsblk
NAME        MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sr0          11:0    1 1024M  0 rom
sda           8:0    0   55G  0 disk
├─sda4        8:4    0   10G  0 part
│ └─ol-root 252:0    0   46G  0 lvm  /
├─sda2        8:2    0   15G  0 part
│ ├─ol-swap 252:1    0    8G  0 lvm  [SWAP]
│ └─ol-root 252:0    0   46G  0 lvm  /
├─sda3        8:3    0   29G  0 part
│ ├─ol-swap 252:1    0    8G  0 lvm  [SWAP]
│ └─ol-root 252:0    0   46G  0 lvm  /
└─sda1        8:1    0    1G  0 part /boot


$ df -Th /dev/mapper/ol-root
Filesystem          Type  Size  Used Avail Use% Mounted on
/dev/mapper/ol-root xfs    46G   45G  1.5G  97% /

Des suggestions s'il vous plait?

Merci beaucoup

Darren

p.s. La boîte im essayant de se développer est un clone de la VM ci-dessus. Après plusieurs tentatives pour développer le système de fichiers, j'ai tué la boîte. La boîte source partage le même problème avec xfs_growfs même lorsque je n'ajoute pas une partition sdb. Les xfs_growfs devraient renvoyer une erreur très différente lorsqu'il n'y a pas d'espace à allouer.

1
David Janes

Vous devez cibler le point de montage et non le mappeur LVM pour la commande xfs_growfs. Cela semble être une nouvelle "fonctionnalité" puisque nous pouvions auparavant xfs_growfs sur le mappeur.

Mais la page de manuel fait spécifiquement référence au point de montage:

xfs_growfs (8) Manuel du gestionnaire système xfs_growfs (8)

NAME xfs_growfs, xfs_info - développe un système de fichiers XFS

SYNOPSIS xfs_growfs [-dilnrx] [-D taille] [-e rtextsize] [-L taille] [-m maxpct] ​​[-t mtab] [-R taille] point de montage

3
Jason Richling

OK, donc -L et xxfs_growfs ont fonctionné. VM avait ol-root 6 Go gratuit

Code de la machine virtuelle réelle, étape par étape: ajout de 16 Go au nouveau disque dur dans vSphere

# fdisk -l

Disk /dev/sda: 59.1 GB, 59055800320 bytes, 115343360 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x000cbfb1

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048     2099199     1048576   83  Linux
/dev/sda2         2099200    33554431    15727616   8e  Linux LVM
/dev/sda3        33554432    94371839    30408704   8e  Linux LVM
/dev/sda4        94371840   115343359    10485760   8e  Linux LVM

Disk /dev/sdb: 17.2 GB, 17179869184 bytes, 33554432 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/ol-root: 49.4 GB, 49379540992 bytes, 96444416 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/ol-swap: 8589 MB, 8589934592 bytes, 16777216 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

# ls /sys/class/scsi_device
1:0:0:0  2:0:0:0  2:0:1:0
# echo 1 > /sys/class/scsi_device/1\:0\:0\:0/device/rescan
# echo 1 > /sys/class/scsi_device/2\:0\:0\:0/device/rescan
# echo 1 > /sys/class/scsi_device/2\:0\:1\:0/device/rescan

fdisk/dev/sdb, n, p, 1, t, 1, 8e, w

# fdisk -l

Disk /dev/sda: 59.1 GB, 59055800320 bytes, 115343360 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x000cbfb1

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048     2099199     1048576   83  Linux
/dev/sda2         2099200    33554431    15727616   8e  Linux LVM
/dev/sda3        33554432    94371839    30408704   8e  Linux LVM
/dev/sda4        94371840   115343359    10485760   8e  Linux LVM

Disk /dev/sdb: 17.2 GB, 17179869184 bytes, 33554432 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x86979f60

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048    33554431    16776192   8e  Linux LVM

Disk /dev/mapper/ol-root: 49.4 GB, 49379540992 bytes, 96444416 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/ol-swap: 8589 MB, 8589934592 bytes, 16777216 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Partprobe

# partprobe -s
/dev/sda: msdos partitions 1 2 3 4
/dev/sdb: msdos partitions 1

pvcreate

# pvcreate /dev/sdb1
  Physical volume "/dev/sdb1" successfully created.

vgextend

# vgextend ol /dev/sdb1
  Volume group "ol" successfully extended

pvscan

# pvscan
  PV /dev/sda2   VG ol              lvm2 [<15.00 GiB / 0    free]
  PV /dev/sda3   VG ol              lvm2 [<29.00 GiB / 0    free]
  PV /dev/sda4   VG ol              lvm2 [<10.00 GiB / 0    free]
  PV /dev/sdb1   VG ol              lvm2 [<16.00 GiB / <16.00 GiB free]
  Total: 4 [69.98 GiB] / in use: 4 [69.98 GiB] / in no VG: 0 [0   ]

lvextend

# lvextend -L+16380M /dev/mapper/ol-root /dev/sdb1
  Size of logical volume ol/root changed from <45.99 GiB (11773 extents) to 61.98 GiB (15868 extents).
  Logical volume ol/root successfully resized.

xfs_growfs

# xfs_growfs /
meta-data=/dev/mapper/ol-root    isize=256    agcount=14, agsize=877824 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=0        finobt=0 spinodes=0 rmapbt=0
         =                       reflink=0
data     =                       bsize=4096   blocks=12055552, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal               bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
data blocks changed from 12055552 to 16248832
# df -h
Filesystem           Size  Used Avail Use% Mounted on
devtmpfs             4.8G     0  4.8G   0% /dev
tmpfs                4.8G     0  4.8G   0% /dev/shm
tmpfs                4.8G  9.4M  4.8G   1% /run
tmpfs                4.8G     0  4.8G   0% /sys/fs/cgroup
/dev/mapper/ol-root   62G   42G   21G  68% /
/dev/sda1           1014M  419M  596M  42% /boot
tmpfs                973M   12K  973M   1% /run/user/42
tmpfs                973M     0  973M   0% /run/user/0

J'ai suivi ceci: https://ma.ttias.be/increase-expand-xfs-filesystem-in-red-hat-rhel-7-cento7/

Pourquoi cela fonctionnerait-il avant mais pas maintenant?

2
David Janes