Tengo un ZFS Zpool en Linux bajo el kernel 2.6.32-431.11.2.el6.x86_64 que tiene un solo vdev. El vdev es un dispositivo SAN. Expandí el tamaño de la SAN, y a pesar de que zpool se había autoexpand
configurado on
, incluso después de reiniciar la máquina, exportar / importar el grupo y usar zpool online -e
, no pude lograr que el grupo se expandiera. Estoy seguro de que el vdev es más grande porque fdisk
muestra que ha aumentado de 215GiB a 250 GiB. Aquí hay una muestra de lo que hice:
[root@timestandstill ~]# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
dfbackup 214G 207G 7.49G 96% 1.00x ONLINE -
[root@timestandstill ~]# zpool import -d /dev/disk/by-id/
pool: dfbackup
id: 12129781223864362535
state: ONLINE
action: The pool can be imported using its name or numeric identifier.
config:
dfbackup ONLINE
virtio-sbs-XLPH83 ONLINE
[root@timestandstill ~]# zpool import -d /dev/disk/by-id/ dfbackup
[root@timestandstill ~]# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
dfbackup 214G 207G 7.49G 96% 1.00x ONLINE -
venuebackup 248G 244G 3.87G 98% 1.00x ONLINE -
[root@timestandstill ~]# zpool get autoexpand dfbackup
NAME PROPERTY VALUE SOURCE
dfbackup autoexpand on local
[root@timestandstill ~]# zpool set autoexpand=off dfbackup
[root@timestandstill ~]# zpool set autoexpand=on dfbackup
[root@timestandstill ~]# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
dfbackup 214G 207G 7.49G 96% 1.00x ONLINE -
venuebackup 248G 244G 3.87G 98% 1.00x ONLINE -
[root@timestandstill ~]# zpool status -v dfbackup
pool: dfbackup
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
dfbackup ONLINE 0 0 0
virtio-sbs-XLPH83 ONLINE 0 0 0
errors: No known data errors
[root@timestandstill ~]# fdisk /dev/disk/by-id/virtio-sbs-XLPH83
WARNING: GPT (GUID Partition Table) detected on '/dev/disk/by-id/virtio-sbs-XLPH83'! The util fdisk doesn't support GPT. Use GNU Parted.
WARNING: DOS-compatible mode is deprecated. It's strongly recommended to
switch off the mode (command 'c') and change display units to
sectors (command 'u').
Command (m for help): p
Disk /dev/disk/by-id/virtio-sbs-XLPH83: 268.4 GB, 268435456000 bytes
256 heads, 63 sectors/track, 32507 cylinders
Units = cylinders of 16128 * 512 = 8257536 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/disk/by-id/virtio-sbs-XLPH83-part1 1 27957 225443839+ ee GPT
Command (m for help): q
[root@timestandstill ~]# zpool online -e dfbackup /dev/disk/by-id/virtio-sbs-XLPH83
[root@timestandstill ~]# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
dfbackup 214G 207G 7.49G 96% 1.00x ONLINE -
venuebackup 248G 244G 3.87G 98% 1.00x ONLINE -
[root@timestandstill ~]# zpool status -v dfbackup
pool: dfbackup
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
dfbackup ONLINE 0 0 0
virtio-sbs-XLPH83 ONLINE 0 0 0
errors: No known data errors
¿Cómo puedo expandir este zpool?
fuente
zpool online -e pool vdb
es el comando que hace el truco. Ahora estoy usando ZFS-on-Linux en varios servidores de libvirt y eso funciona para mí (sin sonda)partprobe
(ejecutar antes y despuészpool online
) eliminó la necesidad de reiniciar.Leí en los foros de freebsd una publicación que sugería usar
zpool online -e <pool> <vdev>
(sin necesidad de desconectar el vdev primero)En última instancia, esta fue la solución, pero primero requería que ZFS se expandiera automáticamente :
Se requirió el uso
zpool set autoexpand=off
seguido dezpool online -e
para que el zpool se expandiera para mí, usando ZFS en Linux (en el núcleo, no usando FUSE)fuente
zpool online -e
y lozpool set autoexpand=off
hice por mí @ewwhite ... Tengo el historial completo disponible en mi terminal. No estoy seguro de cuál era el problema entonces.