Estoy ejecutando ZoL 0.6.2 desde su PPA en Ubuntu 12.04. Está en un host con 16 GB de memoria destinado a ejecutar algunas máquinas virtuales utilizando KVM / Libvirt. Después de un tiempo, ZoL está usando una cantidad de memoria increíble, alcanzando el 98% del uso de RAM con algunas máquinas virtuales en funcionamiento. Esto da como resultado nuevos procesos que se niegan a comenzar "no se puede asignar memoria". Ya ni siquiera puedo iniciar todas mis máquinas virtuales, que antes de usar ZFS usaban alrededor del 40-50% de RAM.
Por lo que entiendo, sin modificar, ZoL debería liberar memoria tan pronto como el sistema tenga poca memoria. Pues no. Así que decidí establecer la arc_max
configuración en 1 GB.
# echo 1073741824 >> /sys/module/zfs/parameters/zfs_arc_max
Aún así, no libera ningún recuerdo.
Como puede ver en las estadísticas ARC a continuación, está utilizando más memoria de la que está configurada para (compare c
= 7572030912
with c_max
= 1073741824
).
¿Qué estoy haciendo mal aquí?
# cat /proc/spl/kstat/zfs/arcstats
4 1 0x01 84 4032 43757119584 392054268420115
name type data
hits 4 28057644
misses 4 13975282
demand_data_hits 4 19632274
demand_data_misses 4 571809
demand_metadata_hits 4 6333604
demand_metadata_misses 4 289110
prefetch_data_hits 4 1903379
prefetch_data_misses 4 12884520
prefetch_metadata_hits 4 188387
prefetch_metadata_misses 4 229843
mru_hits 4 15390332
mru_ghost_hits 4 1088944
mfu_hits 4 10586761
mfu_ghost_hits 4 169152
deleted 4 35432344
recycle_miss 4 701686
mutex_miss 4 35304
evict_skip 4 60416647
evict_l2_cached 4 0
evict_l2_eligible 4 3022396862976
evict_l2_ineligible 4 1602907651584
hash_elements 4 212777
hash_elements_max 4 256438
hash_collisions 4 17163377
hash_chains 4 51485
hash_chain_max 4 10
p 4 1527347963
c 4 7572030912
c_min 4 1038188800
c_max 4 1073741824
size 4 7572198224
hdr_size 4 66873056
data_size 4 7496095744
other_size 4 9229424
anon_size 4 169150464
anon_evict_data 4 0
anon_evict_metadata 4 0
mru_size 4 1358216192
mru_evict_data 4 1352400896
mru_evict_metadata 4 508928
mru_ghost_size 4 6305992192
mru_ghost_evict_data 4 4919159808
mru_ghost_evict_metadata 4 1386832384
mfu_size 4 5968729088
mfu_evict_data 4 5627991552
mfu_evict_metadata 4 336846336
mfu_ghost_size 4 1330455552
mfu_ghost_evict_data 4 1287782400
mfu_ghost_evict_metadata 4 42673152
l2_hits 4 0
l2_misses 4 0
l2_feeds 4 0
l2_rw_clash 4 0
l2_read_bytes 4 0
l2_write_bytes 4 0
l2_writes_sent 4 0
l2_writes_done 4 0
l2_writes_error 4 0
l2_writes_hdr_miss 4 0
l2_evict_lock_retry 4 0
l2_evict_reading 4 0
l2_free_on_write 4 0
l2_abort_lowmem 4 0
l2_cksum_bad 4 0
l2_io_error 4 0
l2_size 4 0
l2_asize 4 0
l2_hdr_size 4 0
l2_compress_successes 4 0
l2_compress_zeros 4 0
l2_compress_failures 4 0
memory_throttle_count 4 0
duplicate_buffers 4 0
duplicate_buffers_size 4 0
duplicate_reads 4 0
memory_direct_count 4 66583
memory_indirect_count 4 7657293
arc_no_grow 4 0
arc_tempreserve 4 0
arc_loaned_bytes 4 0
arc_prune 4 0
arc_meta_used 4 427048272
arc_meta_limit 4 2076377600
arc_meta_max 4 498721632
# free -m
total used free shared buffers cached
Mem: 15841 15385 456 0 75 74
-/+ buffers/cache: 15235 606
Swap: 0 0 0
fuente
make static; strip -s killmem
)update-initramfs -u -k all
antes de reiniciar para/etc/modprobe.d/zfs.conf
propagar esta configuración .options zfs zfs_vdev_scheduler=cfq
a mi /etc/modprobe.d/zfs.conf . Lo reinicié y funcionó; el planificador ahora era cfq en lugar de noop . ¿Puedes explicar por quéupdate-initramfs -u -k all
es necesario?zfs_arc_max
tal vez esta clave está en caché de alguna manera en initramfs?http://fibrevillage.com/storage/169-zfs-arc-on-linux-how-to-set-and-monitor-on-linux
Este artículo es muy bueno
a partir de la versión ZoL 0.6.2 puede configurar c_max en tiempo de ejecución, sin embargo, el tamaño de ARC no se liberará automáticamente. para forzar la liberación de la RAM, es necesario exportar el zpool.
fuente
Una vez que modifique el tamaño de su arco, debe soltar sus cachés.
y espere (su solicitud no regresará de inmediato, pero otros procesos continuarán ejecutándose). Descargará lentamente los cachés (2,5 minutos para mi caché de 24 GB en 2 pares de negros RAD de 1 TB de 2 TB incrustados en una CPU de 4 Ghz de 4 años en una caja con 64 GB) - cuidado, de repente no tendrás cachés, y ninguno los procesos de lectura de datos se extraerán del disco sin procesar, por lo que probablemente verá que IO espera salta por un tiempo hasta que se repobla el caché.
fuente
# sync; echo 1 > /proc/sys/vm/drop_caches
Borrar dentries e inodes:# sync; echo 2 > /proc/sys/vm/drop_caches
Borrar PageCache, dentries e inodes:# sync; echo 3 > /proc/sys/vm/drop_caches
Un problema en el que podría estar cayendo es que ZFS almacena en caché los archivos de la máquina virtual (discos virtuales). Para evitar eso, siempre configuro la propiedad del caché primario en "metadatos" en los sistemas de archivos que contienen discos virtuales.
La lógica es que el sistema operativo invitado tiene una mejor pista sobre qué áreas de sus discos almacenar en caché.
fuente
AFAIK se debe cumplir una de las siguientes condiciones para adaptar el parámetro.
fuente
Tienes un "
>
" exceso adicional .El comando debe ser
no "
>>
">>
significa "agregar a" (lista existente).>
significa "sobrescribir" (valor).Es por eso que el código de comando en su pregunta no funcionará.
fuente