Tengo un servidor ZFS con 8 zpools. Cada grupo tiene 12 discos de 6 TB en una configuración RAIDZ de 10 + 2. Por lo tanto, cada grupo tiene un espacio de almacenamiento sin procesar de 12 * 6 = 72 TB y un espacio utilizable de 10 * 6 = 60 TB. Sin embargo, veo resultados diferentes cuando lo consulto usando zfs listvs. usando de la zpool listsiguiente manera:
# zfs list
NAME USED AVAIL REFER MOUNTPOINT
intp1 631K 48.0T 219K /intp1
intp2 631K 48.0T 219K /intp2
intp3 631K 48.0T 219K /intp3
jbodp4 631K 48.0T 219K /jbodp4
# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
intp1 65T 1.02M 65.0T - 0% 0% 1.00x ONLINE -
intp2 65T 1020K 65.0T - 0% 0% 1.00x ONLINE -
intp3 65T 1.02M 65.0T - 0% 0% 1.00x ONLINE -
jbodp4 65T 1.02M 65.0T - 0% 0% 1.00x ONLINE -
¿Podría alguien ayudarme a entender por qué es esta discrepancia?
fuente

zfs list. Eso es realmente lo que importa. Para el diseño de la piscina, depende del caso de uso. ¿Qué quieres lograr? ¿Cuáles son sus requisitos de rendimiento y capacidad? En general, para raidz2, no use menos de 6 discos, ni más de 10 discos en cada vdev (8 es un promedio típico).lsblk -bme dio el tamaño de byte de cada disco que es 5.4TB y no 6TB como pensaba anteriormente.