Tengo un servidor ZFS con 8 zpools. Cada grupo tiene 12 discos de 6 TB en una configuración RAIDZ de 10 + 2. Por lo tanto, cada grupo tiene un espacio de almacenamiento sin procesar de 12 * 6 = 72 TB y un espacio utilizable de 10 * 6 = 60 TB. Sin embargo, veo resultados diferentes cuando lo consulto usando zfs listvs. usando de la zpool listsiguiente manera:
# zfs list
NAME     USED  AVAIL  REFER  MOUNTPOINT
intp1    631K  48.0T   219K  /intp1
intp2    631K  48.0T   219K  /intp2
intp3    631K  48.0T   219K  /intp3
jbodp4   631K  48.0T   219K  /jbodp4
# zpool list
NAME     SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
intp1     65T  1.02M  65.0T         -     0%     0%  1.00x  ONLINE  -
intp2     65T  1020K  65.0T         -     0%     0%  1.00x  ONLINE  -
intp3     65T  1.02M  65.0T         -     0%     0%  1.00x  ONLINE  -
jbodp4    65T  1.02M  65.0T         -     0%     0%  1.00x  ONLINE  -
¿Podría alguien ayudarme a entender por qué es esta discrepancia?
fuente

zfs list. Eso es realmente lo que importa. Para el diseño de la piscina, depende del caso de uso. ¿Qué quieres lograr? ¿Cuáles son sus requisitos de rendimiento y capacidad? En general, para raidz2, no use menos de 6 discos, ni más de 10 discos en cada vdev (8 es un promedio típico).lsblk -bme dio el tamaño de byte de cada disco que es 5.4TB y no 6TB como pensaba anteriormente.