¿Puede zfs usar tamaños mixtos de espejo vdev?

4

puede zfs hacer lo siguiente?

Discos de 10 x 3TB como 5 vdevs duplicados más 2 x 2TB como vdev de espejo.

Estoy buscando usar esos dos discos de 2TB que tengo por un total de 17TB, y luego actualizarlos en la pista.

Por ejemplo, ¿podría luego actualizar esos discos de 2x 2TB a 2x 6TB?

jakethedog
fuente

Respuestas:

4

Discos de 10 x 3TB como 5 vdevs duplicados más 2 x 2TB como vdev de espejo.

Tienes las siguientes opciones:

  1. 1 grupo (12 x 2), espacio utilizable (6 x 2) = 12 TB
  2. 1 grupo con (10 x 3) + (2 x 2), espacio utilizable (5 x 3) + (1 x 2) = 17 TB
  3. 2 piscinas con (10 x 3) y (2 x 2), espacio utilizable 15 y 2 TB por separado

La opción 1 parece ser inferior a 2, pero si reemplaza los dos discos pequeños y tiene autoexpand = on establecido en la piscina, crecerá automáticamente a (12 x 3), lo que dará como resultado 18 TB, frente a 15 + 3 TB utilizables para la opción 2. El tamaño será el mismo, pero su piscina será más rápida, más equilibrada y más tolerante a fallos que la opción 2.

Por ejemplo, ¿podría luego actualizar esos discos de 2x 2TB a 2x 6TB?

Si, podrías. Eso le daría 15 + 6 TB = 21 TB, pero sería más lento que una configuración igual.

  • Puede actualizar cada disco de cada vdev por separado: todo el vdev siempre tiene el tamaño del disco más pequeño. Para los espejos, esto significa que ambos discos deben actualizarse antes de poder usar espacio adicional.

  • También puede agregar y eliminar discos desde y hacia vdevs de espejo, pero esto solo aumenta / disminuye la confiabilidad y la tolerancia a fallas, el espacio utilizable no se cambia.

  • Finalmente, siempre puede agregar más vdevs de cualquier tipo y tamaño a su grupo (aunque se recomiendan tamaños / tipos similares por razones de rendimiento), por lo que el tamaño de su grupo aumentará (alcance, esencialmente RAID 0). Pero ten cuidado, ya que no se pueden eliminar vdevs después de agregarlos Sin destruir la piscina. Tu grupo fallará si alguna vdev inside falla críticamente, junto con todos los datos que contiene.

user121391
fuente
buena respuesta. ¿puede indicarme una fuente para "Finalmente, siempre puede agregar más vdevs de cualquier tipo y tamaño a su grupo (aunque se recomiendan tamaños / tipos similares por razones de rendimiento)" o una explicación más detallada de qué y cómo se ve afectado el rendimiento?
jakethedog
@jakethedog Gracias. yo recomendaria constantin.glez.de/blog/2010/06/… para lectura general, así como solarisinternals.com/wiki/index.php/… Esencialmente, como todos los vdevs son accedidos en modo round robin, el vdev más lento establece el rendimiento. Si todos son iguales, este problema no ocurre, porque todos son igualmente lentos / rápidos.
user121391
Yo personalmente recomendaría contra autoexpand, aunque solo sea porque soy un fanático del control que quiere controlar lo que hace ZFS (especialmente porque nunca puedes reducir un vdev después de que se haya expandido). Mejor solo zpool online -e cuando sea necesario y quería . // cc @jakethedog
a CVn
@ user121391 ¿ha observado un impacto significativo en el rendimiento si un grupo de zfs tiene una combinación de raidz rayado y vdevs espejo? ¿Está limitado el iops a vdev espejo individual o raidz vdev? por ejemplo, estado de zpool en el enlace pastebin.com/emiHy4U2
satch_boogie
1
@satch_boogie No lo he intentado porque habrá un impacto en el rendimiento. En términos generales, el rendimiento de su grupo estará determinado por su vdev más lento, en su ejemplo, este sería el vdev Z1. Además, tu resistencia estará determinada por el vdev más débil, que es nuevamente el vdev Z1. Yo sugeriría hacer una copia de seguridad y volver a crear el grupo con 3 vdevs de réplica y configurar el último disco como un hotspare.
user121391