Recientemente compré un nuevo servidor, un HP DL380 G6. Reemplacé el controlador stock smart array p410 con un LSI 9211-8i.
Mi plan es usar ZFS como el almacenamiento subyacente para XEN que se ejecutará en el mismo metal desnudo.
Me han dicho que puede usar discos SATA con los controladores de matriz inteligente, pero debido a que las unidades de consumo carecen de TLER, CCTL y ERC, no se recomienda. ¿Es este el caso?
Me preguntaba si el uso del controlador LSI en JBOD (modo de transferencia RAID) ¿tiene realmente el mismo tipo de discos que uso con el controlador de matriz inteligente?
Soy consciente de que intentar usar un sistema RAID que no esté respaldado por una caché de escritura para la virtualización no es bueno para el rendimiento. Pero estaba agregando un SSD para ZFS. ¿Eso haría alguna diferencia?
Creo que estoy tan obsesionado con el uso de ZFS es para la deducción y compresión. No creo que el controlador de matriz inteligente pueda hacer ninguna de esas características.
fuente
Respuestas:
Por favor no hagas esto.
Si va a ejecutar ZFS en Linux, hágalo completamente sin una capa de virtualización. Las soluciones de virtualización y ZFS todo en uno son lindas , pero no vale la pena el esfuerzo en producción.
En lo que respecta a las unidades, puede usar discos SATA en un controlador HP Smart Array, así como en el controlador LSI 9211-8i. En una configuración ZFS, una falla de los discos SATA puede tener un efecto adverso en el sistema cuando se ejecuta con el controlador LSI.
Usar discos de consumo es exactamente lo que es. Entra sabiendo las advertencias.
Editar:
¿Entonces está buscando ejecutar un sistema de archivos ZFS para proporcionar almacenamiento para máquinas virtuales locales?
El HP Smart Array P410 es un buen controlador RAID. Lo más importante es que el suyo probablemente tenga una memoria caché de escritura respaldada por batería o respaldada por flash. Eso es importante para fines de rendimiento. Lograr lo mismo correctamente en ZFS ( usar el ZIL ) es mucho más costoso y requiere más pensamiento de ingeniería . Es posible que ZFS no le ofrezca mucho sobre un sistema de archivos tradicional como XFS para este propósito en particular.
Esto sería diferente si estuviera utilizando ZFS en un servidor dedicado para proporcionar almacenamiento a otros hipervisores.
Ver: mejores prácticas de ZFS con RAID de hardware
fuente
Es posible usar discos de calidad de consumidor en HW de calidad de servidor, aunque no se recomienda si va a utilizar el soporte del proveedor. Se quejarán como el infierno por qué reemplazaste las unidades perfectamente compatibles con otras no compatibles. Aparte de eso, no hay problema para hacerlo y el backblaze lo demostró ( http://www.getoto.net/noise/2013/11/12/how-long-do-disk-drives-last/ ).
En cuanto a la selección de unidades, busque unidades que admitan NCQ y debería estar bien.
Usar las unidades en modo JBOD es pedir problemas. Es muy probable que el controlador LSI le muestre un solo disco grande (y no lo desea). Lo que necesita es el modo passtrough (básicamente use el controlador como extensor para el recuento de puertos. Compruebe si este es el caso).
ZFS en Linux: no es una idea estelar. Todavía no es lo suficientemente estable, aunque es utilizable. Dedup en zfs: un gran no si está planeando ejecutar una carga seria en la máquina. Tiende a comer mucho ram (en el rango de 2-4 G por cada 200-500 GB de datos deducidos). Podría haber mejorado, pero no lo he comprobado pronto. La compresión puede ser una buena opción, aunque depende de los datos.
SSD: Sí, hará una gran diferencia. Hay varias áreas (ZIL ya se mencionó anteriormente) que mejorarán bastante si se colocan en un disco separado (y si están en SSD aún más).
Si no está de acuerdo con el ZFS, sugeriría usar solaris / nexenta / opensolaris o BSD para el host de almacenamiento y luego exportarlo a los hosts XEN a través de iscsi / ata-over-eternet / etc.
Sugiero encarecidamente al menos hojear el blog de backblaze y buscar las ideas que están utilizando en la construcción de sus POD
fuente