Con el desarrollo de sistemas hiperconvergentes, podemos ver otra tecnología que no sea RAID para manejar el almacenamiento distribuido (como ceph por ejemplo o VSAN o almacenamiento distribuido como en nutanix).
Pero, ¿existe un derivado de tecnología de código abierto del almacenamiento de objetos que pueda usar en un solo servidor con un gran disco grande, digamos una docena de discos de 12 a sata, que garantizará la seguridad de los datos pero sin el inconveniente de un gran tiempo de reconstrucción al reemplazar un disco. Por lo tanto, Dynamic Disk Pool es una forma de RAID sin clúster que se puede usar a nivel de bloque como iscsi o al nivel de sistema de archivos como zfs o brtrfs.
Me gustaría proporcionar algo similar en características a una bahía SYNOLOGY (NFS, objetivo iscsi, SMB) pero sin RAID para el almacenamiento en bloque.
Gracias por sus indicaciones.
fuente
Respuestas:
Para un solo sistema, realmente sugeriría seguir con los arrays RAID bien conocidos y efectivos. Los almacenes de objetos tienen una penalización de rendimiento significativa en comparación con el acceso clásico a bloque / archivo y, si no escala, pierde muchos de sus beneficios.
Dicho esto, excluyendo RAID clásico, tiene las siguientes posibilidades:
sin miedo , que utiliza un enfoque de replicación a nivel de archivo en lugar de uno a nivel de bloque
glusterfs , configurando un ladrillo diferente para cada disco y aplicando una
replica 2
políticazfs que, aunque basado en bloques, no es 100% idéntico al RAID de software o hardware clásico
También tenga en cuenta que el almacenamiento de objetos no garantiza un menor tiempo de reconstrucción; Por el contrario, aborda las reconstrucciones largas garantizando políticas de replicación más fuertes (es decir,
replica 3
en diferentes bastidores).fuente
zfs set checksum=off
, pero no puedo imaginar por qué alguien ejecutaría ZFS y lo haría.) Incluso en ausencia de redundancia de almacenamiento, esto puede ser una gran ventaja porque sabrá exactamente cuál de sus jefes ... er , importantes hojas de cálculo ... deben restaurarse desde la copia de seguridad."eso garantizará la seguridad de los datos, pero sin el inconveniente de un gran tiempo de reconstrucción al reemplazar un disco"
Tienes un engaño en el sentido de que crees que el software puede cambiar la realidad, es decir, la física. Los tiempos de reconstrucción de Hugh esencialmente se reducen a tener que escribir un disco completo y si escribes 2tb de información en un disco, lleva mucho tiempo PORQUE ESTO ES CÓMO SE COMPORTAN LOS DISCOS. Particularmente si TIENES que leer varios discos para obtener los datos que faltan en el primer lugar (Raid 5,6 analógico). Hay detalles sobre cómo puede ser "estúpido" el software (es decir, agregar tiempo por encima del mínimo físico), pero el mínimo ya es horas si habla de discos SATA grandes y lentos.
Todas las demás tecnologías que mencione tienen que cumplir con la misma problemática durante mucho tiempo que desea evitar porque: la física.
Y no ayuda que su red de clúster, si realiza la replicación de la red, esté usando 10g o menos (que es el caso más probable) en lugar de ir a 40g o 100g.
fuente