VMware y muchos evangelistas de red intentan decirle que las SAN de fibra sofisticadas (= caras) son la "única" opción de almacenamiento para los servidores VMware ESX y ESXi. Pues sí, por supuesto. Usar una SAN es rápido, confiable y hace posible vMotion. Excelente. Pero: ¿pueden todos los usuarios de ESX / ESXi realmente permitirse las SAN?
Mi teoría es que menos del 20% de todas las instalaciones de VMware ESX en este planeta realmente usan fibra o SAN iSCS. La mayoría de estas instalaciones se realizarán en compañías más grandes que puedan pagar esto. Yo predeciría que la mayoría de las instalaciones de VMware usan "almacenamiento adjunto" (vmdks se almacenan en discos dentro del servidor). La mayoría de ellos se ejecutan en PYME y hay muchos de ellos!
Ejecutamos dos servidores ESX 3.5 con almacenamiento conectado y dos servidores ESX 4 con un san iSCS. Y la "diferencia real en vivo" entre ambos es apenas notable :-)
¿Conoces alguna estadística oficial para esta pregunta? ¿Qué utilizas como medio de almacenamiento?
fuente
Respuestas:
Realizo muchos trabajos de consultoría de VMware y diría que los porcentajes están más cerca del 80% de la base instalada que usa almacenamiento compartido de alta disponibilidad (FC, iSCSI o NAS de gama alta) y muchos de mis clientes son PYME. El factor clave que he encontrado es si la empresa trata el tiempo de actividad de su servidor como crítico o no, para la mayoría de las empresas actuales lo es.
Ciertamente, puede ejecutar máquinas virtuales de muy alto rendimiento desde el almacenamiento conectado directamente (una HP DL380 G6 con 16 unidades internas en una matriz RAID 10 tendría un disco IO bastante rápido), pero si está construyendo un VMware o cualquier otro entorno virtualizado para reemplazar decenas, cientos o miles de servidores, entonces estás loco si no estás poniendo mucho esfuerzo (y probablemente dinero) en una arquitectura de almacenamiento robusta.
No tiene que comprar una SAN de gama alta para las funciones de agrupamiento: puede implementarlas con un NAS bastante barato (o una SAN virtualizada como HP \ Lefthand's VSA) y aún usar almacenamiento certificado. Sin embargo, si está utilizando almacenamiento compartido y no tiene redundancia en todos los puntos de la infraestructura SAN \ NAS, no debería usarlo durante mucho más que pruebas. Y la redundancia es (como mínimo) doble (independiente) HBA \ NIC de almacenamiento en sus servidores, estructuras independientes dobles, controladores redundantes en la SAN, memoria caché respaldada por batería, desagrupamiento de caché, ventiladores intercambiables en caliente redundantes y fuentes de alimentación, etc. RAID 5 \ 6 \ 10 \ 50 y números apropiados de repuestos activos.
La verdadera diferencia real entre sus sistemas es que si uno de sus sistemas independientes falla de manera catastrófica, tiene mucho trabajo por hacer para recuperarlo e incurrirá en tiempo de inactividad simplemente manteniéndolo parcheado. Con los sistemas conectados a SAN agrupados, parchear los hipervisores, o incluso actualizar el hardware del hipervisor, debería resultar en un tiempo de inactividad cero. Una falla catastrófica del servidor simplemente reduce el servicio por el tiempo que lleva reiniciar la VM en un nodo separado (en el peor de los casos) o si tiene tolerancia a fallas que cubre esas máquinas virtuales, entonces no tiene tiempo de inactividad.
fuente
Como compañía tenemos más de mil hosts, comenzamos con FC, probamos iSCSI por un tiempo pero nos retiramos a FC debido a problemas de rendimiento. Estamos mirando seriamente a NFS pero aún no tenemos conclusiones. Ah, y utilizamos HP XP / EVA y algunos NetApp, no tenemos host de escritorio / dev de barra de almacenamiento local.
fuente
Como puede ver, no hay una talla única para todos, y no tiene que ser una solución de almacenamiento de clase única. Puede tener varias clases de almacenamiento según la disponibilidad y los requisitos de rendimiento.
fuente
Para escrituras y lecturas de alto rendimiento, he encontrado que FC es inmejorable en rendimiento, y aunque el precio es alto ... Simplemente funciona ... para expectativas de rendimiento más mundanas iSCSI realmente ha funcionado bastante bien, por lo que normalmente tengo el intercambie los archivos del buzón del servidor en un subsistema de disco FC y las unidades de arranque reales en un disco de interfaz iSCSI, con los servidores DNS y las máquinas de Active Directory que también se ejecutan desde iSCSI.
fuente
Ejecuté ESX con SAN, NAS y DAS. Depende completamente de:
Por confiabilidad y velocidad, no creo que pueda vencer a una SAN.
Por confiabilidad y costo, iría con NAS.
Y por velocidad y costo, DAS.
No es que las opciones individuales no se superpongan, pero esas son las fortalezas que he presenciado.
fuente
Ejecutamos 4 servidores ESX 4 y usamos una SAN EqualLogic iSCSI.
fuente
En instalaciones más pequeñas, el almacenamiento local es perfectamente aceptable siempre que tenga discos decentes; yo diría que 10k RPM + unidades SAS. La única vez que DEBE usar un disco compartido (intencionalmente no dije san porque su disco compartido puede estar apagado y compartir NFS) es cuando necesita hacer clustering: VMWare HA y DRS.
En este momento tenemos 3 niveles de almacenamiento: SAN FiberChannel, SAN Equalogix de gama alta y SAN MD3000i de gama baja. Los dos últimos son iSCSI. También ejecutamos algunos servidores fuera del almacenamiento local de los servidores ESX, en su mayoría servidores de servicios públicos que no nos importan si están inactivos durante una hora o dos, mientras arreglamos las cosas si todo funciona en una caja.
También estamos ejecutando nuestro entorno de prueba desde un NAS casero con unidades SATA de 7.2k y un objetivo empresarial iSCSI (el rendimiento no es tan bueno pero nos ayuda).
Mucha gente tiende a correr contra las acciones de NFS en entornos más grandes también. He querido jugar con esto por un tiempo, pero no he encontrado el tiempo.
fuente
Ejecutamos cuatro hosts ESXi (bueno, cuatro en vivo, uno para pruebas) con una estructura iSCSI construida a partir de conmutadores básicos y una SAN Hitachi de gama baja, un SMS-100.
Incluso a ese nivel, tenemos controladores gemelos, cada uno con puertos gemelos en un plano posterior SAS para que cualquiera de los controladores pueda aprovechar los discos y las unidades gemelas, que cruzamos con el cable a los interruptores gemelos, y a las unidades gemelas en los hosts ESX.
Cada uno de los volúmenes vfs tiene cuatro rutas visibles, por lo que es razonablemente tolerante. Usamos la conmutación de alimentación de Dell para el tejido: tienen problemas potenciales con seguridad (menos que nada, no hay unidades de suministro de energía redundantes) ... pero también son lo suficientemente baratos como para que tener dos repuestos preconfigurados en una caja listos para intercambiar se convierta en una posibilidad real.
obviamente, si quieres más nueves, debes gastar más dinero, pero creo que la belleza de iSCSI, ESXi y el kit básico de Gigabit ethernet es que puedes superar tu peso en términos de resistencia y rendimiento.
fuente
Todo tiene sus ventajas y desventajas ... la conclusión es SLA, carga de aplicaciones y escala. Entonces, si necesita almacenamiento de alto rendimiento para una implementación pequeña (1 a 5 hosts), probablemente podría lograrlo con NFS (en realidad, una vez he logrado una mejor latencia con NFS que con SAN usando discos RAM). Ahora intente escalar eso y encontrará que el costo de replicar su configuración a escala es muy comparable a un buen SAN, lo que hace que FC sea la única opción lógica para examinar ... La mayoría de las veces, termino usando combinaciones para varios servicios (aplicaciones , Bases de datos, copias de seguridad, archivos) ni una sola plataforma para optimizar los costos, según las necesidades.
fuente