¿Qué tan efectivo es el almacenamiento en niveles LSI CacheCade SSD?

22

LSI ofrece su tecnología de almacenamiento en niveles CacheCade , que permite que los dispositivos SSD se utilicen como cachés de lectura y escritura para aumentar las matrices RAID tradicionales.

Otros proveedores han adoptado tecnologías similares; Los controladores HP SmartArray tienen su SmartCache . Adaptec tiene MaxCache ... Sin mencionar una serie de herramientas de aceleración basadas en software ( sTec EnhanceIO , Velobit , FusionIO ioTurbine , Intel CAS , Facebook flashcache ?) .

Viniendo de un fondo ZFS , utilizo diferentes tipos de SSD para manejar las tareas de almacenamiento en caché de lectura (L2ARC) y escritura en caché (ZIL). Se necesitan diferentes rasgos para sus respectivas cargas de trabajo; Baja latencia y resistencia para el almacenamiento en caché de escritura. Alta capacidad de lectura.

  • Dado que los SSD CacheCade se pueden usar para escribir y leer caché, ¿para qué sirve la NVRAM integrada del controlador RAID?
  • Cuando se usa como caché de escritura, ¿qué peligro hay para los SSD de CacheCade en términos de resistencia de escritura? El uso de SSD de consumo parece ser alentado.
  • ¿Las escrituras van directamente a SSD o llegan primero al caché del controlador?
  • ¿Qué tan inteligente es el algoritmo de almacenamiento en caché de lectura? Entiendo cómo funcionan ZFS ARC y L2ARC . ¿Hay alguna idea del proceso de niveles de CacheCade?
  • ¿Qué métricas existen para monitorear la efectividad de la configuración de CacheCade? ¿Hay algún método para observar una proporción o porcentaje de aciertos de caché ? ¿Cómo puedes saber si realmente está funcionando?

Estoy interesado en opiniones y comentarios sobre la solución LSI. ¿Alguna advertencia? ¿Consejos?

ewwhite
fuente
2
Adaptec tiene lo mismo. Muy buena pregunta.
TomTom

Respuestas:

9

Dado que los SSD CacheCade se pueden usar para escribir y leer caché, ¿para qué sirve la NVRAM integrada del controlador RAID?

Si deja habilitada la función de almacenamiento en caché de escritura del controlador, la NVRAM se seguirá utilizando principalmente. El caché de escritura SSD generalmente solo se usará para grandes cantidades de datos de escritura, donde la NVRAM por sí sola no es suficiente para mantenerse al día.

Cuando se usa como caché de escritura, ¿qué peligro hay para los SSD de CacheCade en términos de resistencia de escritura? El uso de SSD de consumo parece ser alentado.

Esto depende de la frecuencia con la que sus escrituras realmente causen que la caché de escritura SSD sea necesaria ... si sus unidades pueden o no manejar la carga de escritura lo suficientemente rápido como para que la NVRAM no se llene. En la mayoría de los escenarios que he visto, la memoria caché de escritura tiene poca o ninguna acción la mayor parte del tiempo, por lo que no esperaría que esto tenga un gran impacto en la resistencia de escritura: es probable que la mayoría de las escrituras en los SSD sean parte de su lectura almacenamiento en caché

¿Las escrituras van directamente a SSD o llegan primero al caché del controlador?

Respondió arriba ... El caché del controlador es golpeado primero, el caché SSD es más una segunda línea de defensa.

¿Qué tan inteligente es el algoritmo de almacenamiento en caché de lectura? Entiendo cómo funcionan ZFS ARC y L2ARC. ¿Hay alguna idea del proceso de niveles de CacheCade?

Lo siento ... no tengo conocimiento para contribuir en eso, ¿espero que alguien más tenga alguna idea?

¿Qué métricas existen para monitorear la efectividad de la configuración de CacheCade? ¿Hay algún método para observar una proporción o porcentaje de aciertos de caché? ¿Cómo puedes saber si está funcionando?

No parece que haya herramientas de monitoreo disponibles para esto, ya que hay otras implementaciones de SAN de este conjunto de características ... Y dado que el disco virtual CacheCade no se presenta al sistema operativo, es posible que no tenga ninguna forma de hacerlo manualmente monitorear la actividad tampoco. Esto puede requerir pruebas adicionales para verificar la efectividad ...

Opinión / observación: en muchos casos (cuando se usa correctamente, lea el caché del tamaño adecuado para el conjunto de datos de trabajo) esta característica hace que las cosas VUELAN. Pero al final, puede ser impredecible.

JimNim
fuente
1
Oye, solo quería agregar que puede haber algunas métricas disponibles en el sistema operativo, desde la página del manual 220, hablando de las opciones de MegaCLI (que se pueden instalar en Linux, Windows, Unix, Bsd, etc.). DiceConvention MegaCli -perfmon -start -interval <val> -aN Description -perfmon: Specifies collection of performance data. The possible parameters are: -start: Starts the performance data collection. -interval: the time interval (in minutes) that you specified for which you want the performance data collection. The default value is 5 minutes
NickW
Hmmm, no demasiado detallado. Tendría que ver cómo se ve el formato de la colección.
ewwhite
Me interesaría ver qué datos realmente se recopilan / informan si alguien prueba eso ...
JimNim
1

Hablando de soluciones de hardware, no encontré ninguna manera de saber la proporción exacta de aciertos o algo así. Creo que hay 2 razones para eso: el volumen detrás del controlador aparece como una sola unidad (y por lo tanto debería "simplemente funcionar"), y es difícil contar los "golpes" que no serán para archivos sino para los sectores de HDD. puede haber alguna tasa de éxito incluso en HDD vacío que puede ser confuso. Además, los algoritmos detrás de la "hibridación" no son públicos, por lo que conocer el hitrate no ayudará mucho. Simplemente lo compra y lo pone a trabajar: gastos bajos (en comparación con la solución SSD pura), buen impacto en la velocidad.

El enfoque de "cómpralo y úsalo" es algo bastante bueno para considerar, pero el hecho es que nadie sabe con certeza cómo construir la combinación más rápida: ¿deberíamos usar varios HDD grandes y varios SSD de caché grande, o deberíamos usar muchos HDD pequeños y varios SSD grandes, etc., y cuál es la diferencia entre 100 o, digamos, 500 Gb o 2000 Gb de caché SSD (incluso 500 parece excesivo si el volumen de datos en caliente es de tamaño pequeño), y debería ser como 2x64Gb u 8x8Gb para tener transferencia de datos en paralelo Una vez más, cada proveedor usa su propio algoritmo y puede cambiarlo en la próxima actualización de firmware.

Escribo esto principalmente para decir que mis hallazgos me dieron una respuesta extraña: si usa algún servidor de uso general y perfil de carga general, entonces el controlador híbrido h / w está bien incluso con SSD relativamente pequeños, pero si sus tareas solían ser específico, será mejor que elija una solución s / w (que podrá elegir ya que es el único que conoce el perfil de carga) o algunos almacenes de tarjetas PCI de alto precio.

Alejandro
fuente
1

Aquí hay algunos reclamos de Dell:

Rendimiento de almacenamiento: E / S por segundo (IOPS):

  • CacheCade proporcionó un aumento de 3 veces más IOPS que el almacenamiento en disco duro solo
  • El almacenamiento SSD SAS logró 8 veces más IOPS que el almacenamiento HDD
  • Una unidad Flash Express resultó en 10.5x más IOPS que 16 HDD

En términos de IOPS, sus números parecen estar a la par. Tiendo a mantener los informes de DiskSpd de varios servidores, y si escalo uno de los informes que tengo al número de husillos que tengo en el servidor cachecade, solo debería obtener alrededor de 750k IOPS. Sin embargo, al probar este servidor, estaba obteniendo más de 2M. Realmente fue la única vez que vi la carga de la CPU como un factor por el que los hilos diskspd comienzan a ser un factor. Por lo general, la CPU sigue siendo mínima cuando el disco comienza a limitarse, pero ese no fue el caso aquí. Me estoy pateando por no ejecutar diskspd con y sin, pero bueno.

El otro factor aquí es que es totalmente transparente ... gaste unos cientos de dólares en un ssd de clase empresarial más pequeño, agréguelo como un volumen de caché y listo. Si tiene dinero para gastar en el almacenamiento todo-ssd, entonces no importa, pero para dar vida a los husos físicos, considero que vale la pena.

b_levitt
fuente
0

Lo he probado en Dell R515 con Dell PERC H700 Raid con memoria de 1 GB con un par de SSD de 500 MB / s

Hice mi banco marcando pocas horas después de la instalación, y después de 48 horas

No vi muchas mejoras para la velocidad de escritura, una pequeña mejora para Leer, hice la prueba hace un momento y no tengo números ahora.

Pero no fue significativo y terminé usando la caja de almacenamiento sin esta función.

¡Desde mi experiencia, la mayoría de estos programas son solo una broma! si necesita niveles de almacenamiento, cree el suyo propio, obtenga hardware confiable de Dell y llene la caja con SSD

En mi lugar de trabajo, el almacenamiento en niveles funciona muy bien HP 3Par y el complemento de optimización adaptativa, funciona como se anuncia, pero esta solución es de alrededor de 100K :)

user1007727
fuente
11
No creo que poner un caché SSD delante de los SSD pueda ayudar en absoluto :)
Michael Hampton