LSI ofrece su tecnología de almacenamiento en niveles CacheCade , que permite que los dispositivos SSD se utilicen como cachés de lectura y escritura para aumentar las matrices RAID tradicionales.
Otros proveedores han adoptado tecnologías similares; Los controladores HP SmartArray tienen su SmartCache . Adaptec tiene MaxCache ... Sin mencionar una serie de herramientas de aceleración basadas en software ( sTec EnhanceIO , Velobit , FusionIO ioTurbine , Intel CAS , Facebook flashcache ?) .
Viniendo de un fondo ZFS , utilizo diferentes tipos de SSD para manejar las tareas de almacenamiento en caché de lectura (L2ARC) y escritura en caché (ZIL). Se necesitan diferentes rasgos para sus respectivas cargas de trabajo; Baja latencia y resistencia para el almacenamiento en caché de escritura. Alta capacidad de lectura.
- Dado que los SSD CacheCade se pueden usar para escribir y leer caché, ¿para qué sirve la NVRAM integrada del controlador RAID?
- Cuando se usa como caché de escritura, ¿qué peligro hay para los SSD de CacheCade en términos de resistencia de escritura? El uso de SSD de consumo parece ser alentado.
- ¿Las escrituras van directamente a SSD o llegan primero al caché del controlador?
- ¿Qué tan inteligente es el algoritmo de almacenamiento en caché de lectura? Entiendo cómo funcionan ZFS ARC y L2ARC . ¿Hay alguna idea del proceso de niveles de CacheCade?
- ¿Qué métricas existen para monitorear la efectividad de la configuración de CacheCade? ¿Hay algún método para observar una proporción o porcentaje de aciertos de caché ? ¿Cómo puedes saber si realmente está funcionando?
Estoy interesado en opiniones y comentarios sobre la solución LSI. ¿Alguna advertencia? ¿Consejos?
fuente
Respuestas:
Si deja habilitada la función de almacenamiento en caché de escritura del controlador, la NVRAM se seguirá utilizando principalmente. El caché de escritura SSD generalmente solo se usará para grandes cantidades de datos de escritura, donde la NVRAM por sí sola no es suficiente para mantenerse al día.
Esto depende de la frecuencia con la que sus escrituras realmente causen que la caché de escritura SSD sea necesaria ... si sus unidades pueden o no manejar la carga de escritura lo suficientemente rápido como para que la NVRAM no se llene. En la mayoría de los escenarios que he visto, la memoria caché de escritura tiene poca o ninguna acción la mayor parte del tiempo, por lo que no esperaría que esto tenga un gran impacto en la resistencia de escritura: es probable que la mayoría de las escrituras en los SSD sean parte de su lectura almacenamiento en caché
Respondió arriba ... El caché del controlador es golpeado primero, el caché SSD es más una segunda línea de defensa.
Lo siento ... no tengo conocimiento para contribuir en eso, ¿espero que alguien más tenga alguna idea?
No parece que haya herramientas de monitoreo disponibles para esto, ya que hay otras implementaciones de SAN de este conjunto de características ... Y dado que el disco virtual CacheCade no se presenta al sistema operativo, es posible que no tenga ninguna forma de hacerlo manualmente monitorear la actividad tampoco. Esto puede requerir pruebas adicionales para verificar la efectividad ...
Opinión / observación: en muchos casos (cuando se usa correctamente, lea el caché del tamaño adecuado para el conjunto de datos de trabajo) esta característica hace que las cosas VUELAN. Pero al final, puede ser impredecible.
fuente
Convention MegaCli -perfmon -start -interval <val> -aN
Description -perfmon: Specifies collection of performance data.
The possible parameters are:
-start: Starts the performance data collection.
-interval: the time interval (in minutes) that you specified for which you want the performance data collection. The default value is 5 minutes
Hablando de soluciones de hardware, no encontré ninguna manera de saber la proporción exacta de aciertos o algo así. Creo que hay 2 razones para eso: el volumen detrás del controlador aparece como una sola unidad (y por lo tanto debería "simplemente funcionar"), y es difícil contar los "golpes" que no serán para archivos sino para los sectores de HDD. puede haber alguna tasa de éxito incluso en HDD vacío que puede ser confuso. Además, los algoritmos detrás de la "hibridación" no son públicos, por lo que conocer el hitrate no ayudará mucho. Simplemente lo compra y lo pone a trabajar: gastos bajos (en comparación con la solución SSD pura), buen impacto en la velocidad.
El enfoque de "cómpralo y úsalo" es algo bastante bueno para considerar, pero el hecho es que nadie sabe con certeza cómo construir la combinación más rápida: ¿deberíamos usar varios HDD grandes y varios SSD de caché grande, o deberíamos usar muchos HDD pequeños y varios SSD grandes, etc., y cuál es la diferencia entre 100 o, digamos, 500 Gb o 2000 Gb de caché SSD (incluso 500 parece excesivo si el volumen de datos en caliente es de tamaño pequeño), y debería ser como 2x64Gb u 8x8Gb para tener transferencia de datos en paralelo Una vez más, cada proveedor usa su propio algoritmo y puede cambiarlo en la próxima actualización de firmware.
Escribo esto principalmente para decir que mis hallazgos me dieron una respuesta extraña: si usa algún servidor de uso general y perfil de carga general, entonces el controlador híbrido h / w está bien incluso con SSD relativamente pequeños, pero si sus tareas solían ser específico, será mejor que elija una solución s / w (que podrá elegir ya que es el único que conoce el perfil de carga) o algunos almacenes de tarjetas PCI de alto precio.
fuente
Aquí hay algunos reclamos de Dell:
En términos de IOPS, sus números parecen estar a la par. Tiendo a mantener los informes de DiskSpd de varios servidores, y si escalo uno de los informes que tengo al número de husillos que tengo en el servidor cachecade, solo debería obtener alrededor de 750k IOPS. Sin embargo, al probar este servidor, estaba obteniendo más de 2M. Realmente fue la única vez que vi la carga de la CPU como un factor por el que los hilos diskspd comienzan a ser un factor. Por lo general, la CPU sigue siendo mínima cuando el disco comienza a limitarse, pero ese no fue el caso aquí. Me estoy pateando por no ejecutar diskspd con y sin, pero bueno.
El otro factor aquí es que es totalmente transparente ... gaste unos cientos de dólares en un ssd de clase empresarial más pequeño, agréguelo como un volumen de caché y listo. Si tiene dinero para gastar en el almacenamiento todo-ssd, entonces no importa, pero para dar vida a los husos físicos, considero que vale la pena.
fuente
Lo he probado en Dell R515 con Dell PERC H700 Raid con memoria de 1 GB con un par de SSD de 500 MB / s
Hice mi banco marcando pocas horas después de la instalación, y después de 48 horas
No vi muchas mejoras para la velocidad de escritura, una pequeña mejora para Leer, hice la prueba hace un momento y no tengo números ahora.
Pero no fue significativo y terminé usando la caja de almacenamiento sin esta función.
¡Desde mi experiencia, la mayoría de estos programas son solo una broma! si necesita niveles de almacenamiento, cree el suyo propio, obtenga hardware confiable de Dell y llene la caja con SSD
En mi lugar de trabajo, el almacenamiento en niveles funciona muy bien HP 3Par y el complemento de optimización adaptativa, funciona como se anuncia, pero esta solución es de alrededor de 100K :)
fuente