Tengo un cuadro de OpenSolaris que comparte dos sistemas de archivos ZFS. Uno es una conexión NFS a una caja CentOS que ejecuta el servidor VMware (las imágenes de disco se almacenan en ZFS). El otro es una conexión iSCSI a un servidor Windows 2008 con formato NTFS en la parte superior de ZFS. Ambas conexiones son directas sobre gig-E (sin interruptores).
Estoy ejecutando munin para controlar las cajas, pero no estoy seguro de qué tipo de números debería esperar. ¿Alguien puede darme algunos números de referencia para comparar o hacer alguna sugerencia sobre dónde comenzar a ajustar?
Aquí están las estadísticas de NFS que estoy viendo, publicaré iSCSI una vez que arregle munin en la caja de Solaris: P
vmware-server
nfs
iscsi
zfs
Sysadminicus
fuente
fuente
Respuestas:
Hemos empujado una escritura Sun X4100 sobre GigE e iSCSI enlazados a un Sun X4500 a 280MB / s.
Se puede hacer mucho para ajustar la pila TCP en Solaris para ayudar, esta es mi configuración de ajuste de stock. (tome de una colección de documentos de Sun):
Además, vale la pena analizar en su máquina OpenSolaris cambiar el intervalo fsflush, el ajuste de interrupción "mágico" y desactivar los anillos suaves. Agregue lo siguiente a / etc / system (se requiere reiniciar):
Vale la pena mencionar que hago esto en Solaris 10, no en OpenSolaris, pero creo que los ajustables deberían funcionar para usted de la misma manera.
Soy un gran admirador de Filebench por jugar con las opciones de ajuste y hacer pruebas de rendimiento.
La versión de OpenSolaris 2009.06 (recientemente renombrada) parece ser muy emocionante en el mundo de iSCSI y ZFS.
Espero que esto ayude un poco!
fuente
Obtengo alrededor de 90 MB / seg en mis matrices EMC AX150i a través de iSCSI en Ethernet de 1 GB.
fuente
Por un solo dd o bonnie ++ (velocidad bruta, escritura lineal), debe acercarse bastante a la velocidad del cable.
Pero su cuello de botella será la matriz de discos, una vez que comience a recibir la carga aleatoria de E / S de varias máquinas virtuales, mucho más que el transporte.
Además, si no tiene una memoria caché de escritura respaldada por batería con una cantidad significativa de RAM, su rendimiento se verá afectado tan pronto como comience a recibir muchas escrituras con cualquier otro IO.
fuente
He podido enviar datos a través de iSCSI a unos 200 Mbit / seg en enlaces de 1 GB. Pero tenía un RAID 6 de 14 discos alojado por un EMC CX4-240 sin mucho uso del caché en ese momento.
El mayor cuello de botella probablemente será la cantidad de caché del controlador y la velocidad de los discos (para cuando el caché se llene).
fuente
Tengo alrededor de 80 MB / S en mi servidor de Windows a través de ISCSI en Ethernet 1G. Destino: KernSafe iStorage Server http://www.kernsafe.com/Product.aspx?id=5 Iniciador: Microsoft Initiator www.microsoft.com/downloads/details.aspx?familyid=12cb3c1a-15d6-4585-b385-befd1319f825&displaylang= en
Disco duro: ATA 7200
fuente
Para aquellos de nosotros que estamos más cerca del extremo semiprofesional de las cosas (en lugar de los profesionales), obtengo una lectura constante y constante de 150 MB, 120 MB de escritura desde el servidor W2012, un doble de 1 gb nic unido a través del conmutador administrado draytek a blackarmorsnas a través de cobre RJ45, transferencia única de archivo de 20 GB. No hay otras operaciones simultáneas durante la prueba. Para lograr esto, estoy usando jumbo frames 9k, rx & tx flow, es decir, todas las optimizaciones de controladores normales, pero no hay más ajustes que encender las cosas y subir el marco jumbo al máximo.
fuente