Estamos viendo grandes problemas de rendimiento en una aplicación web y estamos tratando de encontrar el cuello de botella. No soy un administrador de sistemas, así que hay algunas cosas que no entiendo. Algunas investigaciones básicas muestran que la CPU está inactiva, mucha memoria disponible, sin intercambio, sin E / S, pero con una carga promedio alta.
La pila de software en este servidor se ve así:
- Solaris 10
- Java 1.6
- WebLogic 10.3.5 (8 dominios)
Las aplicaciones que se ejecutan en este servidor hablan con una base de datos Oracle en un servidor diferente.
Este servidor tiene 32 GB de RAM y 10 CPU (creo).
Correr prstat -Z
da algo como esto:
PID USERNAME SIZE RSS STATE PRI NICE TIME CPU PROCESS/NLWP
3836 ducm0101 2119M 2074M cpu348 58 0 8:41:56 0.5% java/225
24196 ducm0101 1974M 1910M sleep 59 0 4:04:33 0.4% java/209
6765 ducm0102 1580M 1513M cpu330 1 0 1:21:48 0.1% java/291
16922 ducm0102 2115M 1961M sleep 58 0 6:37:08 0.0% java/193
18048 root 3048K 2440K sleep 59 0 0:06:02 0.0% sa_comm/4
26619 ducm0101 2588M 2368M sleep 59 0 8:21:17 0.0% java/231
19904 ducm0104 1713M 1390M sleep 59 0 1:15:29 0.0% java/151
27809 ducm0102 1547M 1426M sleep 59 0 0:38:19 0.0% java/186
2409 root 15M 11M sleep 59 0 0:00:00 0.0% pkgserv/3
27204 root 58M 54M sleep 59 0 9:11:38 0.0% stat_daemon/1
27256 root 12M 8312K sleep 59 0 7:16:40 0.0% kux_vmstat/1
29367 root 297M 286M sleep 59 0 11:02:13 0.0% dsmc/2
22128 root 13M 6768K sleep 59 0 0:10:51 0.0% sendmail/1
22133 smmsp 13M 1144K sleep 59 0 0:01:22 0.0% sendmail/1
22003 root 5896K 240K sleep 59 0 0:00:01 0.0% automountd/2
22074 root 4776K 1992K sleep 59 0 0:00:19 0.0% sshd/1
22005 root 6184K 2728K sleep 59 0 0:00:31 0.0% automountd/2
27201 root 6248K 344K sleep 59 0 0:00:01 0.0% mount_stat/1
20964 root 2912K 160K sleep 59 0 0:00:01 0.0% ttymon/1
20947 root 1784K 864K sleep 59 0 0:02:22 0.0% utmpd/1
20900 root 3048K 608K sleep 59 0 0:00:03 0.0% ttymon/1
20979 root 77M 18M sleep 59 0 0:14:13 0.0% inetd/4
20849 daemon 2856K 864K sleep 59 0 0:00:03 0.0% lockd/2
17794 root 80M 1232K sleep 59 0 0:06:19 0.0% svc.startd/12
17645 root 3080K 728K sleep 59 0 0:00:12 0.0% init/1
17849 root 13M 6800K sleep 59 0 0:13:04 0.0% svc.configd/15
20213 root 84M 81M sleep 59 0 0:47:17 0.0% nscd/46
20871 root 2568K 600K sleep 59 0 0:00:04 0.0% sac/1
3683 ducm0101 1904K 1640K sleep 56 0 0:00:00 0.0% startWebLogic.s/1
23937 ducm0101 1904K 1640K sleep 59 0 0:00:00 0.0% startWebLogic.s/1
20766 daemon 5328K 1536K sleep 59 0 0:00:36 0.0% nfsmapid/3
20141 daemon 5968K 3520K sleep 59 0 0:01:14 0.0% kcfd/4
20093 ducm0101 2000K 376K sleep 59 0 0:00:01 0.0% pfksh/1
20797 daemon 3256K 240K sleep 59 0 0:00:01 0.0% statd/1
6181 root 4864K 2872K sleep 59 0 0:01:34 0.0% syslogd/17
7220 ducm0104 1268M 1101M sleep 59 0 0:36:35 0.0% java/138
27597 ducm0102 1904K 1640K sleep 59 0 0:00:00 0.0% startWebLogic.s/1
27867 root 37M 4568K sleep 59 0 0:13:56 0.0% kcawd/7
12685 ducm0101 4080K 208K sleep 59 0 0:00:01 0.0% vncconfig/1
ZONEID NPROC SWAP RSS MEMORY TIME CPU ZONE
42 135 22G 19G 59% 87:27:59 1.2% dsuniucm01
Total: 135 processes, 3167 lwps, load averages: 54.48, 62.50, 63.11
Entiendo que la CPU está inactiva en su mayoría, pero el promedio de carga es alto, lo cual es bastante extraño para mí. La memoria no parece ser un problema.
Correr vmstat 15
da algo como esto:
kthr memory page disk faults cpu
r b w swap free re mf pi po fr de sr s0 s1 s4 sd in sy cs us sy id
0 0 0 32531400 105702272 317 1052 126 0 0 0 0 13 13 -0 8 9602 107680 10964 1 1 98
0 0 0 15053368 95930224 411 2323 0 0 0 0 0 0 0 0 0 23207 47679 29958 3 2 95
0 0 0 14498568 95801960 3072 3583 0 2 2 0 0 3 3 0 21 22648 66367 28587 4 4 92
0 0 0 14343008 95656752 3080 2857 0 0 0 0 0 3 3 0 18 22338 44374 29085 3 4 94
0 0 0 14646016 95485472 1726 3306 0 0 0 0 0 0 0 0 0 24702 47499 33034 3 3 94
Entiendo que la CPU está inactiva en su mayoría, no hay procesos esperando en la cola para ejecutarse, está ocurriendo un pequeño intercambio.
Correr iostat 15
da esto:
tty sd0 sd1 sd4 ssd0 cpu
tin tout kps tps serv kps tps serv kps tps serv kps tps serv us sy wt id
0 676 324 13 8 322 13 8 0 0 0 159 8 0 1 1 0 98
1 1385 0 0 0 0 0 0 0 0 0 0 0 0 3 4 0 94
0 584 89 6 24 89 6 25 0 0 0 332 19 0 2 1 0 97
0 296 0 0 0 0 0 0 0 0 0 0 0 0 2 2 0 97
1 1290 43 5 24 43 5 22 0 0 0 297 20 1 3 3 0 94
Correr netstat -i 15
da lo siguiente:
input aggr26 output input (Total) output
packets errs packets errs colls packets errs packets errs colls
1500233798 0 1489316495 0 0 3608008314 0 3586173708 0 0
10646 0 10234 0 0 26206 0 25382 0 0
11227 0 10670 0 0 28562 0 27448 0 0
10353 0 9998 0 0 29117 0 28418 0 0
11443 0 12003 0 0 30385 0 31494 0 0
¿Qué me estoy perdiendo?
fuente
psrinfo -v
para mostrar el número real de CPU./
y la carga siguió aumentando hasta que terminó19.00
sin ninguna razón visible. Hacer un poco de espacio libre resolvió el problema (poco después de que se redujera); Sin embargo, también puede ser una coincidencia.Respuestas:
Con un poco más de investigación, parece que el problema de rendimiento se debe principalmente a una gran cantidad de llamadas de red entre dos sistemas (Oracle SSXA y UCM). Las llamadas son rápidas pero abundantes y serializadas, de ahí el bajo uso de CPU (principalmente esperando E / S), el alto promedio de carga (muchas llamadas en espera de ser procesadas) y especialmente los largos tiempos de respuesta (por acumulación de pequeños tiempos de respuesta).
¡Gracias por su comprensión de este problema!
fuente
Cuando dice 'Promedio de carga alta', supongo que quiere decir que prstat se muestra para 'promedio de carga' en la parte inferior de las cifras de salida de
Estos números, son similares a los que proporciona Top y probablemente significan el tamaño promedio de la cola del proceso en ejecución. Este no es el porcentaje de tiempo de procesador utilizado, sino cuántas 'cosas' están acosando a la CPU por el tiempo de ejecución. Es cierto que estos parecen bastante altos, pero todo depende de la aplicación que esté ejecutando; los procesos pueden no estar haciendo mucho una vez que obtienen su ranura. Vea aquí para una buena explicación con respecto a la parte superior.
No estoy familiarizado con WebLogic, pero he notado que, en general, con Apache Tomcat se pueden generar muchos hilos Java simultáneamente para lo que parece que no hay muchas solicitudes. Podría ser esto lo que está causando esos altos números de carga promedio. Asegúrese de que está utilizando la agrupación de conexiones cuando sea apropiado para conectarse al backend y considere aumentar la cantidad de subprocesos inactivos que están disponibles para que su aplicación maneje las conexiones (no estoy seguro de cómo hacerlo en WebLogic; Tomcat tiene una agrupación de subprocesos por conector o un grupo de subprocesos de ejecutor general). Si no hace esto, se pueden generar nuevos hilos para procesar las solicitudes.
En cuanto al rendimiento, debe precisar qué parte de su aplicación está sufriendo. ¿Es el procesamiento lo que está sucediendo en el lado de WebLogic / Java, el acceso a la base de datos, las búsquedas de DNS (si se realizan por alguna razón ...), problemas de red o algo en el sistema operativo.
El 99% del tiempo será su código y cómo se comunica con la base de datos que está reteniendo las cosas. Luego será la configuración de la aplicación web. Pasado este punto, trabajará para exprimir los últimos milisegundos de su aplicación o buscará proporcionar una mayor concurrencia con el mismo hardware. Para este ajuste de rendimiento más fino, necesita métricas.
Para Java, sugeriría instalar Java Melody . Puede proporcionar mucha información sobre lo que está haciendo su programa y ayudar a reducir dónde está pasando el tiempo. Solo lo he usado con Tomcat, pero debería funcionar bien con cualquier cosa de contenedor / servlet Java EE.
Hay varias formas de ajustar Java, así que eche un vistazo a sus pautas de rendimiento (estoy seguro de que probablemente lo haya hecho) y asegúrese de establecer el tamaño correcto de almacenamiento dinámico, etc. adecuado para su programa. Java Melody puede ayudarlo a rastrear el tamaño del montón de Java que está consumiendo, así como qué tan duro está trabajando el recolector de basura / con qué frecuencia está interrumpiendo su programa para limpiar objetos.
Espero que te haya sido útil. Si proporciona más información, puedo actualizar esta respuesta y perfeccionarla más según sus necesidades.
fuente
Como nota al margen, el promedio de carga también incluye cosas que esperan la actividad del disco (es decir, hostigar el disco), así como las que esperan la CPU, es una suma de ambos ... por lo que puede tener problemas en uno u otro.
Consulte http://en.wikipedia.org/wiki/Load_(computing) "Linux también incluye [en su promedio de carga] procesos en estados de suspensión ininterrumpida (generalmente esperando actividad del disco)"
Como nota al margen, el problema particular que encontré fue que tenía un promedio de carga alto, pero también mucha CPU inactiva y bajo uso de disco.
Parece que, al menos en mi caso, a veces los subprocesos / procesos que esperan E / S se muestran en el promedio de carga, pero no causan un aumento en la columna "esperar". Pero todavía están vinculados a E / S.
Puede decir que este es el caso con el siguiente código, si lo ejecuta en jruby (solo hace 100 hilos con muchas E / S cada uno):
Lo que da una salida superior como esta:
Entonces puede ver que tiene mucha CPU inactiva, 0.0% wa, pero un promedio de carga muy alto.
iostat muestra de manera similar el disco como básicamente inactivo:
ver también http://linuxgazette.net/141/misc/lg/tracking_load_average_issues.html
Como nota adicional, esto también parece implicar que (al menos en este caso, ejecutar CentOS) el promedio de carga incluye cada subproceso por separado en el total.
fuente
Tuve el mismo problema hoy. Después de algunas investigaciones y diagnósticos, me di cuenta de que mi pequeño VPS se estaba quedando sin disco .
En tipo shell / prompt (Linux / Unix)
para ver el disco libre en tu máquina. Si se está quedando sin disco, ese puede ser el problema.
fuente
Otra herramienta útil que ayudará en esta situación es nmon.
Incluye una variedad de formas de ver los mismos datos presentados por las otras herramientas, en un pequeño paquete.
Si este es un contenido que no se puede almacenar en caché, recomendaría colocar varios servidores detrás de un equilibrador de carga como haproxy en modo tcp para distribuir la carga.
fuente
Solo para agregar a esto, algunas herramientas específicas de Solaris que no se han mencionado y que son útiles para depurar estos problemas son "intrstat", "mpstat" y "lockstat". Después de haber experimentado un problema similar antes en un host que ejecutaba cargas pesadas de ETL, mpstat reveló una gran cantidad de interrupciones relacionadas con muchas E / S que insinuaban el problema.
En ese momento, en un T4-4 con mpstat vimos que vcpus entregaba más de 30000 interrupciones durante un ciclo de monitoreo corto, después de lo cual el rendimiento comenzó a sufrir. En este caso, la única solución era lanzarle más CPU; sin embargo, posteriormente se trabajó para mejorar el código.
Brendan Gregg ha escrito mucho sobre el rendimiento, especialmente en torno a E / S a lo largo de los años, y vale la pena buscarlo si desea obtener más información.
fuente