Debo admitir que, por lo general, no me he molestado en cambiar entre las configuraciones de Depuración y Liberación en mi programa, y por lo general he optado por la configuración de Depuración , incluso cuando los programas se implementan realmente en el lugar del cliente.
Hasta donde sé, la única diferencia entre estas configuraciones si no las cambia manualmente es que Debug tiene DEBUG
definida la constante, y Release tiene marcado el código de Optimize .
Entonces mis preguntas son en realidad dobles:
¿Hay muchas diferencias de rendimiento entre estas dos configuraciones? ¿Existe algún tipo específico de código que causará grandes diferencias en el rendimiento aquí, o en realidad no es tan importante?
¿Hay algún tipo de código que se ejecutará bien en la configuración de depuración que podría fallar en la configuración de lanzamiento , o puede estar seguro de que el código que se prueba y funciona bien en la depuración configuración de también funcionará bien en la configuración de lanzamiento?
fuente
Respuestas:
El compilador de C # en sí no altera mucho la IL emitida en la versión de lanzamiento. Es notable que ya no emite los códigos de operación NOP que le permiten establecer un punto de interrupción en una llave rizada. El más grande es el optimizador integrado en el compilador JIT. Sé que hace las siguientes optimizaciones:
Método en línea. Una llamada al método se reemplaza por la inyección del código del método. Este es uno grande, hace que los accesos de propiedad sean esencialmente gratuitos.
Asignación de registro de CPU. Las variables locales y los argumentos del método pueden permanecer almacenados en un registro de CPU sin volver a almacenarse (o con menos frecuencia) en el marco de la pila. Este es uno grande, notable por hacer que la depuración de código optimizado sea tan difícil. Y dando un significado a la palabra clave volátil .
Eliminación de comprobación de índice de matriz. Una optimización importante cuando se trabaja con matrices (todas las clases de colección .NET usan una matriz internamente). Cuando el compilador JIT puede verificar que un bucle nunca indexa una matriz fuera de los límites, eliminará la verificación del índice. Uno grande.
Lazo se desenrolla. Los bucles con cuerpos pequeños se mejoran repitiendo el código hasta 4 veces en el cuerpo y haciendo bucles menos. Reduce el costo de sucursal y mejora las opciones de ejecución súper escalar del procesador.
Eliminación de código muerto. Una declaración como if (false) {/ ... /} se elimina por completo. Esto puede ocurrir debido al constante plegado y alineado. En otros casos, el compilador JIT puede determinar que el código no tiene ningún efecto secundario posible. Esta optimización es lo que hace que el código de perfil sea tan complicado.
Código de elevación. El código dentro de un bucle que no se ve afectado por el bucle se puede mover fuera del bucle. El optimizador de un compilador de C pasará mucho más tiempo buscando oportunidades para izar. Sin embargo, es una optimización costosa debido al análisis de flujo de datos requerido y el jitter no puede permitirse el tiempo, por lo que solo levanta casos obvios. Obligar a los programadores de .NET a escribir un mejor código fuente y izar ellos mismos.
Eliminación de subexpresión común. x = y + 4; z = y + 4; se convierte en z = x; Bastante común en declaraciones como dest [ix + 1] = src [ix + 1]; escrito para facilitar la lectura sin introducir una variable auxiliar. No es necesario comprometer la legibilidad.
Plegado constante. x = 1 + 2; se convierte en x = 3; Este simple ejemplo es captado temprano por el compilador, pero sucede en el momento JIT cuando otras optimizaciones lo hacen posible.
Copia de propagación. x = a; y = x; se convierte en y = a; Esto ayuda al asignador de registros a tomar mejores decisiones. Es un gran problema en el jitter x86 porque tiene pocos registros para trabajar. Hacer que seleccione los correctos es fundamental para el rendimiento.
Estas son optimizaciones muy importantes que pueden marcar una gran diferencia cuando, por ejemplo, perfila la compilación de depuración de su aplicación y la compara con la compilación de lanzamiento. Sin embargo, eso realmente solo importa cuando el código está en su ruta crítica, el 5 al 10% del código que escribe que realmente afecta el rendimiento de su programa. El optimizador JIT no es lo suficientemente inteligente como para saber por adelantado lo que es crítico, solo puede aplicar el dial "convertirlo en once" para todo el código.
El resultado efectivo de estas optimizaciones en el tiempo de ejecución de su programa a menudo se ve afectado por el código que se ejecuta en otro lugar. Lectura de un archivo, ejecución de una consulta dbase, etc. Haciendo que el trabajo del optimizador JIT sea completamente invisible. Aunque no le importa :)
El optimizador JIT es un código bastante confiable, principalmente porque se ha puesto a prueba millones de veces. Es extremadamente raro tener problemas en la versión de compilación de lanzamiento de su programa. Sin embargo, sucede. Tanto las fluctuaciones x64 como las x86 han tenido problemas con las estructuras. La fluctuación de fase x86 tiene problemas con la consistencia de coma flotante, produciendo resultados sutilmente diferentes cuando los intermedios de un cálculo de coma flotante se mantienen en un registro FPU con una precisión de 80 bits en lugar de truncarse cuando se vacía en la memoria.
fuente
LinkedList<T>
no, aunque no se use con mucha frecuencia.volatile
palabra clave no se aplica a las variables locales almacenadas en un marco de pila. De la documentación en msdn.microsoft.com/en-us/library/x13ttww7.aspx : "La palabra clave volátil solo puede aplicarse a campos de una clase o estructura. Las variables locales no pueden declararse volátiles".Debug
yRelease
se basa en este sentido es la casilla de verificación "código de optimizar" que normalmente es el deRelease
, pero fuera deDebug
. Es solo para asegurarse de que los lectores no empiecen a pensar que existen diferencias "mágicas" e invisibles entre las dos configuraciones de compilación que van más allá de lo que se encuentra en la página de propiedades del proyecto en Visual Studio.Sí, hay muchas diferencias de rendimiento y estas realmente se aplican a todo el código. La depuración optimiza muy poco el rendimiento y libera mucho el modo;
Solo el código que se basa en la
DEBUG
constante puede funcionar de manera diferente con una versión de lanzamiento. Además de eso, no deberías ver ningún problema.Un ejemplo de código marco que depende de la
DEBUG
constante es elDebug.Assert()
método, que tiene el atributo[Conditional("DEBUG)"]
definido. Esto significa que también depende de laDEBUG
constante y esto no está incluido en la versión de lanzamiento.fuente
DEBUG
:AppDomain.CurrentDomain.GetAssemblies().Sum(p => p.GetTypes().Sum(p1 => p1.GetProperties().Length))
.asp.net
activado y utiliza la depuración en lugar de liberar, se pueden agregar algunos scripts en su página, como:MicrosoftAjax.debug.js
que tiene aproximadamente 7k líneas.Esto depende en gran medida de la naturaleza de su aplicación. Si su aplicación tiene mucha IU, probablemente no notará ninguna diferencia, ya que el componente más lento conectado a una computadora moderna es el usuario. Si usa algunas animaciones de la interfaz de usuario, es posible que desee probar si puede percibir algún retraso notable cuando se ejecuta en DEBUG build.
Sin embargo, si tiene muchos cálculos de cálculo pesado, entonces notará diferencias (podría ser tan alto como 40% como lo mencionó @Pieter, aunque dependería de la naturaleza de los cálculos).
Básicamente es una compensación de diseño. Si está lanzando bajo DEBUG build, entonces si los usuarios experimentan problemas, puede obtener un rastreo más significativo y puede hacer un diagnóstico mucho más flexible. Al lanzar en DEBUG build, también evitas que el optimizador produzca Heisenbugs oscuros .
fuente
Mi experiencia ha sido que las aplicaciones medianas o grandes son notablemente más receptivas en una versión de lanzamiento. Pruébelo con su aplicación y vea cómo se siente.
Una cosa que puede morderte con las versiones de lanzamiento es que el código de compilación de depuración a veces puede suprimir las condiciones de carrera y otros errores relacionados con subprocesos. El código optimizado puede resultar en un reordenamiento de instrucciones y una ejecución más rápida puede exacerbar ciertas condiciones de carrera.
fuente
Nunca debe lanzar una compilación de depuración de .NET en producción. Puede contener código feo para admitir Editar y continuar o quién sabe qué más. Hasta donde sé, esto ocurre solo en VB, no en C # (nota: la publicación original está etiquetada con C #) , pero aún así debería dar motivos para detenerse en cuanto a lo que Microsoft cree que pueden hacer con una compilación de depuración. De hecho, antes de .NET 4.0, el código VB pierde memoria proporcionalmente a la cantidad de instancias de objetos con eventos que construye para admitir Editar y continuar. (Aunque se informa que esto se corrige según https://connect.microsoft.com/VisualStudio/feedback/details/481671/vb-classes-with-events-are-not-garbage-collected-when-debugging , el código generado parece desagradable, crea
WeakReference
objetos y los agrega a una lista estática mientrasmanteniendo un bloqueo ) ¡Ciertamente no quiero nada de este tipo de soporte de depuración en un entorno de producción!fuente
En mi experiencia, lo peor que ha salido del modo de lanzamiento son los oscuros "errores de lanzamiento". Dado que el IL (lenguaje intermedio) está optimizado en modo Release, existe la posibilidad de errores que no se habrían manifestado en modo Debug. Hay otras preguntas SO que cubren este problema: Razones comunes para errores en la versión de lanzamiento que no están presentes en el modo de depuración
Esto me sucedió una o dos veces cuando una aplicación de consola simple funcionaría perfectamente bien en modo de depuración, pero dada la misma entrada, se produciría un error en el modo de lanzamiento. Estos errores son EXTREMADAMENTE difíciles de depurar (por definición del modo Release, irónicamente).
fuente
Yo diría que 1) depende en gran medida de su implementación. Por lo general, la diferencia no es tan grande. Hice muchas mediciones y, a menudo, no podía ver la diferencia. Si usa código no administrado, muchas matrices enormes y cosas así, la diferencia de rendimiento es ligeramente mayor, pero no un mundo diferente (como en C ++). 2) Por lo general, en el código de lanzamiento se muestran menos errores (mayor tolerancia), por lo tanto, un interruptor debería funcionar bien.
fuente
fuente