¿No se puede decir que los modelos de aprendizaje profundo ahora son interpretables? ¿Son las características de los nodos?

27

Para los modelos estadísticos y de aprendizaje automático, existen múltiples niveles de interpretación: 1) el algoritmo en su conjunto, 2) partes del algoritmo en general 3) partes del algoritmo en entradas particulares, y estos tres niveles se dividen en dos partes cada uno, uno para entrenamiento y otro para la función eval. Las dos últimas partes están mucho más cerca que la primera. Estoy preguntando sobre el n. ° 2, que generalmente conduce a una mejor comprensión del n. ° 3). (Si eso no es lo que significa "interpretabilidad", ¿qué debería estar pensando?)

En cuanto a la interpretabilidad, la regresión logística es una de las más fáciles de interpretar. ¿Por qué esta instancia pasó el umbral? Porque esa instancia tenía esta característica positiva particular y tiene un coeficiente mayor en el modelo. ¡Es muy obvio!

Una red neuronal es el ejemplo clásico de un modelo que es difícil de interpretar. ¿Qué significan todos esos coeficientes significan ? Todos se suman de maneras tan locas y complicadas que es difícil decir qué hace realmente un coeficiente en particular.

Pero con todas las redes neuronales profundas que salen, parece que las cosas se están aclarando. Los modelos DL (por ejemplo, la visión) parecen capturar cosas como bordes u orientación en las primeras capas, y en las capas posteriores parece que algunos nodos son realmente semánticos (como la proverbial 'célula de la abuela' ). Por ejemplo:

ingrese la descripción de la imagen aquí

( de 'Aprender sobre el aprendizaje profundo' )

Este es un gráfico ( de muchos por ahí ) creado a mano para su presentación, así que soy muy escéptico. Pero es evidencia de que alguien piensa que así es como funciona.

Quizás en el pasado simplemente no había suficientes capas para que pudiéramos encontrar características reconocibles; los modelos fueron exitosos, pero no es fácil analizarlos post-hoc en particular.

Pero tal vez el gráfico es solo una ilusión. Quizás las NN son realmente inescrutables.

Pero los muchos gráficos con sus nodos etiquetados con imágenes también son realmente convincentes.

¿Los nodos DL realmente corresponden a las características?

Mitch
fuente
66
No veo la premisa de esta pregunta. El hecho de que las redes neuronales se hayan vuelto más complejas y den mejores predicciones no las hace más interpretables. Lo contrario suele ser cierto: complejidad / mejor predicción <-> simplicidad / mejor interpretación.
AdamO
44
@AdamO es exactamente correcto. Por eso, los árboles de regresión (partición recursiva) solo son interpretables porque los resultados son incorrectos . Están equivocados porque son volátiles; obtenga una nueva muestra y el árbol puede ser arbitrariamente diferente. Y los árboles individuales no son competitivos con respecto a la discriminación predictiva. La paternidad es a menudo el enemigo de la discriminación predictiva. Y a la pregunta original, en el campo biomédico, los resultados de AI / ML no han sido interpretables.
Frank Harrell
1
Ver este artículo Investigadores de IA afirman que el aprendizaje automático es alquimia sciencemag.org/news/2018/05/…
Mike Hunter
44
La pregunta en negrita en el cuerpo y la pregunta en su título son muy diferentes. Parece que todas las respuestas, incluida la mía, están abordando la pregunta en el título. ¿Quizás podría hacer la pregunta más estrecha sobre nodos y características en su propio hilo? Pero antes de hacerlo, considere que ya se ha vinculado a un documento que responde afirmativamente a su pregunta en negrita, así que considere qué, precisamente, le gustaría aprender en una respuesta antes de preguntar.
Sycorax dice Reinstate a Monica
@Sycorax El enlace que acabo de agregar es a una publicación de blog, no a un documento, por lo que soy muy escéptico de la opinión afirmativa. La variedad de interpretabilidad que pregunto sobre DL en el título considero que está en negrita en el texto.
Mitch

Respuestas:

30

La interpretación de modelos profundos sigue siendo un desafío.

  1. Su publicación solo menciona CNN para aplicaciones de visión por computadora, pero las redes de retroalimentación (profundas o poco profundas) y las redes recurrentes siguen siendo difíciles de entender.

  2. Incluso en el caso de las CNN que tienen estructuras obvias de "detector de características", como bordes y orientación de parches de píxeles, no es completamente obvio cómo estas características de nivel inferior se agregan hacia arriba, o qué sucede, precisamente, cuando estas características de visión se agregan en una capa completamente conectada.

  3. Los ejemplos adversarios muestran cómo la interpretación de la red es difícil. Un ejemplo de confrontación tiene una pequeña modificación, pero resulta en un cambio dramático en la decisión tomada por el modelo. En el contexto de la clasificación de imágenes, una pequeña cantidad de ruido agregado a una imagen puede cambiar la imagen de un lagarto para tener una clasificación altamente segura como otro animal, como un (especie de) perro.

Esto está relacionado con la interpretabilidad en el sentido de que existe una relación fuerte e impredecible entre la cantidad (pequeña) de ruido y el cambio (grande) en la decisión de clasificación. Pensando en cómo operan estas redes, tiene sentido: los cálculos en las capas anteriores se propagan hacia adelante, de modo que una serie de errores, pequeños errores sin importancia para un ser humano, se magnifican y acumulan a medida que se realizan más y más cálculos utilizando entradas "corruptas".

Por otro lado, la existencia de ejemplos adversos muestra que la interpretación de cualquier nodo como una característica o clase particular es difícil, ya que el hecho de que el nodo esté activado podría tener poco que ver con el contenido real de la imagen original, y que Esta relación no es realmente predecible en términos de la imagen original. Pero en las imágenes de ejemplo a continuación, ningún ser humano se engaña sobre el contenido de las imágenes: no confundirías la asta de la bandera con un perro. ¿Cómo podemos interpretar estas decisiones, ya sea en conjunto (un pequeño patrón de ruido "transmuta" un lagarto en perro, o un asta de bandera en un perro) o en piezas más pequeñas (que varios detectores de características son más sensibles al patrón de ruido que la imagen real contenido)?

HAAM es un nuevo método prometedor para generar imágenes adversas utilizando funciones armónicas. ("Método de Ataque Adversario Armónico" Wen Heng, Shuchang Zhou, Tingting Jiang.) Las imágenes generadas con este método pueden usarse para emular los efectos de iluminación / sombra y, en general, son aún más difíciles de detectar para los humanos por haber sido alteradas.

Como ejemplo, vea esta imagen, tomada de " Perturbaciones adversas universales ", por Seyed-Mohsen Moosavi-Dezfooli, Alhussein Fawzi, Omar Fawzi y Pascal Frossard. Elegí esta imagen solo porque era una de las primeras imágenes adversas que encontré. Esta imagen establece que un patrón de ruido particular tiene un efecto extraño en la decisión de clasificación de la imagen, específicamente que puede hacer una pequeña modificación en una imagen de entrada y hacer que el clasificador piense que el resultado es un perro. Tenga en cuenta que la imagen original subyacente sigue siendo obvia: en todos los casos, un humano no se confundirá al pensar que cualquiera de las imágenes que no son perros son perros. adversaria

Aquí hay un segundo ejemplo de un artículo más canónico, " EXPLICANDO Y APROVECHANDO EJEMPLOS ADVERSARIALES " por Ian J. Goodfellow, Jonathon Shlens y Christian Szegedy. El ruido agregado es completamente indistinguible en la imagen resultante, sin embargo, el resultado se clasifica con mucha confianza como el resultado incorrecto, un gibón en lugar de un panda. En este caso, al menos, hay al menos una similitud pasajera entre las dos clases, ya que los gibones y los pandas son al menos algo biológicamente y estéticamente similares en el sentido más amplio. panda

Este tercer ejemplo está tomado de " Detección de ejemplos adversarios generalizables basada en un desajuste de decisión bi-modelo " por João Monteiro, Zahid Akhtar y Tiago H. Falk. Establece que el patrón de ruido puede ser indistinguible para un humano y aun así confundir al clasificador.indistinguible

Como referencia, un mudpuppy es un animal de color oscuro con cuatro extremidades y una cola, por lo que realmente no se parece mucho a un pez dorado. mudpuppy

  1. Acabo de encontrar este artículo hoy. Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian Goodfellow, Rob Fergus. " Propiedades intrigantes de las redes neuronales ". El resumen incluye esta cita intrigante:

Primero, encontramos que no hay distinción entre unidades individuales de alto nivel y combinaciones lineales aleatorias de unidades de alto nivel, de acuerdo con varios métodos de análisis de unidades. Sugiere que es el espacio, en lugar de las unidades individuales, el que contiene la información semántica en las capas altas de las redes neuronales.

Entonces, en lugar de tener 'detectores de características' en los niveles más altos, los nodos simplemente representan coordenadas en un espacio de características que la red usa para modelar los datos.

Sycorax dice Reinstate Monica
fuente
2
Buenos puntos. Pero tenga en cuenta que incluso en los modelos más simples (logísticos, árboles de decisión) es oscuro por qué cualquier coeficiente / umbral particular es lo que es (pero esa no es la misma interpretabilidad que estaba preguntando). No del todo sin relación, ¿hay algún buen estudio / ejemplos adversos para lenguaje / RNN / LSTM?
Mitch
77
También señalaría que incluso modelos simples como la regresión logística son vulnerables a los ataques adversos. De hecho, Goodfellow et. Alabama. señala que son los modelos poco profundos los que carecen de la capacidad de resistir tales ataques. Sin embargo, todavía afirmamos ser capaces de interpretar la regresión logística.
shimao
2
buena respuesta, excepto por el punto 3 que es discutible por dos razones. 1) Rara vez se da el caso de que una imagen contradictoria sea ", para un humano, indistinguible de una imagen no modificada", a menos que ese humano tenga serios impedimentos visuales. Casi siempre se puede notar que la imagen tiene algún patrón de ruido agregado, especialmente en el fondo, que se asemeja estéticamente al llamado ruido JPEG (solo visualmente: las propiedades estadísticas reales de la perturbación son diferentes). Lo sorprendente no es que el clasificador no esté seguro de si es un gato de buena fe en lugar de, por ejemplo, un 1 /
DeltaIV corrupto
2
2 / imagen, pero es casi seguro que es un autobús. 2) ¿Cómo se relacionan los ejemplos adversos con la interpretabilidad? Los modelos lineales, los modelos lineales generalizados y también los árboles de decisión son susceptibles de ejemplos adversos. En realidad, es más fácil encontrar un ejemplo de confrontación que engañe a la regresión logística, en lugar de uno que engañe a ResNet. A pesar de esto, generalmente consideramos que (G) LM es un modelo interpretable, por lo que no asociaría la existencia de ejemplos adversos con la interpretabilidad de un modelo.
DeltaIV
3
@DeltaIV el punto no es que no puedas notar el ruido. Cada JPEG que se ha degradado demasiado tiene ruido. El punto es que el ruido se puede manipular para que el DNN haga locuras, cosas que no tienen sentido para un observador humano, incluso si se puede ver el ruido en sí.
Hong Ooi
13

Las capas no se asignan sucesivamente a características más abstractas tan claramente como nos gustaría. Una buena manera de ver esto es comparar dos arquitecturas muy populares.

VGG16 consta de muchas capas convolucionales apiladas una encima de la otra con la capa de agrupación ocasional, una arquitectura muy tradicional.

Desde entonces, las personas han pasado a diseñar arquitecturas residuales, donde cada capa está conectada no solo a la capa anterior, sino también a una (o posiblemente más) capas más abajo en el modelo. ResNet fue uno de los primeros en hacer esto, y tiene alrededor de 100 capas, dependiendo de la variante que use.

Si bien VGG16 y redes similares tienen capas que actúan de una manera más o menos interpretable, aprendiendo características de niveles cada vez más altos, ResNets no hace esto. En cambio, las personas han propuesto que sigan refinando las características para hacerlas más precisas o que solo sean un grupo de redes superficiales disfrazadas , ninguna de las cuales coincide con las "vistas tradicionales" de lo que aprenden los modelos profundos.

Si bien ResNet y arquitecturas similares superan fácilmente a VGG en la clasificación de imágenes y la detección de objetos, parece que hay algunas aplicaciones para las cuales la jerarquía de características ascendentes simples de VGG es muy importante. Ver aquí para una buena discusión.

Entonces, dado que las arquitecturas más modernas ya no parecen encajar en la imagen, diría que todavía no podemos decir que las CNN sean interpretables.

shimao
fuente
Presumiblemente, la topología completamente no diseñada / no diseñada de una red DL sería un gran conjunto ordenado parcial al azar, ingresar los sensores y emitir la función deseada (es decir, ningún intento de estratificación, dejar que el entrenamiento lo descubra). Los nodos aquí serían muy inescrutables. Pero, ¿eso no implica que cuanto más diseñada es una topología, más probable es que tenga cierta capacidad de interpretación?
Mitch
3
@Mitch Algunas arquitecturas recientes como Densenet parecen estar avanzando lentamente hacia el límite de tener cada capa conectada a cualquier otra capa, al igual que su "red no diseñada". Pero seguramente, ResNet y Densenet tienen un diseño más sofisticado que VGG16, pero se podría decir que son menos interpretables, así que no, no creo que más diseño signifique más interpretable. Posibles conexiones más dispersas significan más interpretables.
shimao
7

El tema de mi disertación de doctorado fue revelar las propiedades de caja negra de las redes neuronales, específicamente las redes neuronales de avance, con una o dos capas ocultas.

Asumiré el desafío de explicar a todos lo que significan los términos de peso y sesgo, en una red neuronal de alimentación de una capa. Se abordarán dos perspectivas diferentes: una paramétrica y una probabilística.

xinput=αx+βαβxinput(0,1)

  • 01
  • vv7

Dicha representación de sus datos de entrada es necesaria para poder interpretar el tamaño (valor absoluto) de los pesos en la capa de entrada.

Significado paramétrico:

  • 0
  • el peso de un nodo oculto a un nodo de salida indica que la amplificación ponderada de las variables de entrada que están en sentido absoluto más amplificadas por esa neurona oculta, que promueven o amortiguan el nodo de salida particular. El signo del peso indica promoción (positiva) o inhibición (negativa).
  • 132
  • β

1iltsil1Δj,k=∣wi,jwi,kijk

Los nodos ocultos más importantes son para un nodo de salida (hablando en frecuencias, sobre el conjunto de entrenamiento), ¿qué 'pesos de entrada multiplicados por frecuencias de entrada' son los más importantes? Luego nos acercamos a la importancia de los parámetros de las redes neuronales de retroalimentación.

Interpretación probabilística:

xinput

Caso individual - patrón

xinput[1,0,0,0,0,0,0][0,1,0,0,0,0,0], o cualquier otro día de la semana), y el resultado más probable cambia, entonces esa variable enumerada tiene influencia potencial en el resultado de la clasificación.

xinputxinputE(xinputxinput)xinputxinput

Inclinación profunda - y el significado de los parámetros NN

Cuando se aplica a la visión por computadora, las redes neuronales han mostrado un progreso notable en la última década. Las redes neuronales convolucionales introducidas por LeCunn en 1989 han resultado funcionar realmente bien en términos de reconocimiento de imágenes. Se ha informado que pueden superar a la mayoría de los otros enfoques de reconocimiento basados ​​en computadora.

Aparecen propiedades emergentes interesantes cuando las redes neuronales convolucionales están siendo entrenadas para el reconocimiento de objetos. La primera capa de nodos ocultos representa detectores de características de bajo nivel, similares a los operadores de espacio de escala T. Lindeberg, Detección de características con selección automática de escala, 1998 . Estos operadores de espacio de escala detectan

  • líneas,
  • esquinas,
  • Uniones en T

y algunas otras características básicas de la imagen.

Aún más interesante es el hecho de que se ha demostrado que las neuronas perceptivas en cerebros de mamíferos se parecen a esta forma de trabajar en los primeros pasos del procesamiento de imágenes (biológicas). Entonces, con las CNN, la comunidad científica se está acercando a lo que hace que la percepción humana sea tan fenomenal. Esto hace que valga la pena continuar esta línea de investigación.

Match Maker EE
fuente
Esto es interesante: ¿no parece que proporcionaría mucha capacidad de interpretación en el caso de características correlacionadas?
khol
El valor esperado E (.) También se conoce como el promedio de la distribución condicional, x_input dado x_-input, todas las demás variables. Por lo tanto, las correlaciones están completamente incorporadas en este concepto de influencia esperado. Tenga en cuenta que la independencia probabilística tiene una definición más amplia que 'correlación', esta última se define principalmente para los datos distribuidos gaussianos.
Match Maker EE
Agradable. ¿Es este tipo de generalización de una interpretación de la regresión logística a un conjunto de modelos de regresión apilados, uno que alimenta al siguiente?
Mitch
Un subconjunto de nodos ocultos puede actuar como un 'OR' lógico para una neurona de salida, o más como un 'AND' lógico. O ocurre cuando una activación de nodo oculto es suficiente para hacer que la neurona de salida se acerque a 1. Y ocurre cuando solo una suma de activaciones de nodo oculto puede hacer que la activación de nodo de salida se acerque a 1. Ya sea más 'OR' o más ' Y ', eso depende del vector de peso entrenado del' ventilador en ', al nodo de salida.
Match Maker EE