¿Por qué las redes neuronales se engañan fácilmente?

13

He leído algunos documentos sobre la creación manual de imágenes para "engañar" a una red neuronal (ver más abajo).

¿Es esto porque las redes solo modelan la probabilidad condicional ? Si una red puede modelar la probabilidad conjunta , ¿seguirán ocurriendo estos casos?pag(yEl |X)
pag(y,X)

Supongo que tales imágenes generadas artificialmente son diferentes de los datos de entrenamiento, por lo que son de baja probabilidad . Por lo tanto, debería ser bajo incluso si puede ser alto para tales imágenes.pag(X)pag(y,X)pag(yEl |X)

Actualizar

He probado algunos modelos generativos, resultó no ser útil, así que supongo que probablemente esto sea una consecuencia de MLE.

Quiero decir, en el caso de que la divergencia KL se use como la función de pérdida, el valor de donde es pequeño no afecta la pérdida. Entonces, para una imagen artificial que no coincide con , el valor de puede ser arbitrario.pagθ(X)pagreuntun(X)pagreuntunpagθ

Actualizar

Encontré un blog de Andrej Karpathy que muestra

Estos resultados no son específicos de las imágenes, ConvNets, y tampoco son un "defecto" en Deep Learning.

ingrese la descripción de la imagen aquí
EXPLICANDO Y APROVECHANDO EJEMPLOS ADVERSARIOS Las redes neuronales profundas se engañan fácilmente: predicciones de alta confianza para imágenes irreconocibles
ingrese la descripción de la imagen aquí

dontloo
fuente
¿La pregunta parece ser DNN en lugar de NN en general?
Matthew Gunn
@MatthewGunn No estoy seguro, según la respuesta de seanv507, parece un problema más general.
dontloo
@MattewGunn explicando y aprovechando el papel de ejemplos adversos - los espectáculos se aplican también a la regresión logística
seanv507

Respuestas:

10

El tipo de modelos a los que se refiere se denominan modelos 'generativos' en lugar de discriminatorios, y en realidad no se escalan a datos de alta dimensión. Parte del éxito de NN en las tareas de lenguaje es el cambio de un modelo generativo (HMM) a un modelo 'más' discriminatorio (por ejemplo, MEMM usa regresión logística que permite que los datos contextuales se utilicen de manera efectiva https://en.wikipedia.org/ wiki / Hidden_Markov_model # Extensiones )

Yo diría que la razón por la que se engañan es un problema más general. Es el dominio actual de la IA "superficial" impulsada por ML sobre métodos más sofisticados. [en muchos de los documentos se menciona que otros modelos de ML también se engañan fácilmente - http://www.kdnuggets.com/2015/07/deep-learning-adversarial-examples-misconceptions.html - Ian Goodfellow]

El "modelo de lenguaje" más eficaz para muchas tareas es la "bolsa de palabras". Nadie afirmaría que esto representa un modelo significativo del lenguaje humano. No es difícil imaginar que este tipo de modelos también se engañen fácilmente.

Del mismo modo, las tareas de visión por computadora, como el reconocimiento de objetos, fueron revolucionadas por la 'bolsa visual de palabras' que eliminó los métodos más intensivos en computación (que no podían aplicarse a conjuntos de datos masivos).

CNN: diría que es una mejor 'bolsa visual de palabras': como muestra en sus imágenes, los errores se cometen en las funciones de nivel de píxel / nivel bajo; a pesar de toda la hipérbole, no hay una representación de alto nivel en las capas ocultas (todos cometen errores, el punto es que una persona cometería "errores" debido a características de nivel superior y, por ejemplo, reconocería una caricatura de un gato, lo cual no hago) No creo que un NN lo haría).

Un ejemplo de un modelo más sofisticado de visión por computadora (que funciona peor que NN) es, por ejemplo, el modelo de 'partes deformables'.

seanv507
fuente
4

Hasta donde yo sé, la mayoría de las redes neuronales no utilizan una distribución de probabilidad a priori sobre las imágenes de entrada. Sin embargo, podría interpretar que la selección del conjunto de entrenamiento es una distribución de probabilidad. En esa vista, es poco probable que estas imágenes generadas artificialmente se seleccionen como imágenes en el conjunto de prueba. Una forma de medir la 'probabilidad conjunta' sería generar imágenes al azar y luego etiquetarlas. El problema sería que la gran mayoría, VAST, no tendría etiqueta. Por lo tanto, obtener un número razonable de ejemplos etiquetados llevaría demasiado tiempo.

dimpol
fuente
gracias por responder :) No estoy muy seguro de lo que significa "Una forma de medir la 'probabilidad conjunta' sería generar imágenes al azar y luego etiquetarlas". Quiere decir etiquetar imágenes al azar manualmente (como otra categoría )?
dontloo
1
Me refiero a generar imágenes eligiendo los valores RGB de cada píxel al azar. Eso significaría que la imagen de panda superior derecha en su publicación y la imagen de panda "gibón" superior izquierda tendrían la misma probabilidad de ser generadas. El problema con esto es que cada píxel tiene 2 ^ 24 colores posibles y la gran mayoría de las imágenes generadas serían absurdas. En el momento en que generó incluso una sola imagen que podría etiquetarse como "panda", el universo se habría ido.
dimpol
oh ya veo, eso parece mucho trabajo por hacer, de todos modos gracias.
dontloo