¿Existe algún argumento científico / matemático que evite que el aprendizaje profundo produzca una IA fuerte?

12

Leí El libro del por qué de Judea Pearl , en el que menciona que el aprendizaje profundo es solo una tecnología de ajuste de curvas glorificada, y no podrá producir inteligencia similar a la humana.

De su libro existe este diagrama que ilustra los tres niveles de habilidades cognitivas:

Tres niveles de habilidades cognitivas.

La idea es que la "inteligencia" producida por la tecnología actual de aprendizaje profundo está solo en el nivel de asociación. Por lo tanto, la IA no se acerca al nivel de hacer preguntas como "¿cómo puedo hacer que Y suceda?" (Intervención) y "¿Qué pasa si he actuado de manera diferente, X seguirá ocurriendo?" (contrafactuals), y es muy poco probable que las técnicas de ajuste de curvas puedan acercarnos a un nivel más alto de capacidad cognitiva.

Encontré su argumento persuasivo en un nivel intuitivo, pero no puedo encontrar ninguna ley física o matemática que pueda reforzar o poner en duda este argumento.

Entonces, ¿hay algún argumento científico / físico / químico / biológico / matemático que evite que el aprendizaje profundo produzca una IA (inteligencia humana) fuerte?

Graviton
fuente
Hace unas horas, tuvimos algún tipo de consulta que habla sobre neurociencia e inteligencia artificial, por lo que creo que esta pregunta encaja perfectamente en las aplicaciones de datos, además del aprendizaje automático.
quintumnia
1
Uno de los problemas a los que se enfrenta al responder esto es que el "Aprendizaje profundo" es un tipo de marca, donde las cosas que se hacen con redes neuronales que van más allá del ajuste de la curva estadística, por ejemplo, RNN para secuencias de aprendizaje y "aprendizaje de refuerzo profundo", pueden También se considerará parte de ella por los adherentes. Si permite que el término evolucione de esta manera, es muy difícil determinar cualquier argumento sobre sus capacidades.
Neil Slater
teorema de incompletitud de
godel
2
@thecomplexitytheorist: la incompletitud de Godel, el problema entscheidungs ​​y similares, todos ellos también se aplican a la mente humana. Como conclusión, si eran una razón para no llegar a la IA, entonces ninguno de los humanos es inteligente. Modus tollens, Godels no es un problema en el camino hacia AGI
pasaba por aqui
¿Quién puede decir que 'Hacer' e 'Imaginar' tampoco son simplemente 'Ajuste de curvas' en el cerebro?
Dunk

Respuestas:

3

El comentario de Judea Pearl en 2018 en ACM.org, en su libro Construir máquinas verdaderamente inteligentes, Enseñarles causa y efecto es penetrante.

Todos los logros impresionantes del aprendizaje profundo equivalen a un ajuste de curva.

Rn

  1. Las redes artificiales no pueden realizar la lógica.
  2. Las redes artificiales son el mejor enfoque para la IA.

¿Cómo puede excluirse la racionalidad de la lista de características humanas importantes de la inteligencia, que es lo que significarían estas dos afirmaciones juntas?

¿Es el cerebro humano una red de ajustadores de curvas sofisticados? La famosa cita de Marvin Minsky, "El cerebro resulta ser una máquina de carne", se ofreció sin una prueba, y desde entonces no se ha ofrecido ni una prueba de su trivialización del cerebro humano ni una prueba de que el cerebro está fuera del alcance de la computabilidad de Turing. .

Cuando lee estas palabras, ¿están sus redes neuronales haciendo la siguiente secuencia de ajustes de curva?

  • Bordes de bastones y conos retinianos
  • Líneas desde bordes
  • Formas de líneas
  • Letras de formas
  • Elementos lingüísticos de grupos de letras.
  • Estructuras lingüísticas a partir de elementos.
  • Comprensión de las estructuras lingüísticas.

El caso es fuerte para la afirmación de que los primeros cinco son un mecanismo de convergencia en un modelo, y toda la estructura de aprendizaje automático es solo un método para ajustar los datos al modelo.

Esos dos últimos elementos de la viñeta son donde se rompe el paradigma y donde muchos investigadores y autores de IA han declarado correctamente que el aprendizaje automático tiene limitaciones significativas cuando se basa únicamente en perceptrones de capas múltiples y núcleos de convolución. Además, el último elemento de viñeta está excesivamente simplificado en su estado actual, probablemente por órdenes de magnitud. Incluso si Minsky tiene razón en que una computadora puede realizar lo que hace el cerebro, el proceso de lectura y comprensión de este párrafo podría tener fácilmente miles de diferentes tipos de componentes de proceso únicos en patrones de flujo de trabajo interno con paralelismo masivo. La tecnología de imagen indica esta probabilidad. Tenemos computadoras que modelan solo las capas periféricas más simples.

¿Existe algún argumento científico / matemático que evite que el aprendizaje profundo produzca una IA fuerte? - No. Pero tampoco existe tal argumento que lo garantice.

Otras preguntas aquí investigan si estos ajustadores de curvas sofisticados pueden realizar elementos de cognición o razonamiento.

El tótem de tres en la imagen de la pregunta, ver, hacer e imaginar, no es particularmente completo, preciso o perspicaz.

  • Hay al menos cinco paradigmas sensoriales en humanos, no uno
  • Hacer los sentidos humanos precedidos por miles de millones de años - bacteria do
  • Imaginar no es un proceso significativamente más alto que la repetición de escenarios de modelos de experiencias pasadas con algún método para aplicar funciones establecidas para combinarlas e inyectar mutaciones aleatorias
  • La creatividad puede estar imaginando en el artículo anterior seguido de eliminar resultados de imaginación inútiles con algunos criterios de calidad orientados al mercado, dejando los impresionantes productos creativos que venden

Las formas superiores son la apreciación, el sentido de las realidades más allá del alcance de la medición científica, la duda legítima, el amor, el sacrificio por el bien de los demás o la humanidad.

Muchos reconocen que el estado actual de la tecnología de inteligencia artificial no está cerca de la adquisición de un sistema que pueda responder de manera confiable: "¿Cómo puedo hacer que Y suceda?" o "Si he actuado de manera diferente, ¿seguirá ocurriendo X?"

No existe una prueba matemática de que alguna combinación de elementos pequeños de ajuste de curvas pueda o no lograr la capacidad de responder esas preguntas tan bien como un ser humano típico, principalmente porque no hay una comprensión suficiente de qué es la inteligencia o cómo definirla en términos matemáticos.

También es posible que la inteligencia humana no exista en absoluto, que las referencias a ella se basen en una creencia religiosa de que somos superiores como especie que otras especies. Que podamos poblar, consumir y exterminar no es en realidad una concepción muy inteligente de la inteligencia.

La afirmación de que la inteligencia humana es una adaptación que nos diferencia de otros mamíferos entra en conflicto con si nos adaptamos bien. No hemos sido probados. Venga el próximo asesino meteórico global con una onda expansiva de la magnitud del meteorito del cráter Chicxulub, seguido de unos pocos y miles de años de invierno solar y veremos si es nuestra existencia de 160,000 años o la existencia de 4,000,000,000 años de bacterias que resulta más sostenible En la línea de tiempo de la vida, la inteligencia humana aún no ha demostrado ser significativa como un rasgo adaptativo.

Lo que está claro sobre el desarrollo de IA es que otros tipos de sistemas están desempeñando un papel junto con los aprendices profundos basados ​​en el concepto de perceptrón multicapa y los núcleos de convolución que son estrictamente adaptadores de superficie.

Los componentes de Q-learning, los componentes basados ​​en la atención y los componentes de memoria a corto y largo plazo también son estrictamente ajustadores de superficie, pero solo al estirar considerablemente la definición de ajuste de superficie. Tienen propiedades y estado adaptativos en tiempo real, por lo que pueden completarse.

Los contenedores de lógica difusa, los sistemas basados ​​en reglas, los algoritmos con propiedades de Markovian y muchos otros tipos de componentes también juegan su papel y no son adaptadores de superficie en absoluto.

En resumen, hay puntos que se basan en algo más que la plausibilidad o una calidad intuitiva agradable, sin embargo, muchos de estos autores no proporcionan un marco matemático con definiciones, aplicaciones, lemas, teoremas, pruebas o incluso experimentos de pensamiento que pueden ser examinado de manera formal.

Douglas Daseeco
fuente
1

Es una paradoja, pero una máquina de aprendizaje profundo (definida como una variante de NeuralNet) no puede aprender nada. Es una arquitectura de hardware / software flexible y configurable que se puede parametrizar para resolver muchos problemas. Pero los parámetros óptimos para resolver un problema se obtienen mediante un sistema externo, es decir, un algoritmo de retropropagación.

El subsistema de propagación hacia atrás utiliza paradigmas de programación convencionales, no es una red neuronal. Este hecho está en oposición absoluta a la mente humana, donde el aprendizaje y el uso del conocimiento se realiza por el mismo sistema (la mente).

Si todas las cosas realmente interesantes se hacen fuera del NN, es difícil afirmar que se puede desarrollar un NN (en cualquier variante) en un AGI.

También es posible encontrar algunas diferencias más. Las redes neuronales son fuertemente numéricas en su interfaz y componentes internos. Desde este punto de vista, son una evolución de las máquinas de vectores de soporte.

Demasiadas diferencias y restricciones para esperar un AGI.

Nota: Estoy totalmente en desacuerdo en el sorteo incluido en la pregunta original. "Ver", "hacer", "imágenes" son niveles absolutamente incorrectos. Ignora los conceptos básicos y comunes de software como "abstracción" o "estado del programa" (mentalmente, en palabras de Turing); AI aplicado como "prever"; y AGI como "libre albedrío", "objetivos y sentimientos", ...

pasaba por aqui
fuente
44
Creo que eliminar la propagación hacia atrás (o cualquier parte del marco de capacitación) de la consideración, y afirmar que la parte restante es la parte de "Aprendizaje profundo" es artificial, y esquiva la pregunta. Creo que es razonable suponer que OP significa aprendizaje profundo tal como se practica, incluidos los procesos de capacitación disponibles.
Neil Slater
1
@NeilSlater: Si decimos que un DL es una especie de NeuralNet (para destacar la similitud con la mente humana y, como consecuencia, su posible poder para alcanzar un AGI), estamos excluyendo la parte de aprendizaje, eso no es un NN . Si incluimos el subsistema de aprendizaje en la definición de un DL, entonces no es un NN, es solo una programación convencional, con el poder de cualquier programa convencional, y tiene las mismas posibilidades de alcanzar AGI que cualquier otro sistema o paradigma de programa.
pasaba por aqui
Los cerebros humanos aprenden al recibir y procesar datos de 'sistemas' externos exclusivamente. Los parámetros óptimos para resolver problemas se obtienen a través de prueba y error, aplicando reglas y procesando datos de sistemas externos. El entrenamiento comienza mientras el bebé aún está en el útero y continúa 24/7 a partir de entonces. Es casi seguro que el estado actual de la IA no es comparable a emular el cerebro humano; Pero afirmar que la IA no puede aprender (o que no está aprendiendo de manera similar al cerebro humano) supone un conocimiento de cómo el cerebro humano 'aprende' y funciona que la ciencia aún no sabe.
Dunk