¿Cuáles son los componentes necesarios para que el agente de IA sea capaz de autoprogramarse?

9

A menudo se piensa que un agente de IA tiene "sensores", "una memoria", "procesadores de aprendizaje automático" y componentes de "reacción". Sin embargo, una máquina con estos no se convierte necesariamente en un agente de IA de auto programación. Más allá de las partes mencionadas anteriormente, ¿hay otros elementos o detalles necesarios para hacer que una máquina sea capaz de ser un agente de IA de autoprogramación?

Por ejemplo, un artículo de 2011 declaró que resolver el problema de optimización de maximizar la inteligencia es una característica imprescindible para el proceso de autoprogramación, como se cita a continuación:

Se dice que un sistema lleva a cabo una instancia de autoprogramación cuando se somete a aprendizaje con respecto a algún elemento de su "infraestructura cognitiva", donde este último se define como el conjunto difuso de características "críticas de inteligencia" del sistema; y la criticidad de la inteligencia de una característica del sistema se define como su "calidad de característica", considerada desde la perspectiva de resolver el problema de optimización de maximizar la inteligencia de un sistema multifunción.

Sin embargo, esta descripción de "optimización de la inteligencia" es vaga. ¿Alguien puede dar una definición clara o un mejor resumen de los componentes necesarios para los agentes de autoprogramación?

Esta pregunta es de la versión beta cerrada de 2014, con el solicitante con un UID de 23.

Mítico
fuente
3
Aquí está más o menos la última palabra sobre auto-optimización: arxiv.org/abs/cs/0309048
NietzscheanAI
Gracias por el renacimiento del contenido perdido y bueno en la versión beta perdida. :-)
peterh - Restablecer Monica

Respuestas:

5

Al más alto nivel, todo lo que necesita es que los diversos sistemas ya discutidos incorporen objetos de código. Si puede interpretar su arquitectura de código fuente / modelo a partir de los objetos de texto formateados que los sustentan, puede 'entenderlos' en términos de tener un modelo ML útil y alterar el código con su reacción, entonces puede autoprogramarse.

Es decir, el bucle básico detrás de una inteligencia que mejora recursivamente es simple. Se examina a sí mismo, escribe una nueva versión, y luego esa nueva versión se examina a sí misma y escribe una nueva versión, y así sucesivamente.

El componente difícil viene en niveles más bajos. No necesitamos inventar un nuevo concepto como 'sensor', lo que debemos hacer es construir sensores muy sofisticados que sean iguales a la tarea de comprender el código lo suficientemente bien como para detectar y escribir mejoras.

Matthew Graves
fuente
2
Aunque la reacción de la ciencia de la computación a las declaraciones sobre sistemas que entienden su propio código a menudo es para citar el problema de detención, resulta que los enfoques de IA tienen algo útil que decir al respecto: cs.stackexchange.com/questions/62393/ ...
NietzscheanAI
3
Correcto, el Problema de detención es un teorema de no ir para comprender completamente todo el código posible , pero no impide que uno comprenda bien la mayoría del código con el que realmente se encuentra.
Matthew Graves el
Siendo realistas, el problema de la detención solo se aplica realmente a las 'máquinas de torneado', que son construcciones matemáticas puras que realmente no pueden existir (requieren una cinta infinita para una memoria ilimitada, por ejemplo) y pueden ejecutarse por un tiempo infinito. Las computadoras del mundo real tienen cantidades limitadas de memoria. Hay formas de escribir software que pueden verificarse formalmente (Idris, Coq). Utilizando tipos dependientes. Limite el tamaño de una matriz (es decir, <la cantidad o ram). No permitir que un programa se modifique en la memoria de una manera que pueda violar las pruebas formales. No hay bucles infinitos. Sin bucle de bytes / dividir por cero. Etc ...
David C. Bishop