De Wikipedia:
AIXI ['ai̯k͡siː] es un formalismo matemático teórico para la inteligencia artificial general. Combina la inducción de Solomonoff con la teoría de decisión secuencial. AIXI fue propuesto por primera vez por Marcus Hutter en 2000 [1] y los resultados a continuación se prueban en el libro de 2005 de Inteligencia Artificial Universal de Hutter. [2]
Aunque no son computables, las aproximaciones son posibles, como AIXItl . Encontrar aproximaciones a AIXI podría ser una forma objetiva para resolver la IA.
¿Es AIXI realmente un gran problema en la investigación de inteligencia general artificial ? ¿Puede pensarse como un concepto central para el campo? Si es así, ¿por qué no tenemos más publicaciones sobre este tema (o tal vez las tenemos y no estoy al tanto de ellas)?
Sí, es una gran contribución teórica a AGI. AFAIK, es el intento más serio de construir un marco teórico o una base para AGI. Obras similares son las máquinas Gödel de Schmidhuber y la arquitectura SOAR .
AIXI es un marco abstracto y no antropomórfico para AGI que se basa en el campo de aprendizaje de refuerzo, sin algunas suposiciones habituales (por ejemplo, sin las suposiciones de Markov y ergodicidad , lo que garantiza que el agente pueda recuperarse fácilmente de cualquier error que haya cometido en el pasado). Aunque se han demostrado algunas propiedades de optimización de AIXI, es (Turing) indisputable (no puede ejecutarse en una computadora), por lo que tiene una utilidad práctica muy limitada. No obstante, en el libro de Hutter Inteligencia Artificial Universal: Decisiones secuenciales basadas en probabilidad algorítmica(2005), donde se prueban rigurosamente varias propiedades de AIXI, también se describe una versión computable pero intratable de AIXI, AIXItl. Además, en el artículo A Monte Carlo AIXI Approximation (2009), de Joel Veness et al., Se introduce una aproximación computable y manejable de AIXI. Entonces, ha habido algunos intentos de hacer que AIXI sea prácticamente útil.
El artículo ¿Qué es AIXI? - Una introducción al aprendizaje de refuerzo general (2015), de Jan Leike, que es uno de los contribuyentes al desarrollo y la evolución del marco AIXI, ofrece una introducción suave al agente AIXI. Vea también The AIXI Architecture en la Stanford Encyclopedia of Philosophy para una introducción posiblemente más suave a AIXI.
Sí, la introducción de AIXI y la investigación relacionada ha contribuido a la evolución del campo AGI. Ha habido varias discusiones y artículos publicados, después de su introducción en 2000 por Hutter en el artículo A Theory of Universal Artificial Intelligence basado en la complejidad algorítmica .
Véase, por ejemplo, la sección 7, "Ejemplos de superinteligencias", del artículo Artificial General Intelligence and the Human Mental Model (2012), de Roman V. Yampolskiy y Joshua Fox. Consulte también https://wiki.lesswrong.com/wiki/AIXI, que contiene una discusión sobre algunos problemas relacionados con AIXI, que deben resolverse o posiblemente evitarse en futuros marcos AGI. Además, vea también este y estos artículos.
Ha habido varias publicaciones, principalmente por Marcus Hutter e investigadores asociados. Puede ver las publicaciones de Marcus Hutter en la siguiente página web: http://www.hutter1.net/official/publ.htm .
Si está interesado en contribuir a esta teoría, hay varias formas. Si tiene una buena educación matemática, puede intentar resolver algunos de los problemas descritos aquí (que también se mencionan en el libro de Hutter de 2005 mencionado anteriormente). Además, también puede contribuir a nuevas aproximaciones o mejoras de aproximaciones existentes del agente AIXI. Finalmente, puede construir su nuevo marco AGI evitando los problemas asociados con el marco AIXI. Ver también proyectos promovidos por Hutter . Puede ser una buena idea tener en cuenta también, por ejemplo, las máquinas Gödel y el trabajo relacionado, antes de intentar introducir un nuevo marco (siempre que sea capaz de hacerlo).
Creo que esta teoría no ha atraído a más personas probablemente porque es altamente técnica y matemática (por lo que no es muy fácil de entender a menos que tenga una formación muy sólida en aprendizaje de refuerzo, teoría de probabilidad, etc.). También creo que la mayoría de las personas (en la comunidad de IA) no están interesadas en las teorías, pero se guían principalmente por resultados prácticos y útiles.
fuente
AIXI es realmente un marco conceptual. Todavía queda todo el trabajo duro de comprimir el medio ambiente.
Para analizar más a fondo la pregunta planteada en la respuesta de Matthew Graves: dado nuestro limitado nivel actual de capacidad para representar entornos complejos, me parece que no hace mucha diferencia práctica si comienzas con AIXI como la definición de la "parte superior" de el sistema y trabajando hacia abajo (por ejemplo, a través de métodos de compresión supuestamente generalizados) o comience en la 'parte inferior' e intente resolver problemas en un solo dominio a través de métodos específicos de dominio que (es de esperar) pueden abstraerse posteriormente para proporcionar compresión entre dominios.
fuente