Una "inteligencia general" puede ser capaz de aprender muchas cosas diferentes, pero poseer capacidad no es lo mismo que tenerla. El "AGI" debe aprender ... y ese proceso de aprendizaje puede llevar tiempo. Si desea que un AGI conduzca un automóvil o juegue Go, debe encontrar alguna forma de "enseñarlo". Tenga en cuenta que nunca hemos construido AGI, por lo que no sabemos cuánto tiempo puede durar el proceso de capacitación, pero sería seguro asumir estimaciones pesimistas.
Contraste eso con una "inteligencia estrecha". La inteligencia artificial ya sabe cómo conducir un automóvil o jugar Go. Se ha programado para ser muy excelente en una tarea específica. No necesita preocuparse por entrenar la máquina, porque ya ha sido entrenada previamente.
Una "inteligencia general" parece ser más flexible que una "inteligencia estrecha". Puede comprar un AGI y hacer que conduzca un automóvil y juegue Go. Y si está dispuesto a hacer más capacitación, incluso puede enseñarle un nuevo truco: cómo hornear un pastel . No tengo que preocuparme por que surjan tareas inesperadas, ya que el AGI eventualmente descubrirá cómo hacerlo, dado el tiempo de capacitación suficiente. Aunque tendría que esperar mucho tiempo .
Una "inteligencia estrecha" parece ser más eficiente en su tarea asignada, debido a que está programada específicamente para esa tarea. Sabe exactamente qué hacer y no tiene que perder el tiempo "aprendiendo" (a diferencia de nuestro amigo AGI aquí). En lugar de comprar un AGI para manejar mal un montón de tareas diferentes, prefiero comprar un montón de IA estrechas especializadas. Narrow AI # 1 conduce autos, Narrow AI # 2 juega Go, Narrow AI # 3 hornea pasteles, etc. Dicho esto, este es un enfoque muy frágil, ya que si surge una tarea inesperada, ninguna de mis IA estrechas podría para manejarlo Sin embargo, estoy dispuesto a aceptar ese riesgo.
¿Es correcto mi "pensamiento"? ¿Existe una compensación entre flexibilidad (AGI) y eficiencia (IA estrecha), como lo que acabo de describir anteriormente? ¿O es teóricamente posible que un AGI sea flexible y eficiente?
Respuestas:
El resultado más claro que tenemos sobre este tema es el teorema de "no almuerzo gratis" . Básicamente, para que un sistema funcione mejor en una tarea específica, debe degradar su rendimiento en otras tareas, por lo que hay una compensación de flexibilidad y eficiencia.
Pero para la pregunta más amplia, o si tu pensamiento es correcto o no, creo que vale la pena mirar más de cerca lo que quieres decir con una "inteligencia estrecha". Los sistemas de inteligencia artificial que tenemos que juegan Go y conducen autos no aparecieron para hacer esas cosas; lentamente aprendieron cómo a través de muchos ejemplos de capacitación y una arquitectura bien elegida que refleja el dominio del problema.
Es decir, las "redes neuronales" como metodología parecen "generales" de manera significativa; Uno podría imaginar que se podría formar una inteligencia general resolviendo el problema del metaaprendizaje (es decir, aprendiendo la arquitectura que mejor se adapta a un problema particular mientras se aprenden los pesos para ese problema a partir de los datos de entrenamiento).
Incluso en ese caso, seguirá habiendo una compensación flexibilidad-eficiencia; La inteligencia general que puede variar su arquitectura será capaz de resolver muchos problemas diferentes, pero tomará un tiempo descubrir qué problema enfrenta. Una inteligencia encerrada en una arquitectura particular funcionará bien en problemas para los que la arquitectura es adecuada (mejor que la general, ya que no necesita descubrirse) pero menos bien en otros problemas para los que no es tan adecuada.
fuente
Como Matthew Graves explicó en otra respuesta, el teorema de no almuerzo gratis confirma la flexibilidad, la compensación de eficiencia. Sin embargo, este teorema describe una situación en la que tiene un conjunto de tareas completamente independientes. Esto a menudo no se cumple, ya que muchos problemas diferentes son equivalentes en su núcleo o al menos tienen cierta superposición. Luego puede hacer algo llamado "aprendizaje de transferencia", lo que significa que al entrenar para resolver una tarea, también aprenderá algo sobre cómo resolver otra (o posiblemente múltiples tareas diferentes).
Por ejemplo, en Policy Distillation de Rusu et al. lograron "destilar" el conocimiento de diferentes redes de expertos en una red general que finalmente superó a cada uno de los expertos. Los expertos fueron entrenados para tareas específicas, mientras que el generalista aprendió la política final de estos "maestros".
fuente
Parece que sí. Un ejemplo, aunque no específicamente relacionado con la IA, se ve en la diferencia entre las computadoras digitales y las computadoras analógicas . Casi todo lo que consideramos hoy como una "computadora" es una computadora digital con una arquitectura von Neumann. Y eso se debe a que las cosas tienen un propósito tan general que pueden programarse fácilmente para hacer, esencialmente, cualquier cosa. Pero las computadoras analógicas pueden (o podrían, en los años 60 o alrededor) resolver algunos tipos de problemas más rápido que una computadora digital. Pero cayeron en desgracia exactamente debido a esa falta de flexibilidad. Nadie quiere conectar a mano circuitos con amplificadores operacionales y comparadores para resolver por y .
fuente