Esta pregunta proviene de bastantes fuentes "informales". Películas como 2001, A Space Odyssey y Ex Machina ; libros como Destination Void (Frank Herbert) y otros sugieren que la inteligencia general quiere sobrevivir, e incluso aprender la importancia de ello.
Puede haber varios argumentos para la supervivencia. ¿Cuál sería el más destacado?
Respuestas:
Steve Omohudro escribió un artículo llamado Unidades de IA básicas que explica por qué esperaríamos que una IA con objetivos limitados encuentre algunos conceptos básicos y generales como útiles para sus objetivos específicos.
Por ejemplo, una IA diseñada para maximizar los rendimientos del mercado de valores, pero cuyo diseño no menciona la importancia de continuar sobreviviendo, se daría cuenta de que su supervivencia continua es un componente clave para maximizar los rendimientos del mercado de valores y, por lo tanto, tomar medidas para mantenerse operativa.
En general, debemos ser escépticos de 'anthropomorphizing' AI y otros códigos, pero parece que no hay razones para esperar que esto más allá "así, los seres humanos se comportan de esta manera, por lo que debe ser cómo se comporta todas inteligencia."
fuente
El concepto de "instinto de supervivencia" probablemente cae en la categoría de lo que Marvin Minsky llamaría una "palabra maleta", es decir, agrupa una serie de fenómenos relacionados en lo que al principio parece ser una noción singular.
Por lo tanto, es muy posible que podamos construir mecanismos que tengan la apariencia de algún tipo de instinto de supervivencia 'codificado', sin que eso aparezca como una regla (s) explícita (s) en el diseño.
Vea el hermoso libro pequeño 'Vehículos' del neuroanatomista Valentino Braitenberg para una narrativa convincente de cómo podrían evolucionar conceptos 'de arriba abajo' como 'instinto de supervivencia' 'de abajo hacia arriba'.
Además, tratar de garantizar que los artefactos inteligentes otorguen una prioridad demasiado alta a su supervivencia podría conducir fácilmente a un Killbot Hellscape .
fuente
Contestaré citando el libro El mito de Sísifo :
Entonces, probablemente, necesitamos cierto grado de instinto de supervivencia si no queremos que nuestros AGI se "terminen" (lo que sea que eso signifique), siempre que se vuelvan existenciales.
fuente