¿Las leyes de Asimov tienen fallas de diseño o son factibles en la práctica?

19

Las famosas Tres leyes de la robótica de Isaac Asimov se originaron en el contexto de las historias de ciencia ficción de Asimov. En esas historias, las tres leyes sirven como medida de seguridad, para evitar que situaciones inoportunas o manipuladas exploten en estragos.

La mayoría de las veces, las narrativas de Asimov encontrarían una manera de romperlas, lo que llevaría al escritor a hacer varias modificaciones a las leyes mismas. Por ejemplo, en algunas de sus historias, modificó la Primera Ley , agregó una Cuarta (o Zeroth) Ley , o incluso eliminó todas las Leyes por completo .

Sin embargo, es fácil argumentar que, en la cultura popular, e incluso en el campo de la investigación de IA, las Leyes de la robótica se toman muy en serio. Ignorando el problema secundario de las interpretaciones diferentes, subjetivas y mutuamente excluyentes de las leyes, ¿hay algún argumento que demuestre que las leyes mismas son intrínsecamente defectuosas por su diseño o, como alternativa, lo suficientemente fuertes como para usarlas en la realidad? Del mismo modo, ¿se ha diseñado un conjunto de heurísticas de seguridad mejor y más estricto para este propósito?

3442
fuente
¡Cuidado con el Killbot Hellscape! xkcd.com/1613
NietzscheanAI
No debemos olvidar esta posibilidad: xkcd.com/1450
dynrepsys
Las leyes de Asimov son solo un pequeño intento de comenzar la discusión. Para una discusión mucho más exhaustiva, lea "Superinteligencia" de Nick Bostrom, que es tan exhaustivo como se basa en el conocimiento y la comprensión actuales.
Florin Andrei el

Respuestas:

12

Las leyes de Asimov no son lo suficientemente fuertes como para ser utilizadas en la práctica. La fuerza ni siquiera es una consideración, cuando se considera que, dado que están escritas en palabras en inglés, primero tendrían que interpretarse subjetivamente para tener algún significado. Puede encontrar una buena discusión sobre esto aquí .

Para transcribir un extracto:

¿Cómo define estas cosas? ¿Cómo se define "humano", sin tener que tomar una posición sobre casi todos los temas? Y si "humano" no fue lo suficientemente difícil, entonces tienes que definir "daño", y tienes el mismo problema nuevamente. Casi todas las definiciones inequívocas realmente sólidas que das para esas palabras, que no dependen de la intuición humana, resultan en extrañas peculiaridades de filosofía, lo que lleva a que tu IA haga algo que realmente no quieres que haga.

Uno puede imaginar fácilmente que Asimov era lo suficientemente inteligente como para saber esto y estaba más interesado en escribir historias que en diseñar protocolos de control de IA del mundo real.

En la novela Neuromancer , se sugirió que las IA posiblemente podrían servir como controles entre sí. La inminente Singularidad de Ray Kurzweil , o la posibilidad de AGI hiperinteligentes de lo contrario, podría no dejar mucha posibilidad para que los humanos controlen las IA, dejando la regulación por pares como la única posibilidad posible.

Vale la pena señalar que Eliezer Yudkowsky y otros realizaron un experimento en el que Yudkowsky desempeñó el papel de una IA superinteligente con la capacidad de hablar, pero no otra conexión fuera de una caja cerrada. Los retadores tenían la tarea de mantener la IA en la caja a toda costa. Yudkowsky escapó las dos veces.

dynrepsys
fuente
¿Sabes si alguna vez se publicó alguna transcripción de los experimentos de Yudkowsky? El enlace que proporciona (y el intercambio de correo electrónico al que se vincula) no parece proporcionar uno.
NietzscheanAI
@ user217281728 No, lo busqué pero parece que lo está manteniendo, es decir, su estrategia en secreto para mantener la posibilidad de hacerlo nuevamente. Tengo algunas ideas sobre lo que dijo y por qué pienso eso, que estaría feliz de compartir si me envía un mensaje.
dynrepsys
Ya he hecho esto.
NietzscheanAI
Tengo la impresión de que Asimov era lo suficientemente inteligente como para saber esto, pero el punto era que las reglas simples no funcionan. Señalar ejemplos negativos ("no se puede simplemente decir que no dañe a las personas, eso no funcionará") es un trabajo útil de control de IA en el mundo real por derecho propio.
Matthew Graves
2

Asimov hizo las tres leyes específicamente para demostrar que no hay tres leyes suficientes, por muy razonables que parezcan al principio. Conozco a un tipo que lo conocía y lo confirmó.

Doxosophoi
fuente
2
"Conozco a un chico que lo conocía" ... ¿No tienes una fuente un poco más confiable? No dudo de su respuesta, pero seguramente ya debería existir una cita adecuada al respecto.
3442
Se llamaba Ben Williams. Esta es la publicación de Google Plus donde describió sus opiniones sobre Asimov y las Tres Leyes: plus.google.com/+JohnNewmanIII/posts/HeTnPdhaY9p
Doxosophoi
0

Considere la primera ley de robótica de Asimov:

Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.

Esa ley ya es problemática cuando se toman en consideración los autos sin conductor.

¿Cuál es el problema aquí, preguntas? Bueno, probablemente esté familiarizado con el clásico experimento de pensamiento en ética conocido como el problema del carro . La forma general del problema es esta:

El carro se dirige directamente hacia ellos. Estás parado a cierta distancia en el patio del tren, al lado de una palanca. Si tira de esta palanca, el carro cambiará a un conjunto diferente de pistas. Sin embargo, observa que hay una persona en la vía lateral. Tienes dos opciones: (1) No hacer nada, y el carrito mata a las cinco personas en la pista principal. (2) Tire de la palanca, desviando el carro hacia la pista lateral donde matará a una persona. ¿Cuál es la elección correcta?

fuente: Wikipedia

Los autos sin conductor necesitarán implementar variaciones de la vida real en el problema del carro, lo que básicamente significa que los autos sin conductor deben programarse para matar seres humanos .

Por supuesto, eso no significa que TODOS los robots necesitarán ser programados para matar, pero los autos autónomos son un buen ejemplo de un tipo de robot que lo hará.

John Slegers
fuente