Las famosas Tres leyes de la robótica de Isaac Asimov se originaron en el contexto de las historias de ciencia ficción de Asimov. En esas historias, las tres leyes sirven como medida de seguridad, para evitar que situaciones inoportunas o manipuladas exploten en estragos.
La mayoría de las veces, las narrativas de Asimov encontrarían una manera de romperlas, lo que llevaría al escritor a hacer varias modificaciones a las leyes mismas. Por ejemplo, en algunas de sus historias, modificó la Primera Ley , agregó una Cuarta (o Zeroth) Ley , o incluso eliminó todas las Leyes por completo .
Sin embargo, es fácil argumentar que, en la cultura popular, e incluso en el campo de la investigación de IA, las Leyes de la robótica se toman muy en serio. Ignorando el problema secundario de las interpretaciones diferentes, subjetivas y mutuamente excluyentes de las leyes, ¿hay algún argumento que demuestre que las leyes mismas son intrínsecamente defectuosas por su diseño o, como alternativa, lo suficientemente fuertes como para usarlas en la realidad? Del mismo modo, ¿se ha diseñado un conjunto de heurísticas de seguridad mejor y más estricto para este propósito?
fuente
Respuestas:
Las leyes de Asimov no son lo suficientemente fuertes como para ser utilizadas en la práctica. La fuerza ni siquiera es una consideración, cuando se considera que, dado que están escritas en palabras en inglés, primero tendrían que interpretarse subjetivamente para tener algún significado. Puede encontrar una buena discusión sobre esto aquí .
Para transcribir un extracto:
Uno puede imaginar fácilmente que Asimov era lo suficientemente inteligente como para saber esto y estaba más interesado en escribir historias que en diseñar protocolos de control de IA del mundo real.
En la novela Neuromancer , se sugirió que las IA posiblemente podrían servir como controles entre sí. La inminente Singularidad de Ray Kurzweil , o la posibilidad de AGI hiperinteligentes de lo contrario, podría no dejar mucha posibilidad para que los humanos controlen las IA, dejando la regulación por pares como la única posibilidad posible.
Vale la pena señalar que Eliezer Yudkowsky y otros realizaron un experimento en el que Yudkowsky desempeñó el papel de una IA superinteligente con la capacidad de hablar, pero no otra conexión fuera de una caja cerrada. Los retadores tenían la tarea de mantener la IA en la caja a toda costa. Yudkowsky escapó las dos veces.
fuente
Asimov hizo las tres leyes específicamente para demostrar que no hay tres leyes suficientes, por muy razonables que parezcan al principio. Conozco a un tipo que lo conocía y lo confirmó.
fuente
Considere la primera ley de robótica de Asimov:
Esa ley ya es problemática cuando se toman en consideración los autos sin conductor.
¿Cuál es el problema aquí, preguntas? Bueno, probablemente esté familiarizado con el clásico experimento de pensamiento en ética conocido como el problema del carro . La forma general del problema es esta:
Los autos sin conductor necesitarán implementar variaciones de la vida real en el problema del carro, lo que básicamente significa que los autos sin conductor deben programarse para matar seres humanos .
Por supuesto, eso no significa que TODOS los robots necesitarán ser programados para matar, pero los autos autónomos son un buen ejemplo de un tipo de robot que lo hará.
fuente