Soy un estudiante de doctorado en ciencias de la computación, y actualmente estoy creando una visión general del estado del arte en aplicaciones realizadas en Ética de la máquina (un campo multidisciplinario que combina filosofía e inteligencia artificial, que busca crear programas o agentes éticos explícitos). Parece que el campo contiene principalmente argumentos teóricos y hay implementaciones relativamente pequeñas, a pesar de que hay muchas personas con antecedentes técnicos en el campo.
Entiendo que debido a que la ética está involucrada, no hay una verdad fundamental y dado que es parte de la filosofía, uno puede perderse discutiendo sobre qué tipo de ética debe implementarse y cómo se puede hacer esto mejor. Sin embargo, en informática, es habitual incluso intentar una implementación simple para mostrar las posibilidades o limitaciones de su enfoque.
¿Cuáles son las posibles razones por las que se hace tan poco en implementar explícitamente la ética en la IA y experimentar con ella?
fuente
Respuestas:
Esta es necesariamente una respuesta de alto nivel y altamente especulativa, pero he estado pensando en esta pregunta, y aquí están mis pensamientos:
Después del famoso fracaso de Russell y Whitehead y el teorema de incompletitud de Gödel, esto parece ser problemático.
Por lo tanto, lo ves en autos sin conductor porque los ingenieros no tienen más remedio que lidiar con el problema. Por el contrario, no creo que vea muchas firmas algorítmicas de comercio de acciones, donde el negocio es la eficiencia de Pareto , preocupándose por la ética o los impactos sociales de la especulación financiera. (La solución a los "bloqueos repentinos" parece haber sido reglas para la suspensión temporal del comercio, en lugar de abordar el valor social del comercio algorítmico de alta frecuencia). Un ejemplo más obvio es que las compañías de medios sociales ignoran las cantidades extremas de abuso de información (desinformación y desinformación) que se publican en sus sitios, alegando ignorancia, lo cual es altamente sospechoso porque la actividad generada por el abuso de información afecta positivamente sus resultados.
La directiva principal de las corporaciones es devolver una ganancia a los inversores. No es raro que las corporaciones infrinjan la ley cuando se espera que las multas y sanciones sean menores que las ganancias obtenidas por la actividad ilegal. (Existe el concepto de ética en los negocios, pero la cultura en general parece juzgar a las personas y a las empresas en función de cuánto dinero ganan, independientemente de los medios).
Si las superinteligencias evolucionan y aniquilan a la humanidad (como nos advierten algunas personas muy inteligentes con habilidades matemáticas superiores), creo que será una función de la naturaleza, donde la evolución irrestricta de estos algoritmos se debe a factores económicos que se centran en hiper autómatas partidistas en industrias como la especulación financiera y la guerra autónoma. Esencialmente, persiguiendo ganancias a toda costa, independientemente de los impactos.
fuente
Creo que parte del problema de por qué las implementaciones éticas de las tecnologías de IA / ML son muy escasas es simplemente porque no hay necesidad o la aplicación adecuada de los marcos teóricos.
Con esto quiero decir, no hay formas sustanciales de aplicar esta comprensión a algoritmos y modelos que no pueden interactuar de manera significativa. Tenemos un marco teórico tan amplio sobre la seguridad / ética de la IA porque es extremadamente importante. Necesitamos elaborar pautas seguras para implementar una IA fuerte antes de que se cree.
Algunos documentos muy centrados han comenzado a reducir los problemas en la creación de sistemas de IA éticos / seguros. Ver problemas concretos en seguridad de IA
fuente
Con el método de imitación, el comportamiento más apropiado puede integrarse en la inteligencia artificial. La inteligencia artificial puede ser reformada cuando cambia la posición ética. Se utiliza con fines ideológicos o para recopilar información. No está claro qué es el robot.
fuente
Podemos llevar el modelo de error al contador. Reconocer el sesgo y la variación entre el rendimiento en redes neuronales puede ser un primer paso. Y luego podemos discutir si tal rendimiento está permitido. Hasta donde sabemos, la práctica étnica requiere un estudio empírico y de campo. no podemos simplemente tomar razones y ensayos en papel para determinar si las máquinas aprendidas están mal o no. Se puede dividir aún más en accidentes, errores o incluso errores creados por los desarrolladores.
fuente
Intuitivamente hablando, parece ser que hay poca investigación sobre la implementación de la ética de la IA porque:
La sociedad en su conjunto parece estar de acuerdo cómodamente en que el estado actual de la inteligencia artificial no es lo suficientemente fuerte como para ser considerado consciente o sensible. Por lo tanto, no necesitamos otorgarle derechos éticos (todavía).
La implementación de un comportamiento ético en un programa requiere un método para que las computadoras sean capaces de interpretar el "significado", que aún no sabemos cómo hacer.
fuente