Ha habido reciente repunte en el interés por correo X plainable Un rtificial que los Servicios de Inteligencia (Xai). Aquí está la misión de XAI como se indica en su página DARPA :
El programa de IA explicable (XAI) tiene como objetivo crear un conjunto de técnicas de aprendizaje automático que:
- Produzca modelos más explicables, mientras mantiene un alto nivel de rendimiento de aprendizaje (precisión de predicción); y
- Permita que los usuarios humanos comprendan, confíen adecuadamente y administren eficazmente la generación emergente de socios artificialmente inteligentes
El artículo del New York Times ¿Se puede enseñar a la IA a explicarse? hace un buen trabajo al explicar la necesidad de XAI desde una perspectiva de interés humano, así como también proporciona una visión general de las técnicas que se están desarrollando para el mismo. La fuerza detrás del movimiento XAI parece centrarse en el concepto (¿prometedor?) Del derecho a la explicación , es decir, el requisito de que las aplicaciones de IA que impactan significativamente la vida humana a través de sus decisiones puedan explicar a los interesados los factores / razones que conducen a dicha decisión.
¿Cómo es razonable el derecho de explicación, dados los estándares actuales en los cuales nos hacemos responsables?
fuente
Respuestas:
En resumen, es bastante razonable.
Más específicamente, hacer que AI sea responsable y responsable de explicar la decisión parece razonable porque
Los humanos (DARPA en este caso) tiene elegido crear, aumentar y evolucionar la IA con el dinero de los contribuyentes. También en nuestra sociedad, cada vez que los humanos se han reunido para algún propósito (algún acuerdo formal como el gobierno o no), se asume y se asigna la responsabilidad y la responsabilidad. Por lo tanto, esperar que la IA (que tomará decisiones en nuestro nombre) explique sus decisiones parece una extensión natural de cómo operan los humanos actualmente .
Humanos ( generalmente al menos) no tienen superpoder o recursos para controlar y manipular al resto de la población. Pero cuando lo hacen (como nuestros líderes políticos ), queremos que sean responsables.
En casos raros, humanos poderosos vuelven poderosos debido a cosas que son accesibles para todos , mientras que el súper poder de la IA no lo será. Entonces, nuestra civilización se sentiría más segura y, por lo tanto, menos insegura con una IA que no cierra la puerta cuando se hacen preguntas.
Otros beneficios de la IA que ofrecen una explicación sobre cómo se toma una decisión
Mucho más fácil de depurar y mejorar en su etapa inicial.
Se puede personalizar aún más (y en el camino) para amplificar ciertos aspectos como el bienestar social sobre la rentabilidad, etc.
fuente
¿En el artículo Slave to the Algorithm? Por qué un "derecho a una explicación" probablemente no sea el remedio que está buscando , los autores afirman que es poco probable que el "derecho a la explicación" proporcione un remedio completo a los daños algorítmicos por al menos dos razones
No está claro cuándo se puede activar cualquier derecho relacionado con la explicación
Las explicaciones requeridas por la ley, "información significativa sobre la lógica del procesamiento", podrían no ser proporcionadas por los métodos actuales (explicables) de IA
Luego, los autores concluyen que el "derecho a la explicación" es una distracción , pero que otras leyes del Reglamento General de Protección de Datos de la Unión Europea, como
podría compensar los defectos del "derecho a la explicación".
Para concluir, el "derecho a la explicación" es un intento de proteger a los ciudadanos contra las posibles consecuencias indeseables del uso de métodos de IA. Sin embargo, no es perfecto y es posible que se deban promulgar derechos más claros.
fuente