¿Cómo es razonable el "derecho a la explicación"?

8

Ha habido reciente repunte en el interés por correo X plainable Un rtificial que los Servicios de Inteligencia (Xai). Aquí está la misión de XAI como se indica en su página DARPA :

El programa de IA explicable (XAI) tiene como objetivo crear un conjunto de técnicas de aprendizaje automático que:

  • Produzca modelos más explicables, mientras mantiene un alto nivel de rendimiento de aprendizaje (precisión de predicción); y
  • Permita que los usuarios humanos comprendan, confíen adecuadamente y administren eficazmente la generación emergente de socios artificialmente inteligentes

El artículo del New York Times ¿Se puede enseñar a la IA a explicarse? hace un buen trabajo al explicar la necesidad de XAI desde una perspectiva de interés humano, así como también proporciona una visión general de las técnicas que se están desarrollando para el mismo. La fuerza detrás del movimiento XAI parece centrarse en el concepto (¿prometedor?) Del derecho a la explicación , es decir, el requisito de que las aplicaciones de IA que impactan significativamente la vida humana a través de sus decisiones puedan explicar a los interesados ​​los factores / razones que conducen a dicha decisión.

¿Cómo es razonable el derecho de explicación, dados los estándares actuales en los cuales nos hacemos responsables?

LastIronStar
fuente
El artículo La inteligencia artificial (IA) Computer dice que no: por qué hacer que las IA sean justas, responsables y transparentes es crucial que Europa esté por delante de otras partes del mundo en la elaboración de regulaciones para proteger a las personas de la IA mal hecha o usada . Sin embargo, estas regulaciones son un poco débiles: por ejemplo, no se aplican a los casos en los que hay participación de humanos o sus decisiones (aparte de las de IA).
nbro

Respuestas:

3

¿Cómo es razonable el derecho de explicación, dados los estándares actuales en los cuales nos hacemos responsables?

En resumen, es bastante razonable.

Más específicamente, hacer que AI sea responsable y responsable de explicar la decisión parece razonable porque

  • Los humanos (DARPA en este caso) tiene elegido crear, aumentar y evolucionar la IA con el dinero de los contribuyentes. También en nuestra sociedad, cada vez que los humanos se han reunido para algún propósito (algún acuerdo formal como el gobierno o no), se asume y se asigna la responsabilidad y la responsabilidad. Por lo tanto, esperar que la IA (que tomará decisiones en nuestro nombre) explique sus decisiones parece una extensión natural de cómo operan los humanos actualmente .

  • Humanos ( generalmente al menos) no tienen superpoder o recursos para controlar y manipular al resto de la población. Pero cuando lo hacen (como nuestros líderes políticos ), queremos que sean responsables.

  • En casos raros, humanos poderosos vuelven poderosos debido a cosas que son accesibles para todos , mientras que el súper poder de la IA no lo será. Entonces, nuestra civilización se sentiría más segura y, por lo tanto, menos insegura con una IA que no cierra la puerta cuando se hacen preguntas.

Otros beneficios de la IA que ofrecen una explicación sobre cómo se toma una decisión

  • Mucho más fácil de depurar y mejorar en su etapa inicial.

  • Se puede personalizar aún más (y en el camino) para amplificar ciertos aspectos como el bienestar social sobre la rentabilidad, etc.

gurvinder372
fuente
0

¿En el artículo Slave to the Algorithm? Por qué un "derecho a una explicación" probablemente no sea el remedio que está buscando , los autores afirman que es poco probable que el "derecho a la explicación" proporcione un remedio completo a los daños algorítmicos por al menos dos razones

  1. No está claro cuándo se puede activar cualquier derecho relacionado con la explicación

  2. Las explicaciones requeridas por la ley, "información significativa sobre la lógica del procesamiento", podrían no ser proporcionadas por los métodos actuales (explicables) de IA

Luego, los autores concluyen que el "derecho a la explicación" es una distracción , pero que otras leyes del Reglamento General de Protección de Datos de la Unión Europea, como

  1. derecho a ser olvidado
  2. derecho a la portabilidad de datos
  3. privacidad por diseño

podría compensar los defectos del "derecho a la explicación".

Para concluir, el "derecho a la explicación" es un intento de proteger a los ciudadanos contra las posibles consecuencias indeseables del uso de métodos de IA. Sin embargo, no es perfecto y es posible que se deban promulgar derechos más claros.

nbro
fuente