¿Puede un programa de IA tener un EQ (inteligencia emocional o cociente emocional)?
En otras palabras, ¿se puede medir el EQ de un programa de IA?
Si EQ es más problemático de medir que IQ (al menos con una aplicación estándar tanto para humanos como para programas de IA), ¿por qué es así?
emotional-intelligence
intelligence-testing
1010101 Estilo de vida
fuente
fuente
Respuestas:
La respuesta a su pregunta es "En principio, sí": en su forma más general, la prueba de ecualización es solo un caso específico de la prueba de Turing ("¿Cómo se sentiría acerca de ...?").
Para ver por qué las pruebas de ecualización significativas pueden ser difíciles de lograr, considere las siguientes dos pruebas posibles:
En un extremo de complejidad, la película 'Blade Runner' muestra una prueba famosa para distinguir entre humanos y androides sobre la base de respuestas a preguntas cargadas de emociones.
Si trataste de hacer estas preguntas (o incluso muchas más simples) a un chatbot moderno, probablemente concluirías rápidamente que no estabas hablando con una persona.
El problema con la evaluación de EQ es que cuanto más sofisticada emocionalmente sea la prueba, más general tendrá que ser el sistema de inteligencia artificial para convertir la entrada en una representación significativa.
En el otro extremo de lo anterior, suponga que una prueba de ecualización se formuló de una manera extremadamente estructurada, con el aporte estructurado proporcionado por un humano. En tal caso, el éxito en una 'prueba de ecualización' no se basa realmente en el mundo real.
En un ensayo titulado "El efecto irrenunciable de Eliza y sus peligros", Douglas Hofstadter da el siguiente ejemplo, en el que se afirma que el programa ACME (no Hofstadter) "comprende" la analogía.
Esta historia se presenta a ACME de la siguiente forma:
Supongamos que se le preguntara al programa si el comportamiento de Jane Doe era moral. Conceptos emocionales compuestos complejos como 'negligente', 'solitario' e 'inocente' son aquí simplemente predicados, no disponibles para la IA para un examen introspectivo más profundo. Podrían reemplazarse con la misma facilidad por etiquetas como 'bling-blang-blong15657'.
Entonces, en cierto sentido, la ausencia de éxito en una prueba de ecualización con cualquier profundidad es indicativo del problema general que enfrenta actualmente la IA: la incapacidad de definir (o aprender) representaciones significativas de las complejidades sutiles del mundo humano, que es mucho más complejo que poder reconocer videos de gatos.
fuente