¿Por qué necesitamos sentido común en IA?

10

Consideremos este ejemplo:

Es el cumpleaños de John, vamos a comprarle una cometa.

Los humanos probablemente diríamos que la cometa es un regalo de cumpleaños, si se nos pregunta por qué se está comprando; y nos referimos a este razonamiento como sentido común .

¿Por qué necesitamos esto en agentes artificialmente inteligentes? Creo que podría causar una gran cantidad de problemas, ya que muchos de nuestros errores humanos son causados ​​por estos vagos supuestos.

Imagine una IA que ignora hacer ciertas cosas porque supone que ya lo ha hecho otra persona (u otra IA), utilizando su sentido común.

¿No traería eso errores humanos a los sistemas de IA?

Titán
fuente
Los comentarios no son para discusión extendida; Esta conversación se ha movido al chat .
nbro

Respuestas:

16

El conocimiento del sentido común es la colección de premisas que todos, en un determinado contexto (por lo tanto, el conocimiento del sentido común podría ser una función del contexto), da por sentado. Existiría una gran falta de comunicación entre un humano y una IA si la IA no tuviera conocimiento del sentido común. Por lo tanto, el conocimiento del sentido común es fundamental para la interacción humano-IA .

También hay premisas que todo ser humano da por sentado independientemente del país, la cultura o, en general, el contexto. Por ejemplo, cada humano (casi desde su nacimiento) tiene un mecanismo para razonar sobre la física ingenua, como el espacio, el tiempo y las interacciones físicas. Si una IA no posee este conocimiento, entonces no puede realizar las tareas que requieren este conocimiento.

Se cree que cualquier tarea que requiera que una máquina tenga conocimiento de sentido común (de un humano promedio ) es completa con IA , es decir, requiere inteligencia a nivel humano (o general). Consulte la sección 3 del artículo Conocimiento del sentido común (2009), de Christian Andrich, Leo Novosel y Bojan Hrnkas.

Por supuesto, los problemas que surgen mientras los humanos se comunican debido a diferentes suposiciones o premisas también pueden surgir entre humanos y AI (que poseen conocimiento de sentido común).

nbro
fuente
Los comentarios no son para discusión extendida; Esta conversación se ha movido al chat .
nbro
10

Necesitamos este tipo de conocimiento de sentido común si queremos que las computadoras entiendan el lenguaje humano. Es fácil para un programa de computadora analizar la estructura gramatical del ejemplo que da, pero para entender su significado necesitamos conocer los posibles contextos, que es a lo que se refiere aquí como "sentido común".

Esto se enfatizó mucho en Roger Schank et al. El trabajo de computadora en la comprensión de las historias y conducir a una gran cantidad de investigación sobre la representación del conocimiento, guiones, planes, objetivos. Un ejemplo del trabajo de Schank es que Mary tenía hambre. Ella recogió una guía Michelin. - Esto parece un no-sequitur: si tienes hambre, ¿por qué recoger un libro? Hasta que te des cuenta de que se trata de una guía de restaurantes, y de que Mary probablemente planea ir a comer a un restaurante. Si sabe que ir a un restaurante es una posible solución al problema de tener hambre, entonces no tiene ningún problema para entender este fragmento de la historia.

Cualquier historia necesita sentido común para ser entendida, porque ninguna historia es completamente explícita. Las cosas comunes se "entienden" y no se mencionan explícitamente. Las historias se relacionan con la experiencia humana, y una historia que haría todo explícito probablemente se leería como un programa de computadora. También necesita sentido común para comprender cómo se comportan los personajes de una historia y cómo se ven afectados por lo que está sucediendo. De nuevo, esto es muy subjetivo, pero es necesario. Algún sentido común podría ser generalmente aplicable, otros aspectos no lo serán. Es un tema complejo, por lo que los investigadores han luchado con él durante al menos medio siglo de investigación de IA.

Por supuesto, esto introduciría "errores humanos" en un sistema de IA. Todo esto es muy subjetivo y culturalmente específico. Ir a un restaurante en los Estados Unidos es diferente de ir a uno en Francia, por eso ir al extranjero puede ser un desafío. Y mi lectura de una historia probablemente será diferente a la tuya. Pero si desea simular la inteligencia humana, no puede hacerlo sin posibles "errores" humanos.

Oliver Mason
fuente
Los comentarios no son para discusión extendida; Esta conversación se ha movido al chat .
nbro
2

Contestaré esta pregunta en varias partes:

¿Por qué los sistemas AGI deben tener sentido común?

Los humanos en la razón salvaje y se comunican usando el sentido común más que con una lógica estricta, puedes ver esto al notar que es más fácil apelar a la emoción de alguien que a la lógica. Por lo tanto, cualquier sistema que busque replicar la cognición humana (como en AGI) también debería replicar esta tendencia a usar el sentido común.

En términos más simples, desearíamos que nuestro sistema AGI nos pueda hablar en un lenguaje de sentido común simplemente porque eso es lo que entendemos mejor (de lo contrario, no entenderíamos nuestro AGI amigable, ¿verdad?). La teoría obtusa y la lógica estricta podrían ser técnicamente correctas, pero no apelan a nuestra comprensión.

¿No es el objetivo de AGI crear el sistema más avanzado cognitivamente? ¿Por qué el sistema AGI "más perfecto" debe tratar con tales imperfecciones e imprecisiones presentes en el sentido común?

Primero, podría parecer que la lógica del sentido común es "irracional". Quizás haya una forma matemática consistente de modelar el sentido común de tal manera que todas las sutilezas del sentido común se representen con rigor.

Segundo, el primer estudio de Inteligencia Artificial comenzó en el estudio de la ciencia cognitiva, donde los investigadores intentaron replicar "algoritmos de la mente", o más precisamente: procedimientos decidibles que replicaban el pensamiento humano. En ese sentido, el estudio de la IA no es crear el "agente cognitivo más supremo" sino simplemente replicar el pensamiento / comportamiento humano. Una vez que podamos replicar el comportamiento humano, tal vez podamos intentar crear algo sobrehumano dándole más poder computacional, pero eso no está garantizado.

Todavía no veo por qué se necesita sentido común en los sistemas AGI. ¿No se trata de que AGI sea el sistema computacional más inteligente y poderoso? ¿Por qué debería importarle o ajustarse a los límites de la comprensión humana, que requiere sentido común?

Quizás, entonces, tenga una comprensión un poco desalineada de lo que implica AGI. AGI no significa potencia computacional ilimitada (físicamente imposible debido a restricciones físicas en el cómputo como el límite de Bremermann ) o inteligencia ilimitada (quizás físicamente imposible debido a la restricción previa). Por lo general, solo significa "inteligencia general" artificial, significado general amplio y común.

Las consideraciones sobre los agentes ilimitados se estudian con más detalle en campos como la informática teórica (la teoría de tipos, creo), la teoría de la decisión y quizás incluso la teoría de conjuntos, donde podemos plantear preguntas sobre los agentes con poder computacional ilimitado. Podríamos decir que hay preguntas que incluso un sistema AGI con potencia ilimitada no puede responder debido al problema de detención , pero solo si las suposiciones en esos campos se corresponden con la estructura del AGI dado, lo que podría no ser cierto.

Para una mejor comprensión de lo que AGI podría implicar y sus objetivos, podría recomendar dos libros: Inteligencia Artificial: The Very Idea de John Haugeland para un enfoque más pragmático (tan pragmático como puede ser la filosofía AI, y Sobre el origen de los objetos por Brian Cantwell Smith por un enfoque más inclinado filosóficamente.

Como diversión aparte, la colección de Zen koan's: The Gateless Gate, incluye el siguiente pasaje: (citado y editado de wikipedia )

Un monje le preguntó a Zhaozhou, un maestro zen chino: "¿Tiene un perro la naturaleza de Buda o no?" Zhaozhou respondió: "Wú"

Wú (無) se traduce como "ninguno", "nonesuch" o "nada", que puede interpretarse como para evitar responder sí o no. Este individuo iluminado no busca responder estrictamente a todas las preguntas, sino solo responder de una manera que tenga sentido. Realmente no importa si el perro tiene la naturaleza búdica o no (lo que sea que signifique la naturaleza búdica), por lo que el maestro omite absolver la pregunta en lugar de resolverla.

kc sayz 'kc sayz'
fuente
3
Hubiera sido mucho más divertido si el maestro hubiera respondido "¡wúf wúf!"
m3characters
1

Quizás sería útil dar un ejemplo de lo que puede salir mal sin sentido común: al comienzo de la novela "Las dos caras del mañana" de James Hogan, un supervisor de construcción en la Luna presenta una solicitud con un sistema automatizado, pidiendo que Se entregará una pieza grande de equipo de construcción en su sitio lo antes posible. El sistema responde que llegará en veinte minutos. Veinte minutos después, el supervisor es asesinado cuando el equipo choca contra su sitio de construcción. El sistema había determinado que la forma más rápida de entregar el equipo a ese sitio era montarlo en un controlador masivo y lanzarlo en el sitio. Si el sistema en cuestión tuviera sentido común, habría inferido restricciones adicionales no declaradas en la consulta, como 'el equipo debería llegar intacto', ' la llegada del equipo no debe causar daños ni pérdida de vidas ', y así sucesivamente. (El resto de la novela describe un experimento diseñado para producir un nuevo sistema con sentido común)

PMar
fuente
Muy interesante ejemplo. Sin embargo, tal vez también podría ser al revés. Imagine una IA que controla a un paciente y, al ver la apariencia normal general del paciente, concluya que el paciente podría / debería estar bien (en base al sentido común de que si se ve bien, probablemente lo esté); sin embargo, el paciente necesita una ayuda seria. Sin embargo, creo que ya está claro que el sentido común no es el problema, es un sentido común / conocimiento defectuoso que podría resultar peligroso en situaciones críticas. Así que supongo que deberíamos controlar y asegurarnos de que la IA tenga un sentido común perfecto .
Titan
0

¿Es esto sentido común o es comprensión del lenguaje natural?

Se dice que la comprensión del lenguaje natural es una de las tareas de IA más difíciles. Este es uno de los ejemplos que muestran por qué. La primera parte de la oración está relacionada con la segunda parte, que es cómo funcionan las oraciones.

Ahora la pregunta relevante es cómo se relacionan las dos partes. Hay algunas relaciones estándar que encontramos, por ejemplo, un orden temporal. En este ejemplo específico, la naturaleza de la relación está más cerca de una causa y efecto.

Usted ve este efecto cuando insertamos una palabra para hacer explícita esta relación:

Es el cumpleaños de John, así que vamos a comprarle una cometa. o Vamos a comprarle una cometa a John, porque es su cumpleaños.

Esta es una técnica para que los humanos hagan explícitas estas relaciones implícitas.

Ahora, como curioso observa, también se necesita el conocimiento cultural para comprender cómo un cumpleaños puede ser la causa de un regalo. Ninguna cantidad de sentido común ayuda con eso.

MSalters
fuente
Usamos el " sentido común " que tenemos para entender una oración como esa. La PNL es realmente difícil, estoy de acuerdo, y eso es porque hasta ahora la IA no ha poseído este conocimiento integral y el modelo del mundo que tenemos los humanos; por lo tanto, carece de conectar los puntos y comprender esas relaciones implícitas. Ese " conocimiento cultural " que mencionó se considera básicamente nuestro sentido común.
Titán el