Consideremos este ejemplo:
Es el cumpleaños de John, vamos a comprarle una cometa.
Los humanos probablemente diríamos que la cometa es un regalo de cumpleaños, si se nos pregunta por qué se está comprando; y nos referimos a este razonamiento como sentido común .
¿Por qué necesitamos esto en agentes artificialmente inteligentes? Creo que podría causar una gran cantidad de problemas, ya que muchos de nuestros errores humanos son causados por estos vagos supuestos.
Imagine una IA que ignora hacer ciertas cosas porque supone que ya lo ha hecho otra persona (u otra IA), utilizando su sentido común.
¿No traería eso errores humanos a los sistemas de IA?
Respuestas:
El conocimiento del sentido común es la colección de premisas que todos, en un determinado contexto (por lo tanto, el conocimiento del sentido común podría ser una función del contexto), da por sentado. Existiría una gran falta de comunicación entre un humano y una IA si la IA no tuviera conocimiento del sentido común. Por lo tanto, el conocimiento del sentido común es fundamental para la interacción humano-IA .
También hay premisas que todo ser humano da por sentado independientemente del país, la cultura o, en general, el contexto. Por ejemplo, cada humano (casi desde su nacimiento) tiene un mecanismo para razonar sobre la física ingenua, como el espacio, el tiempo y las interacciones físicas. Si una IA no posee este conocimiento, entonces no puede realizar las tareas que requieren este conocimiento.
Se cree que cualquier tarea que requiera que una máquina tenga conocimiento de sentido común (de un humano promedio ) es completa con IA , es decir, requiere inteligencia a nivel humano (o general). Consulte la sección 3 del artículo Conocimiento del sentido común (2009), de Christian Andrich, Leo Novosel y Bojan Hrnkas.
Por supuesto, los problemas que surgen mientras los humanos se comunican debido a diferentes suposiciones o premisas también pueden surgir entre humanos y AI (que poseen conocimiento de sentido común).
fuente
Necesitamos este tipo de conocimiento de sentido común si queremos que las computadoras entiendan el lenguaje humano. Es fácil para un programa de computadora analizar la estructura gramatical del ejemplo que da, pero para entender su significado necesitamos conocer los posibles contextos, que es a lo que se refiere aquí como "sentido común".
Esto se enfatizó mucho en Roger Schank et al. El trabajo de computadora en la comprensión de las historias y conducir a una gran cantidad de investigación sobre la representación del conocimiento, guiones, planes, objetivos. Un ejemplo del trabajo de Schank es que Mary tenía hambre. Ella recogió una guía Michelin. - Esto parece un no-sequitur: si tienes hambre, ¿por qué recoger un libro? Hasta que te des cuenta de que se trata de una guía de restaurantes, y de que Mary probablemente planea ir a comer a un restaurante. Si sabe que ir a un restaurante es una posible solución al problema de tener hambre, entonces no tiene ningún problema para entender este fragmento de la historia.
Cualquier historia necesita sentido común para ser entendida, porque ninguna historia es completamente explícita. Las cosas comunes se "entienden" y no se mencionan explícitamente. Las historias se relacionan con la experiencia humana, y una historia que haría todo explícito probablemente se leería como un programa de computadora. También necesita sentido común para comprender cómo se comportan los personajes de una historia y cómo se ven afectados por lo que está sucediendo. De nuevo, esto es muy subjetivo, pero es necesario. Algún sentido común podría ser generalmente aplicable, otros aspectos no lo serán. Es un tema complejo, por lo que los investigadores han luchado con él durante al menos medio siglo de investigación de IA.
Por supuesto, esto introduciría "errores humanos" en un sistema de IA. Todo esto es muy subjetivo y culturalmente específico. Ir a un restaurante en los Estados Unidos es diferente de ir a uno en Francia, por eso ir al extranjero puede ser un desafío. Y mi lectura de una historia probablemente será diferente a la tuya. Pero si desea simular la inteligencia humana, no puede hacerlo sin posibles "errores" humanos.
fuente
Contestaré esta pregunta en varias partes:
Los humanos en la razón salvaje y se comunican usando el sentido común más que con una lógica estricta, puedes ver esto al notar que es más fácil apelar a la emoción de alguien que a la lógica. Por lo tanto, cualquier sistema que busque replicar la cognición humana (como en AGI) también debería replicar esta tendencia a usar el sentido común.
En términos más simples, desearíamos que nuestro sistema AGI nos pueda hablar en un lenguaje de sentido común simplemente porque eso es lo que entendemos mejor (de lo contrario, no entenderíamos nuestro AGI amigable, ¿verdad?). La teoría obtusa y la lógica estricta podrían ser técnicamente correctas, pero no apelan a nuestra comprensión.
Primero, podría parecer que la lógica del sentido común es "irracional". Quizás haya una forma matemática consistente de modelar el sentido común de tal manera que todas las sutilezas del sentido común se representen con rigor.
Segundo, el primer estudio de Inteligencia Artificial comenzó en el estudio de la ciencia cognitiva, donde los investigadores intentaron replicar "algoritmos de la mente", o más precisamente: procedimientos decidibles que replicaban el pensamiento humano. En ese sentido, el estudio de la IA no es crear el "agente cognitivo más supremo" sino simplemente replicar el pensamiento / comportamiento humano. Una vez que podamos replicar el comportamiento humano, tal vez podamos intentar crear algo sobrehumano dándole más poder computacional, pero eso no está garantizado.
Quizás, entonces, tenga una comprensión un poco desalineada de lo que implica AGI. AGI no significa potencia computacional ilimitada (físicamente imposible debido a restricciones físicas en el cómputo como el límite de Bremermann ) o inteligencia ilimitada (quizás físicamente imposible debido a la restricción previa). Por lo general, solo significa "inteligencia general" artificial, significado general amplio y común.
Las consideraciones sobre los agentes ilimitados se estudian con más detalle en campos como la informática teórica (la teoría de tipos, creo), la teoría de la decisión y quizás incluso la teoría de conjuntos, donde podemos plantear preguntas sobre los agentes con poder computacional ilimitado. Podríamos decir que hay preguntas que incluso un sistema AGI con potencia ilimitada no puede responder debido al problema de detención , pero solo si las suposiciones en esos campos se corresponden con la estructura del AGI dado, lo que podría no ser cierto.
Para una mejor comprensión de lo que AGI podría implicar y sus objetivos, podría recomendar dos libros: Inteligencia Artificial: The Very Idea de John Haugeland para un enfoque más pragmático (tan pragmático como puede ser la filosofía AI, y Sobre el origen de los objetos por Brian Cantwell Smith por un enfoque más inclinado filosóficamente.
Como diversión aparte, la colección de Zen koan's: The Gateless Gate, incluye el siguiente pasaje: (citado y editado de wikipedia )
Wú (無) se traduce como "ninguno", "nonesuch" o "nada", que puede interpretarse como para evitar responder sí o no. Este individuo iluminado no busca responder estrictamente a todas las preguntas, sino solo responder de una manera que tenga sentido. Realmente no importa si el perro tiene la naturaleza búdica o no (lo que sea que signifique la naturaleza búdica), por lo que el maestro omite absolver la pregunta en lugar de resolverla.
fuente
Quizás sería útil dar un ejemplo de lo que puede salir mal sin sentido común: al comienzo de la novela "Las dos caras del mañana" de James Hogan, un supervisor de construcción en la Luna presenta una solicitud con un sistema automatizado, pidiendo que Se entregará una pieza grande de equipo de construcción en su sitio lo antes posible. El sistema responde que llegará en veinte minutos. Veinte minutos después, el supervisor es asesinado cuando el equipo choca contra su sitio de construcción. El sistema había determinado que la forma más rápida de entregar el equipo a ese sitio era montarlo en un controlador masivo y lanzarlo en el sitio. Si el sistema en cuestión tuviera sentido común, habría inferido restricciones adicionales no declaradas en la consulta, como 'el equipo debería llegar intacto', ' la llegada del equipo no debe causar daños ni pérdida de vidas ', y así sucesivamente. (El resto de la novela describe un experimento diseñado para producir un nuevo sistema con sentido común)
fuente
¿Es esto sentido común o es comprensión del lenguaje natural?
Se dice que la comprensión del lenguaje natural es una de las tareas de IA más difíciles. Este es uno de los ejemplos que muestran por qué. La primera parte de la oración está relacionada con la segunda parte, que es cómo funcionan las oraciones.
Ahora la pregunta relevante es cómo se relacionan las dos partes. Hay algunas relaciones estándar que encontramos, por ejemplo, un orden temporal. En este ejemplo específico, la naturaleza de la relación está más cerca de una causa y efecto.
Usted ve este efecto cuando insertamos una palabra para hacer explícita esta relación:
Esta es una técnica para que los humanos hagan explícitas estas relaciones implícitas.
Ahora, como curioso observa, también se necesita el conocimiento cultural para comprender cómo un cumpleaños puede ser la causa de un regalo. Ninguna cantidad de sentido común ayuda con eso.
fuente