The Saturday Papers: ¿Te mentiría AI? es una publicación de blog que resume un trabajo de investigación llamado Hacia personajes que observan, dicen, recuerdan y mienten . Este trabajo de investigación detalla los planes de algunos investigadores para implementar "modelos mentales" para los NPC en los videojuegos. Los NPC recopilarán información sobre el mundo y transmitirán ese conocimiento a otras personas (incluidos los jugadores humanos). Sin embargo, también "recordarán mal" ese conocimiento (ya sea "mutando" ese conocimiento o simplemente olvidándolo), o incluso mentirán:
A medida que se plantea un tema de conversación, un personaje puede transmitir información falsa, más precisamente, información que ella misma no cree, a su interlocutor. Actualmente, esto ocurre probabilísticamente de acuerdo con la afinidad de un personaje hacia el interlocutor, y la información errónea se elige al azar.
Más adelante en el trabajo de investigación, detallaron sus planes futuros para mentir:
Actualmente, las mentiras solo se almacenan en el conocimiento de los personajes que las reciben, pero planeamos tener personajes que les digan que también las rastreen para que puedan razonar sobre mentiras pasadas al construir las subsiguientes. Si bien los personajes actualmente solo mienten sobre otros personajes, planeamos implementar mentiras egocéntricas (DePaulo 2004), por ejemplo, personajes que mienten sobre sus títulos de trabajo o relaciones con otros personajes. Finalmente, imaginamos personajes que descubren que les han mentido para revisar sus afinidades hacia los mentirosos, o incluso para confrontarlos.
El documento de investigación también detalló cómo otros desarrolladores de videojuegos intentaron crear NPC mentirosos, con énfasis en cómo su sistema difiere:
Los caracteres TALE-SPIN pueden mentirse entre sí (Meehan 1976, 183-84), aunque de manera bastante arbitraria, como en la implementación de nuestro sistema actual. GOLEM implementa una variante del mundo de bloques en la que los agentes engañan a otros para lograr objetivos (Castelfranchi, Falcone y De Rosis 1998), mientras que Mouth of Truth utiliza una representación probabilística de la creencia del personaje para alimentar el engaño del agente en una variante del juego de imitación de Turing (De Rosis et al.2003). En Christian (2004), un planificador de engaños inyecta un estado mundial inexacto en las creencias de un agente objetivo para que pueda realizar acciones sin darse cuenta que cumplan objetivos ocultos de un agente engañoso. Por último, los agentes en la extensión de Reis (2012) a FAtiMA emplean múltiples niveles de teoría de la mente para engañarse mutuamente en el juego de grupo Werewolf. Si bien todos los sistemas anteriores muestran personajes que perciben, y en algunos casos, engañan, otros personajes, ninguno parece admitir los siguientes componentes clave de nuestro sistema: la propagación del conocimiento y la falibilidad de la memoria. ...
Al igual que algunos otros sistemas mencionados anteriormente, Dwarf Fortress también presenta personajes que mienten de forma autónoma. Cuando un personaje comete un delito, puede implicar falsamente a otra persona en un informe de un testigo a un sheriff, para protegerse o incluso para enmarcar a un enemigo. Sin embargo, estos informes de testigos solo son vistos por el jugador; los personajes no se dan informes falsos de testigos entre sí. Sin embargo, pueden mentir sobre sus opiniones, por ejemplo, por temor a las repercusiones de criticar a un líder. Finalmente, Dwarf Fortress actualmente no modela problemas de falibilidad de memoria: Adams desconfía de que tales fenómenos parezcan surgir de errores si no se expresan artísticamente al jugador.
No.
En eso, la pregunta incluye "a sabiendas", lo que requeriría que cualquier IA sepa algo. Si esto es algo así como la forma en que los humanos saben las cosas (aunque curiosamente no requiere realmente saber cosas), requeriría un cierto sentido de individualidad, probablemente autoconciencia, posiblemente algún tipo de conciencia, la capacidad de emitir una opinión y probablemente alguna forma de probar su conocimiento. La mayoría de estas características solo existen, en el mejor de los casos, posiblemente.
Además, el término "mentira" implica un sentido de interés propio, una comprensión independiente del flujo de recursos en un sentido teórico del juego, y no trivialmente, una comprensión de si la otra entidad en la conversación está mintiendo, para hacer un decisión con cualquier grado de precisión. Por lo tanto, ninguna IA puede mentirle a nadie más que en los escenarios triviales sugeridos en las otras respuestas, lo que genera información falsa basada en ciertos contextos, que es solo entrada / salida simple.
Como desarrollador de software experimentado, puedo dar fe del hecho de que si el objetivo es representar la salida correcta en función de cualquier entrada, en realidad es al menos tan fácil, si no mucho más fácil, presentar información falsa.
fuente
Si.
Déjame demostrar haciendo una IA mentirosa ahora mismo. (código de Python)
Y uno engañoso:
AI es un término tan general. Podría usarse para describir casi cualquier cosa. No especificó que tenía que ser una IA general.
La IA no puede pensar. Son programas de computadora. No tienen alma ni voluntad. Es solo el programador (o si fue diseñado a través de la evolución ... nadie , pero eso está fuera del tema) que puede programar a sabiendas una IA para mentir.
Si, esto ha sucedido. Se llama malware. Algún malware avanzado se comunicará con usted simulando ser un soporte técnico y responderá con respuestas humanas comunes. Pero puede decir "bueno, realmente no 'entiende'". Pero eso sería fácil. Red neuronal + más CPU de la que existe en el planeta * (existirá en unos años y será asequible) + algunas respuestas de ejemplo = AI de red neuronal (lo mismo en tu noggin) que comprende y responde.
Pero eso no es necesario. Una red neuronal relativamente `simple con solo unas pocas supercomputadoras que podrían caber en una habitación podría convencer a un humano. No entiende
Entonces, es realmente ...
Técnicamente, no, pero es posible y si estira las reglas, sí.
* O incluso más simple:
Acreditación: Soy un programador (mira mi cuenta de Stack Overflow) que sabe un poco sobre IA.
fuente
Si.
fuente