¿Cómo aprendería una IA el lenguaje?

11

Estaba pensando en las IA y cómo funcionarían, cuando me di cuenta de que no podía pensar en una forma en que una IA pudiera aprender un idioma. Un niño tiende a aprender el lenguaje a través de asociaciones de lenguaje e imágenes a un objeto (por ejemplo, personas que dicen la palabra "perro" mientras están cerca de un perro, y luego se dan cuenta de que la gente dice "un perro" y "un automóvil" y aprenden qué "un "significa, etc.). Sin embargo, una IA basada en texto no podría usar este método para aprender, ya que no tendrían acceso a ningún tipo de dispositivo de entrada.

La única forma en que se me ocurre es programar en cada palabra y regla, en el idioma inglés (o cualquier idioma en el que esté destinado a "hablar"), sin embargo, eso podría llevar años.

¿Alguien tiene alguna idea sobre cómo se podría hacer esto? O si ya se ha hecho, si es así, ¿cómo?

Por cierto, en este contexto, estoy usando IA para referirme a un sistema de Inteligencia Artificial con inteligencia casi humana, y sin conocimiento previo del lenguaje.

sonrad10
fuente

Respuestas:

12

El área de investigación general se conoce como inducción gramatical .

Generalmente se enmarca como un problema de aprendizaje supervisado, con la entrada presentada como texto sin formato y la salida deseada como el árbol de análisis correspondiente . El conjunto de entrenamiento a menudo consiste en ejemplos positivos y negativos.

No existe un mejor método para lograr esto, pero algunas de las técnicas que se han utilizado hasta la fecha incluyen:

NietzscheanAI
fuente
6

El término general para su problema se llama procesamiento del lenguaje natural (PNL) , un tema bajo inteligencia artificial.

Hay muchos subtemas en este campo, incluida la semántica del lenguaje, el análisis gramatical, el etiquetado de partes del discurso, el análisis de contexto específico del dominio, etc.

Ébe Isaac
fuente
5

Solo en aras de la exhaustividad, señalaré que las redes neuronales recurrentes (es decir, redes neuronales con conexiones hacia atrás) se utilizan con frecuencia para el procesamiento del lenguaje natural (PNL). Esto incluye variantes como Bidirectional, Jordan y Elman Networks. Long Short-Term Memory (LSTM) es un algoritmo de red neuronal más sofisticado que puede realizar el mismo tiempo y tareas basadas en secuencias, pero que puede aprovechar métodos de aprendizaje estándar como backprop, ya que no sufre el "problema de gradiente de fuga". Esto se debe a que los LSTM se han diseñado brillantemente como "integradores perfectos", lo que hace que sea mucho más fácil calcular los gradientes de error, etc. durante largos períodos de tiempo. A diferencia de, el aprendizaje con RNN aún no está teóricamente bien fundamentado y es difícil de calcular a través de métodos existentes como Backpropagation Through Time (BPTT). En las redes neuronales de retardo de tiempo (TDNN), la idea es agregar nuevas neuronas y conexiones con cada nuevo ejemplo de entrenamiento en un período de tiempo o secuencia de entrenamiento; desafortunadamente, esto pone una limitación práctica sobre cuántos ejemplos puede alimentar en la red antes de que el tamaño de la red se descontrole o comience a olvidarse, al igual que con los RNN. Los LSTM tienen recuerdos mucho más largos (especialmente cuando se aumentan con máquinas neuronales de Turing), por lo que esa sería mi primera opción, suponiendo que quisiera usar redes neuronales para fines de PNL. Sin embargo, mi conocimiento del tema es limitado (todavía estoy tratando de aprender las cuerdas), por lo que puede haber otros algoritmos importantes de redes neuronales que estoy pasando por alto ...

SQLServerSteve
fuente