Hoy en día, la Inteligencia Artificial parece casi igual al aprendizaje automático, especialmente el aprendizaje profundo. Algunos han dicho que el aprendizaje profundo reemplazará a los expertos humanos, tradicionalmente muy importantes para la ingeniería de características, en este campo. Se dice que dos avances apuntalaron el surgimiento del aprendizaje profundo: por un lado, la neurociencia y la neuroplasticidad.en particular, nos dice que, como el cerebro humano, que es altamente plástico, las redes artificiales pueden utilizarse para modelar casi todas las funciones; Por otro lado, el aumento en el poder computacional, en particular la introducción de GPU y FPGA, ha impulsado la inteligencia algorítmica de una manera magnífica, y ha hecho que los modelos creados hace décadas sean inmensamente potentes y versátiles. Agregaré que los grandes datos (principalmente etiquetados) acumulados en los últimos años también son relevantes.
Tales desarrollos llevan la visión por computadora (y el reconocimiento de voz) a una nueva era, pero en el procesamiento del lenguaje natural y los sistemas expertos, la situación no parece haber cambiado mucho.
Lograr el sentido común para las redes neuronales parece una tarea difícil, pero la mayoría de las oraciones, conversaciones y textos cortos contienen inferencias que deben extraerse del conocimiento mundial de fondo. Por lo tanto, la representación gráfica del conocimiento es de gran importancia para la inteligencia artificial. Las redes neuronales se pueden aprovechar para construir bases de conocimiento, pero parece que los modelos de redes neuronales tienen dificultades para utilizar estas bases de conocimiento construidas.
Mis preguntas son:
1) ¿Es una base de conocimiento (por ejemplo, un "gráfico de conocimiento" acuñado por Google) una rama prometedora en IA? Si es así, ¿de qué manera KB puede potenciar el aprendizaje automático? ¿Y cómo puede ayudar en la generación del lenguaje natural?
2) Para la supervivencia en una época dominada por DL, ¿dónde está la dirección de la base de conocimiento (o el enfoque simbólico del término general)? ¿Es la base de conocimiento dinámico z similar a Wolfram la nueva dirección? ¿O alguna nueva dirección?
Espero hacer una pregunta apropiada aquí, ya que no pude etiquetar mi pregunta como "base de conocimiento" ni "gráfico de conocimiento".
¿Me estoy perdiendo algo fundamental o algunas ideas que aborden estos problemas?
Respuestas:
En primer lugar, me gustaría señalar las principales diferencias entre la base de conocimiento y el aprendizaje automático (profundo), especialmente cuando el enfoque principal está en "AI" y no en "Ciencia de datos":
Los NN son como una caja negra; Incluso si aprenden un conjunto de datos y obtienen el poder de generalización sobre el dominio del problema, nunca sabrías cómo están funcionando. Si examina los detalles del modelo desarrollado, todo lo que verá son dígitos, pesos, conexiones débiles y fuertes y funciones de transformación. el paso "extracción de características" antes de la fase de entrenamiento literalmente te dice: "oye humano, basta con tu mundo complicado, comencemos ceros y unos". En el caso de DL, ¡es peor! ni siquiera vemos cuáles son las características seleccionadas y efectivas. No soy un experto en DL pero, por lo que sé, ¡la caja negra de DL es más oscura! Pero las bases de conocimiento están escritas en un lenguaje amigable para los humanos. después de una fase de acumulación de conocimiento, puede ver todas las conexiones entre las entidades y, lo que es más importante, Podrías interpretar esas conexiones. Si corta un cable en una base de conocimiento, su modelo perderá solo un poco de su potencia y sabrá exactamente qué perderá; por ejemplo, desconectar el nodo "Plutón" del nodo "sistema solar" le dirá a su modelo lo que nos dijo deGrasse Tyson. pero en un modelo ML, esto podría convertirlo en uno completamente inútil: ¿qué sucede si manipulas la conexión entre la neurona número 14 y 47 en un modelo NN utilizado para predecir qué planetas pertenecen al sistema solar?
Los modelos ML son simplemente una inscripción de los datos. No tienen el poder de inferencia, y no te dan uno. la base de conocimiento es, por otro lado, capaz de inferir del conocimiento previo como usted indicó en su pregunta. Se muestra que los modelos DL que han sido entrenados con dichos datos de clasificación de imágenes, también podrían aplicarse al problema de detección de voz. Pero esto no significa que los modelos DL puedan aplicar su conocimiento previo en el dominio de las imágenes al dominio de las voces.
Necesita kilos de datos para los algoritmos de ML tradicionales y toneladas de datos para los de DL. pero una sola instancia de un conjunto de datos creará una base de conocimiento significativa para usted.
Hay dos temas principales de investigación en PNL: traducción automática y respuesta a preguntas. Prácticamente se ha demostrado que DL funciona significativamente con problemas de traducción automática, pero actúa como un desafío estúpido para responder preguntas, especialmente cuando el dominio de los temas cubiertos en la conversación hombre-máquina es amplio. Las bases de conocimiento no son una buena opción para la traducción automática, pero son probablemente la clave para un contestador de preguntas noble. Dado que lo que importa en la traducción automática es solo la versión traducida de un texto (y no me importa cómo demonios ha hecho la máquina en la medida en que sea cierto), pero en cuestión para responder al problema, no necesito un loro que repite la misma información que le di, pero una criatura inteligente que me da "la manzana es comestible" después de que le digo "la manzana es una fruta" y "
fuente