Entiendo cómo artificial neural network (ANN)
se puede entrenar de forma supervisada usando la propagación hacia atrás para mejorar el ajuste al disminuir el error en las predicciones. He oído que un ANN se puede utilizar para el aprendizaje no supervisado, pero ¿cómo se puede hacer sin una función de costo de algún tipo para guiar las etapas de optimización? Con k-means o el algoritmo EM hay una función para la cual cada iteración busca aumentar.
- ¿Cómo podemos agrupar con un ANN y qué mecanismo utiliza para agrupar puntos de datos en la misma localidad?
(¿y qué capacidades adicionales se aportan al agregarle más capas?)
Respuestas:
Las redes neuronales se usan ampliamente en el aprendizaje no supervisado para aprender mejores representaciones de los datos de entrada. Por ejemplo, dado un conjunto de documentos de texto, NN puede aprender un mapeo de un documento a un vector de valor real de tal manera que los vectores resultantes sean similares para documentos con contenido similar, es decir, preservar la distancia. Esto se puede lograr utilizando, por ejemplo, codificadores automáticos, un modelo que está entrenado para reconstruir el vector original a partir de una representación más pequeña (activaciones de capa oculta) con un error de reconstrucción (distancia desde la función ID) como función de costo. Este proceso no le proporciona clústeres, pero crea representaciones significativas que pueden usarse para la agrupación. Podría, por ejemplo, ejecutar un algoritmo de agrupamiento en las activaciones de la capa oculta.
Agrupación: hay varias arquitecturas NN diferentes diseñadas específicamente para la agrupación. El más conocido es probablemente los mapas autoorganizados. Un SOM es un NN que tiene un conjunto de neuronas conectadas para formar una cuadrícula topológica (generalmente rectangular). Cuando se presenta algún patrón a un SOM, la neurona con el vector de peso más cercano se considera un ganador y sus pesos se adaptan al patrón, así como a los pesos de su vecindario. De esta manera, un SOM naturalmente encuentra grupos de datos. Un algoritmo algo relacionado es el crecimiento del gas neural (no se limita al número predefinido de neuronas).
Otro enfoque es la teoría de resonancia adaptativa, donde tenemos dos capas: "campo de comparación" y "campo de reconocimiento". El campo de reconocimiento también determina la mejor coincidencia (neurona) con el vector transferido desde el campo de comparación y también tiene conexiones inhibitorias laterales. Los detalles de implementación y las ecuaciones exactas se pueden encontrar fácilmente buscando en Google los nombres de estos modelos, por lo que no los pondré aquí.
fuente
Desea buscar mapas autoorganizados . Kohonen (quien los inventó) escribió un libro sobre ellos. Hay paquetes para esto en R ( som , kohonen ), y hay implementaciones en otros lenguajes como MATLAB .
fuente