A partir de la formulación de la pregunta, supongo que no hay "ejemplos" de anomalías (es decir, etiquetas) en absoluto. Con esa suposición, un enfoque factible sería utilizar autoencoders : redes neuronales que reciben como entrada sus datos y están capacitados para generar esos mismos datos. La idea es que la capacitación ha permitido a la red aprender representaciones de las distribuciones de datos de entrada en forma de variables latentes.
Hay un tipo de autoencoder llamado autoencoder denoising , que está entrenado con versiones corruptas de los datos originales como entrada y con los datos originales no corruptos como salida. Esto proporciona una red que puede eliminar el ruido (es decir, la corrupción de datos) de las entradas.
Puede entrenar un autoencoder de eliminación de ruido con los datos diarios. Luego úselo en nuevos datos diarios; de esta manera, tiene los datos diarios originales y una versión no corrompida de esos mismos datos. Luego puede comparar ambos para detectar diferencias significativas .
La clave aquí es qué definición de diferencia significativa eliges. Podría calcular la distancia euclidiana y asumir que si supera cierto umbral arbitrario, tiene una anomalía. Otro factor importante es el tipo de corrupciones que introduces; deben estar lo más cerca posible de anormalidades razonables.
Otra opción sería utilizar redes generativas adversas . El subproducto de la capacitación es una red discriminadora que separa los datos diarios normales de los datos anormales.