Uno de los mayores inconvenientes del aprendizaje bayesiano contra el aprendizaje profundo es el tiempo de ejecución: la aplicación del teorema de Bayes requiere conocimiento sobre cómo se distribuyen los datos, y esto generalmente requiere integrales costosas o algún mecanismo de muestreo (con los inconvenientes correspondientes).
Dado que, al final del día, todo se trata de propagaciones de distribución, y esta es (por lo que entiendo) la naturaleza de la computación cuántica, ¿hay alguna manera de realizarlas de manera eficiente? En caso afirmativo, ¿qué limitaciones se aplican?
Editar ( enlaces directamente relacionados ):
machine-learning
bayesian-learning
fr_andres
fuente
fuente
Respuestas:
Los procesos gaussianos son un componente clave del procedimiento de construcción de modelos en el núcleo de la optimización bayesiana. Por lo tanto, acelerar la capacitación de los procesos gaussianos mejora directamente la optimización bayesiana. El reciente artículo de Zhao et. al, el algoritmos cuánticos para la formación de Gauss Procesos hace exactamente esto.
fuente