MCTS / UCT es un método de búsqueda de árbol de juego que utiliza un algoritmo de bandido para seleccionar nodos prometedores para explorar. Los juegos se juegan hasta su finalización al azar y los nodos que conducen a más victorias se exploran con mayor intensidad. El algoritmo de bandidos mantiene un equilibrio entre explorar nodos con altas tasas de ganancia y explorar nodos desconocidos (y en su forma pura no necesariamente usa una función de evaluación heurística). Los programas basados en esta técnica general han logrado resultados bastante sorprendentes en Computer Go .
¿Se han aplicado las búsquedas de Montecarlo impulsadas por bandidos a otros problemas de búsqueda? Por ejemplo, ¿sería un enfoque útil para aproximar soluciones a MAX-SAT, BKP u otros problemas de optimización combinatoria? ¿Hay alguna característica particular de un problema (estructural / estadístico / etc.) que sugiera si un enfoque de bandido sería o no efectivo?
¿Hay algún problema determinista conocido que sea totalmente resistente a los métodos de bandidos, debido a la naturaleza del espacio de solución?