Estoy en mi segundo año en una maestría que no se relaciona demasiado con TCS, aunque desearía que lo hiciera. Básicamente se trata de teoría de control, señales y sistemas, y tomé clases en sistemas avanzados (robusto, no lineal, óptimo, estocástico), procesamiento avanzado de señales y optimización convexa.
Estoy tratando de encontrar una buena área para abordar mi trabajo de disertación y me preguntaba si de alguna manera puedo relacionarme con algún tema de TCS.
La única área que se me ocurre podría ser la optimización, pero no tengo nada en particular en mente, todo el tema es muy interesante.
Sería genial si pudieras compartir qué tema crees que pertenece a ambos mundos.
PD: esta pregunta podría estar totalmente fuera del alcance de este sitio de preguntas y respuestas, por lo que estoy totalmente de acuerdo si cree que vale la pena cerrarla. ¡Gracias!
fuente
Respuestas:
Como mencionó el procesamiento de señales, debe observar el área de "detección de compresión" . Aquí hay una excelente descripción no técnica de las ideas principales involucradas: http://terrytao.wordpress.com/2007/04/13/compressed-sensing-and-single-pixel-cameras/
fuente
Es posible que desee ver si hay algún problema para verificar los sistemas híbridos (también conocidos como sistemas ciberfísicos) que desea abordar. La interacción del control discreto con sistemas continuos es bastante fascinante, y le permite agregar algo de lógica y teoría de modelos para controlar la teoría, y también tiene muchas aplicaciones útiles (es decir, ¡cada vez que una computadora interactúa con el mundo!).
La página de inicio de Andre Platzer tiene un resumen bastante bueno de esta área.
fuente
Otra posible conexión para explorar es el uso de técnicas de coinducción y carbongebraico para razonar sobre los sistemas teóricos de control. Jan Rutten trabajó hace algunos años en este sentido, a saber:
La tecnología coalgebraic ha avanzado en los últimos 10 años, aunque no sé si la conexión se ha explorado más a fondo. Editar Jan Komenda (y aquí ) parece haber estado siguiendo la conexión.
Otros enfoques posibles podrían incluir el uso de álgebra de procesos, autómatas de E / S, autómatas de interfaz y variantes híbridas de estas cosas. Los autómatas de interfaz tienen un sentimiento teórico de juego muy fuerte que corresponde estrechamente a algunas cosas hechas en la teoría del control, a saber, la distinción entre acciones controlables e incontrolables puede considerarse como acciones que están jugando dos jugadores diferentes. No estoy seguro de si se ha hecho algo en esa área. La conexión parece bastante obvia.
Una conexión final que podría valer la pena explorar es entre la teoría del control y la lógica epistémica. La conexión se puede ver a través de la analogía de los juegos. ¿Qué sabe cada parte? ¿Cómo pueden usar eso para lograr un resultado adecuado en el sistema que se controla?
fuente
La robótica (o como se le llama con demasiada frecuencia en la actualidad, "sistemas ciberfísicos") es una buena fuente de problemas que requieren tanto teoría de control como algoritmos. Vea los Algoritmos de planificación de Steve Lavalle para una buena introducción.
fuente
La elección social parece ser un área agradable en la encrucijada de muchos campos: teoría de control, complejidad, etc. Además, siempre es una sorpresa (quiero decir para mí) ver que los problemas de los muchachos del departamento de economía son casi los mismos que estamos tratando de resolver ... Créeme, vale la pena tomar un café con ellos (y dejarlos pagar, no les importará)).
fuente
Un buen área para explorar podría ser la teoría del control óptimo (es decir, controlar un sistema mientras se minimiza alguna función de costo dada), desarrollada principalmente por Richard Bellman, junto con el paradigma de programación dinámica, que ahora es omnipresente en la informática.
Se encuentra una aplicación muy útil de control óptimo, por ejemplo, en los procesos de decisión de Markov: un sistema dinámico está modelado por una cadena de Markov que puede modificarse mediante el uso de algunas políticas admisibles. Los costos se dan para las transiciones y / o controles y uno generalmente está interesado en encontrar una política que minimice el costo total / promedio / descontado para un horizonte temporal finito / infinito. Esto se puede lograr, por ejemplo, formulando una ecuación de Hamilton-Jacobi-Bellman adecuada para el sistema y luego resolviéndola mediante programación dinámica (existen muchos otros métodos dependiendo de los sistemas).
Por lo tanto, una aplicación natural es la configuración de optimización estocástica en la que el sistema dinámico se puede modelar como Markovian. Una referencia estándar para un control óptimo es:
fuente
¿Qué tal el uso de algoritmos de optimización (como el recocido simulado o genético) para ajustar los parámetros de su elección del algoritmo de bucle de control?
fuente