Estoy revisando el Manual de Computación Inspirado en la Naturaleza e Innovador para SIGACT News. Es una lectura muy interesante. Sin embargo, cada capítulo tiene el sabor: "Esta es mi área de investigación, ¡y maldita sea, es increíble!" Entonces, parte de lo que estoy tratando de hacer es separar el bombo y hacer una evaluación sobria del contenido del libro.
Un capítulo trata sobre la lógica difusa y los sistemas difusos, y lo increíble que son. Y tal vez lo son, francamente no lo sé. El sentido intuitivo que tengo al pasar tiempo con los científicos informáticos es que la lógica difusa y el modelado difuso de los sistemas de control, etc., están "muertos". Sin embargo, no sé si eso es cierto e, incluso si es cierto, no sé si es cierto por una "buena razón".
¿A alguien le gustaría pesar aquí? ¿Cuál es el estado actual de la investigación en sistemas difusos? ¿Fuzzification ve aplicaciones del mundo real? ¿Solía hacerlo y la gente se alejó debido a problemas? ¿O la gente "en las trincheras" lo usa todo el tiempo, y es solo que los teóricos se han alejado de él? ¿O algo mas? (No tengo idea de lo que es verdad).
Probablemente citaré respuestas a esta pregunta en la reseña del libro, a menos que un respondedor específicamente me pida que no lo haga.
Gracias.
fuente
Respuestas:
No consideraría la lógica difusa muerta. Para los sistemas de control, no lo sé. Sin embargo, ha habido mucha actividad en las lógicas difusas para los teóricos de pruebas durante los últimos años: busque documentos de Ciabattoni, Olivetti, Fermüller, Metcalfe y Baaz para empezar.
Editar: Algunas referencias específicas de mi archivo BibTeX:
Sin embargo, estas son referencias de teoría de prueba y deducción automática,
fuente