piensa que puede estar malinterpretando de alguna manera el punto de la pregunta. la intención de la pregunta del examen parece ser "qué buenos pesos de perceptrón resultarían para este problema de clasificación". La razón de esto es que uno no puede seguir todos los pasos de un algoritmo de larga duración durante un examen o incluso la tarea.
volviendo a la teoría del perceptrón [que tiene varias décadas de antigüedad] el punto es que es un clasificador basado en funciones linealmente separables , es decir, desigualdades lineales . para el caso 2d esto da como resultado una geometría algebraica simple. en otras palabras, el perceptrón puede implementar cierto número de desigualdades lineales para intentar crear la clasificación. aquí se da comon = 2. entonces la pregunta que probablemente se pretendía es, "¿cuáles son las dos desigualdades lineales con las que un buen algoritmo de perceptrón convergería para este problema"?
entonces parece reducirse para encontrar los coeficientes de:
y<metro1x +si2
y>metro2x +si2
entonces usa álgebra geométrica básica para determinar los coeficientes metro1,metro2,si1,si2que funcionan para el diagrama de arriba. basado en el diagrama no hay una solución perfecta, sino una "buena". (también tenga en cuenta que las ecuaciones solo necesitan trabajar dentro de[ 0 , 1]2.)
intuitivamente, también está algo implicado en este análisis por qué los perceptrones son tan limitados. porque es fácil, incluso en 2d, dibujar problemas de clasificación para los que no hay una solución separable linealmente (formas cóncavas, formas con agujeros, etcétera), se ve algo de esto al notar que la forma anterior es ligeramente cóncava). esta observación, desarrollada de una manera más sofisticada / formal / matemática / rigurosa en [1], causó mucha controversia en ese momento y fue un debate importante en la historia de la IA, e incluso aparentemente desanimó a algunos científicos a investigar más sofisticados simuló modelos de redes neuronales durante algún tiempo, aunque Minsky negó enfáticamente que esa fuera su intención y dijo que su trabajo fue malinterpretado.
[1] Perceptrones, por Minsky y Papert