En espíritu de la famosa Tensorflow ruido como zumbido broma y problema XOr empecé a pensar, si es posible diseñar una red neuronal que los implementos función?
Dada alguna representación de un número (por ejemplo, como un vector en forma binaria, de modo que el número 5
se representa como [1,0,1,0,0,0,0,...]
), la red neural debe aprender para devolver su cuadrado - 25 en este caso.
Si pudiera poner en práctica , que probablemente podría poner en práctica y en general cualquier polinomio de x, y después con la serie de Taylor pude aproximar , lo que resolvería el problema Fizz Buzz - una red neuronal que se puede encontrar resto de la división.
Es evidente que sólo la parte lineal de los NN no será capaz de realizar esta tarea, por lo que si podíamos hacer la multiplicación, sería sucediendo gracias a la función de activación.
¿Puede sugerir alguna idea o la lectura en sujetos?
fuente
Creo que la respuesta de @ShubhamPanchal es un poco engañosa. Sí, es cierto que según el teorema de aproximación universal de Cybenko podemos aproximar con una sola capa oculta que contiene un número finito de neuronas puede aproximar funciones continuas en subconjuntos compactos de , bajo supuestos leves sobre la función de activación.f(x)=x2 Rn
Comentario lateral sobre la aproximación de Taylor : siempre debe tener en cuenta que una aproximación de Taylor es solo una aproximación local. Si solo desea aproximar una función en una región predefinida, entonces debería poder usar la serie Taylor. Pero aproximar por la serie de Taylor evaluada en le dará resultados horribles para si no usa suficientes términos en su expansión de Taylor.sin(x) x=0 x→10000
fuente