Estoy teniendo muchos problemas para entender esto. ¿Significa que no debe usar la función de costos con mucha frecuencia?
machine-learning
beginner
linear-regression
jame_smith
fuente
fuente
Una función de costo es algo que usa para penalizar las desviaciones altas de los resultados esperados en comparación con sus predicciones reales.
Puede pensar en una función de costo como un signo de cuán mala fue su predicción. Un valor de función de alto costo significa que la predicción estaba realmente apagada, por lo tanto, el enfoque en minimizar la función de costo, produciendo así un modelo de predicción preciso.
fuente
Las funciones de costo en el contexto del aprendizaje automático a menudo calculan algún tipo de métrica que significa qué tan bien está funcionando su modelo. Uno común es, por ejemplo, el error cuadrático medio, donde observa todos los ejemplos de prueba donde conoce el valor verdadero y el predicho, tome la diferencia entre eso y cuadrácelo. Al minimizar este error (función de costo), asume que sus predicciones serán mejores.
fuente
Considere que tiene algunos datos y desea modelar una función que se ajuste a los datos. Esta función debería ajustarse bien y no debería tener error (idealmente). ¿Cómo defino este error? y voila aquí viene la función de costo.
fuente
Minimizar una función (costo) significa que desea encontrar buenos valores para sus parámetros. Los buenos parámetros significan que la función puede producir los mejores resultados posibles, es decir, los más pequeños, porque los valores pequeños significan menos errores . Este es un problema de optimización: el problema de encontrar la mejor solución de todas las soluciones posibles. ( fuente )
fuente