En el aprendizaje automático, las personas hablan sobre la función objetivo, la función de costo, la función de pérdida. ¿Son solo nombres diferentes de la misma cosa? ¿Cuándo usarlos? Si no siempre se refieren a lo mismo, ¿cuáles son las diferencias?
machine-learning
terminology
artificial-intelligence
Compartimiento
fuente
fuente
Respuestas:
Estos no son términos muy estrictos y están muy relacionados. Sin embargo:
Larga historia corta, diría que:
Una función de pérdida es una parte de una función de costo que es un tipo de función objetivo.
fuente
Según el profesor Andrew Ng (ver diapositivas en la página 11),
La función h (X) representa su hipótesis. Para los parámetros de ajuste fijos theta, es una función de las características X. Yo diría que esto también se puede llamar la Función Objetivo.
La función de coste J es una función de los parámetros de ajuste theta. J = J (theta).
Según el libro de texto de Hastie et al. "Elementos del aprendizaje estadístico" , por p.37:
Por lo tanto, parece que "función de pérdida" es un término un poco más general que "función de costo". Si busca "pérdida" en ese PDF, creo que usan "función de costo" y "función de pérdida" como sinónimos.
De hecho, p. 502
Quizás estos términos existen porque evolucionaron independientemente en diferentes comunidades académicas. "Función Objetivo" es un antiguo término utilizado en Investigación de Operaciones e Ingeniería Matemática. La "función de pérdida" podría ser más utilizada entre los estadísticos. Pero estoy especulando aquí.
fuente
En palabras de Andrew NG
fuente
De la sección 4.3 en "Aprendizaje profundo" - Ian Goodfellow, Yoshua Bengio, Aaron Courville http://www.deeplearningbook.org/
"La función que queremos minimizar o maximizar se llama función objetivo o criterio. Cuando la minimizamos, también podemos llamarla función de costo, función de pérdida o función de error. En este libro, usamos estos términos indistintamente, aunque algunas publicaciones de aprendizaje automático asignan un significado especial a algunos de estos términos ".
En este libro, al menos, la pérdida y el costo son los mismos.
fuente
Para darle una respuesta corta, según yo, son sinónimos. Sin embargo, la función de costo se usa más en el problema de optimización y la función de pérdida se usa en la estimación de parámetros.
fuente
Los términos funciones de costo y pérdida son sinónimos, algunas personas también lo llaman función de error. El escenario más general es definir primero una función objetivo, que queremos optimizar. Esta función objetivo podría ser
fuente
En realidad, para ser simple Si tienes m datos de entrenamiento como este (x (1), y (1)), (x (2), y (2)),. . . (x (m), y (m)) Utilizamos la función de pérdida L (ycap, y) para encontrar la pérdida entre ycap e y de un solo conjunto de entrenamiento. Si queremos encontrar la pérdida entre ycap e y de todo un conjunto de entrenamiento, usamos función de costo.
Nota: - ycap significa salida de nuestro modelo ey significa salida esperada
Nota: - El crédito va Andrew ng Recurso: curso de red neuronal y aprendizaje profundo
fuente
La función de pérdida calcula el error para un solo ejemplo de entrenamiento, mientras que la función de costo es el promedio de las funciones de pérdida de todo el conjunto de entrenamiento.
fuente