¿Qué es la estimación conjunta?

12

Mi pregunta es simple: ¿qué es la estimación conjunta? ¿Y qué significa en el contexto del análisis de regresión? Como se hace Estuve deambulando por Internet durante bastante tiempo, pero no encontré respuestas a estas preguntas.

Perdido en regresión
fuente
1
¡Muchas gracias por todas las respuestas útiles y el esfuerzo que pusiste para aclararme esto!
Perdido en la regresión el

Respuestas:

14

La estimación conjunta es, simplemente, la estimación conjunta de dos (o más) cosas al mismo tiempo. Puede ser tan simple como estimar la media y la desviación estándar de una muestra.

En gran parte de la literatura, el término se invoca porque se debe utilizar un procedimiento de estimación especial. Este suele ser el caso cuando una cantidad depende de la otra y viceversa, de modo que una solución analítica al problema es intratable. La forma exacta en que se realiza la estimación conjunta depende completamente del problema.

Un método que aparece a menudo para el "modelado conjunto" o la estimación conjunta es el algoritmo EM. EM significa expectativa: maximización. Al alternar estos pasos, el paso E completa los datos faltantes que, de lo contrario, dependen del componente A, y el paso M encuentra estimaciones óptimas para el componente B. Al iterar los pasos E y M, puede encontrar una estimación de probabilidad máxima de A y B, por lo tanto, estiman conjuntamente estas cosas.

AdamO
fuente
1
¿Puede dar un ejemplo de donde estamos no la estimación de la media y la desviación estándar de una variable? ¿Qué tipo de algoritmo se usa entonces?
smci
El modelado mixto lineal @smci estima conjuntamente los componentes fijos y aleatorios.
AdamO
gracias, quiero decir, edita eso (y cualquier otro ejemplo) en tu respuesta. ¿Es el algoritmo totalmente diferente a EM? (¿Cómo logra estimar ambos componentes simultáneamente? ¿Garantiza la convergencia? Etc.)
smci
@smci no estoy de acuerdo. a) Esa no es la pregunta del OP. b) Hay infinitos "otros ejemplos". c) Cuál es el algoritmo de LME y en qué se diferencia de EM es otra cuestión.
AdamO
Ayuda a ilustrar la respuesta con ejemplos. Y eso hace una respuesta mejor, por lo tanto, es parte de lo que se preguntó.
smci
6

En un contexto estadístico, el término "estimación conjunta" podría significar una de dos cosas:

    1. La estimación simultánea de dos o más parámetros escalares (o equivalente, la estimación de un parámetro vectorial con al menos dos elementos); o
    1. La estimación de un único parámetro perteneciente a una articulación (p. Ej., En el estudio de carpintería, sistemas de plomería o fumar marihuana).

De esas dos opciones, la segunda es una broma, por lo que casi con certeza, la estimación conjunta se refiere a estimar simultáneamente dos parámetros escalares a la vez.

Ben - Restablece a Monica
fuente
1
ser pedante, dos o más
qwr
1
Pedantry aceptado - editado.
Ben - Restablece a Mónica el
3

La estimación conjunta está utilizando datos para estimar dos o más parámetros al mismo tiempo. La estimación separada evalúa cada parámetro de uno en uno.

La estimación es el resultado de alguna forma de proceso de optimización. Debido a esto, no existen soluciones de estimación únicas en estadística. Si cambia su objetivo, entonces cambia lo que es óptimo. Cuando aprendes cosas como la regresión, nadie te dice por qué estás haciendo lo que estás haciendo. El objetivo del instructor es brindarle un grado de funcionalidad básica utilizando métodos que funcionan en una amplia gama de circunstancias. Al principio, no estás aprendiendo acerca de la regresión. En cambio, está aprendiendo uno o dos métodos de regresión que son ampliamente aplicables en una amplia gama de circunstancias.

El hecho de que esté buscando soluciones que resuelvan un objetivo oculto hace que sea un poco difícil de entender.

En el contexto de la regresión, imagine que la siguiente expresión algebraica es verdadera . Un truismo en las estadísticas es que cuanta más información tenga, mejor será. Supongamos que necesita determinar qué valores para sucederán cuando vea . El problema es que no conoce los valores verdaderos para . Tiene un conjunto de datos grande y completo de .

z=βxx+βyy+α
z(x,y){βx,βy,α}{x,y,z}

En una estimación separada, estimaría un parámetro a la vez. En una estimación conjunta, los estimaría todos a la vez.

Como regla general, la estimación conjunta es más precisa que una estimación separada con un gran conjunto de datos completo. Hay una excepción general a eso. Imagine que tiene un gran conjunto de y , pero un pequeño conjunto de . Imagina que faltan la mayoría de tus valores .xzyy

En muchas rutinas de estimación, eliminaría los sy s faltantes y reduciría el conjunto desde el que está trabajando hasta que todos los conjuntos estén completos. Si ha eliminado suficientes datos, puede ser más preciso usar la gran cantidad de sy s por separado para estimar y que en conjunto.xzxzz=βxx+αz=βyy+α

Ahora en cuanto a cómo se hace. Toda estimación, excluyendo algunos casos excepcionales, utiliza el cálculo para encontrar un estimador que minimice alguna forma de pérdida o algún tipo de riesgo. La preocupación es que tendrá mala suerte al elegir su muestra. Desafortunadamente, hay un número infinito de funciones de pérdida. También hay un número infinito de funciones de riesgo.

Encontré varios videos para ti porque es un tema gigante para que puedas verlo de forma más general. Son del monje matemático.

https://www.youtube.com/watch?v=6GhSiM0frIk

https://www.youtube.com/watch?v=5SPm4TmYTX0

https://www.youtube.com/watch?v=b1GxZdFN6cY

y

https://www.youtube.com/watch?v=WdnP1gmb8Hw .

Dave Harris
fuente