Forma de confianza e intervalos de predicción para regresión no lineal

13

¿Se supone que las bandas de confianza y predicción alrededor de una regresión no lineal son simétricas alrededor de la línea de regresión? Lo que significa que no toman la forma del reloj de arena como en el caso de las bandas para la regresión lineal. ¿Porqué es eso?

Aquí está el modelo en cuestión: Aquí está la figura:

F(X)=(UN-re1+(XC)si)+re

http://i57.tinypic.com/2q099ok.jpg

y aquí está la ecuación:

ingrese la descripción de la imagen aquí

Sarga
fuente
Su pregunta no está clara, porque pasa de preguntar si "se supone que son simétricos" en la primera oración, a implicar que no están en la oración 2 y preguntar (presumiblemente) por qué no están en la oración 3. ¿Puede hacer esta mas consistente / claro?
gung - Restablece a Monica
Bien, permítanme preguntarlo de esta manera: ¿por qué las bandas de confianza y predicción son simétricas alrededor de la línea de regresión cuando la regresión no es lineal pero adquiere una forma de reloj de arena cuando es lineal?
Serge
0 00 0
Tienes razón. La banda cruza al territorio negativo. Sin embargo, no estoy interesado en los valores de las bandas en sí, sino en los valores EC50 correspondientes a los límites de la banda. ¿Hay alguna alternativa para construir las bandas de esta manera?
Serge
Sí, pero como lo indiqué pueden complicarse. Los métodos de mínimos cuadrados y series de tiempo generalizados pueden hacer frente a la correlación en serie. Las transformaciones no lineales de la variable dependiente son una herramienta para manejar errores no aditivos. Una herramienta más sofisticada es un modelo lineal generalizado. Las elecciones dependen en parte de la naturaleza de la variable dependiente. Por cierto, aunque no estoy seguro de lo que quiere decir con "valores de CE50" (parece que está modelando relaciones dosis-respuesta), cualquier cosa calculada a partir de las bandas ilustradas será sospechosa.
Whuber

Respuestas:

8

Se debería esperar que las bandas de confianza y predicción se ensanchen cerca de los extremos, y por la misma razón que siempre lo hacen en una regresión ordinaria; generalmente la incertidumbre del parámetro conduce a intervalos más amplios cerca de los extremos que en el medio

Puede ver esto simulando con bastante facilidad, ya sea simulando datos de un modelo determinado o simulando a partir de la distribución de muestreo del vector de parámetros.

Los cálculos habituales (aproximadamente correctos) realizados para la regresión no lineal implican tomar una aproximación lineal local (esto se da en la respuesta de Harvey), pero incluso sin ellos podemos obtener alguna noción de lo que está sucediendo.

Sin embargo, hacer los cálculos reales no es trivial y puede ser que los programas tomen un atajo en el cálculo que ignore ese efecto. También es posible que para algunos datos y algunos modelos el efecto sea relativamente pequeño y difícil de ver. De hecho, con intervalos de predicción, especialmente con una gran varianza pero con muchos datos, a veces puede ser difícil ver la curva en una regresión lineal ordinaria: pueden verse casi rectas y es relativamente fácil discernir la desviación de la rectitud.

Aquí hay un ejemplo de lo difícil que puede ser ver solo con un intervalo de confianza para la media (los intervalos de predicción pueden ser mucho más difíciles de ver porque su variación relativa es mucho menor). Aquí hay algunos datos y un ajuste de mínimos cuadrados no lineales, con un intervalo de confianza para la media de la población (en este caso, generado a partir de la distribución de muestreo, ya que conozco el modelo verdadero, pero podría hacerse algo muy similar por aproximación asintótica o por bootstrapping):

ingrese la descripción de la imagen aquí

Los límites morados parecen casi paralelos a las predicciones azules ... pero no lo son. Aquí está el error estándar de la distribución de muestreo de esas predicciones medias:

ingrese la descripción de la imagen aquí

que claramente no es constante


Editar:

¡Esas expresiones "sp" que acaba de publicar provienen directamente del intervalo de predicción para la regresión lineal !

Glen_b -Reinstate a Monica
fuente
¿También está diciendo que el aumento en la incertidumbre de los parámetros a medida que uno se aleja del centro debería hacer que la banda se ensanche en los extremos incluso en el caso de una regresión no lineal, pero que no es tan obvio? ¿O hay una razón teórica por la cual este ensanchamiento no ocurre en el caso de regresión no lineal? Mis bandas ciertamente se ven muy simétricas.
Serge
1
Ese ensanchamiento debería ser típico, pero no sucederá de la misma manera con todos los modelos no lineales y no será tan obvio con cada modelo, y dado que no es tan fácil de hacer, un programa determinado no lo calculará de esa manera . No sé cómo se han calculado las bandas que estás viendo: no soy un lector de mente y no puedo ver el código de un programa del que ni siquiera has mencionado el nombre.
Glen_b -Reinstale a Monica
@ user1505202, esta sigue siendo una pregunta difícil de responder por completo. ¿Puede indicar cuál es su modelo (su forma funcional)? ¿Puedes adjuntar una imagen de la figura que te deja perplejo?
gung - Restablece a Monica
1
Gracias. Tengo los números y son esencialmente constantes: la diferencia entre la línea de regresión y cada límite de predicción oscila entre 18.21074 en el medio y 18.24877 en los extremos. Entonces, un ligero ensanchamiento, pero muy leve. Por cierto, @gung, obtuve la ecuación que calcula el intervalo de predicción. Es:Y-hat +/- sp(Y-hat)
Serge
1
Se trata del tipo de variación que puede ver con un intervalo de predicción con muestras grandes. ¿Qué es sp?
Glen_b -Reinstale a Monica
5

Las matemáticas de calcular la confianza y las bandas de predicción de curvas ajustadas por regresión no lineal se explican en esta página de validación cruzada. Muestra que las bandas no son siempre / generalmente simétricas.

Y aquí hay una explicación con más palabras y menos matemáticas:

Primero, definamos G | x, que es el gradiente de los parámetros en un valor particular de X y utilizando todos los valores de mejor ajuste de los parámetros. El resultado es un vector, con un elemento por parámetro. Para cada parámetro, se define como dY / dP, donde Y es el valor Y de la curva dado el valor particular de X y todos los valores de los parámetros de mejor ajuste, y P es uno de los parámetros).

G '| x es ese vector de gradiente transpuesto, por lo que es una columna en lugar de una fila de valores. Cov es la matriz de covarianza (Hessian inversa de la última iteración). Es una matriz cuadrada con el número de filas y columnas igual al número de parámetros. Cada elemento en la matriz es la covarianza entre dos parámetros. Usamos Cov para referirnos a la matriz de covarianza normalizada , donde cada valor está entre -1 y 1.

Ahora calcular

c = G '| x * Cov * G | x.

El resultado es un número único para cualquier valor de X.

Las bandas de confianza y predicción se centran en la curva de mejor ajuste, y se extienden por encima y por debajo de la curva en una cantidad igual.

Las bandas de confianza se extienden por encima y por debajo de la curva al:

= sqrt (c) * sqrt (SS / DF) * CríticoT (% de confianza, DF)

Las bandas de predicción se extienden una distancia adicional por encima y por debajo de la curva, igual a:

= sqrt (c + 1) * sqrt (SS / DF) * Crítico T (% de confianza, DF)

En ambas ecuaciones, el valor de c (definido anteriormente) depende del valor de X, por lo que las bandas de confianza y predicción no están a una distancia constante de la curva. El valor de SS es la suma de cuadrados para el ajuste, y DF es el número de grados de libertad (número de puntos de datos menos número de parámetros). CriticalT es una constante de la distribución t basada en el nivel de confianza que desea (tradicionalmente 95%) y el número de grados de libertad. Para límites del 95%, y un df bastante grande, este valor es cercano a 1.96. Si DF es pequeño, este valor es mayor.

Harvey Motulsky
fuente
Gracias Harvey Estoy trabajando para obtener el gradiente de los parámetros para mi función. ¿Conoce por casualidad un ejemplo trabajado, ya que tampoco tengo claro cómo se obtiene la matriz de covarianza?
Serge
Si usa la demostración GraphPad Prism, puede ajustar los datos a cualquier modelo que desee y ver la matriz de covarianza (un resultado opcional elegido en la pestaña Diagnóstico) y las bandas de confianza o predicción (como números y gráfico; también elija en Pestaña Diagnóstico). Eso no es tan bueno como un ejemplo trabajado, pero al menos puedes comparar la matriz de covarianza y ver si el problema es antes o después ...
Harvey Motulsky
Dos cosas, sin embargo. 1. Prism me dio la matriz Cov. Sin embargo, es solo un número para todo el conjunto de datos. ¿No se supone que debo obtener un valor por valor X? 2. Obtengo la banda de predicción en el gráfico, pero me gustaría que la salida contenga los valores. Prism no parece hacer eso. Soy muy nuevo en Prism, por lo que es posible que no haya buscado en todas partes, ¡pero lo intenté!
Serge
1. La matriz de covarianza muestra el grado en que los parámetros están entrelazados. Por lo tanto, hay un valor para cada par de parámetros que pide que ajuste la regresión no lineal. 2. Mire en la pestaña Rango para pedirle a Prism que haga una tabla de las coordenadas XY de la curva, con valores más / menos para las bandas de confianza o predicción. 3. Para soporte técnico con Prism, envíe un correo electrónico a [email protected] Use este foro para preguntas estadísticas, no soporte técnico.
Harvey Motulsky