Estimación imparcial de la matriz de covarianza para datos censurados múltiples

22

Los análisis químicos de las muestras ambientales a menudo se censuran a continuación en los límites de notificación o en varios límites de detección / cuantificación. Este último puede variar, generalmente en proporción a los valores de otras variables. Por ejemplo, una muestra con una alta concentración de un compuesto puede necesitar diluirse para el análisis, lo que resulta en una inflación proporcional de los límites de censura para todos los demás compuestos analizados al mismo tiempo en esa muestra. Como otro ejemplo, a veces la presencia de un compuesto puede alterar la respuesta de la prueba a otros compuestos (una "interferencia de matriz"); cuando el laboratorio lo detecte, aumentará sus límites de notificación en consecuencia.

Estoy buscando una forma práctica de estimar la matriz de varianza-covarianza completa para dichos conjuntos de datos, especialmente cuando muchos de los compuestos experimentan más del 50% de censura, que a menudo es el caso. Un modelo de distribución convencional es que los logaritmos de las concentraciones (verdaderas) están distribuidos de manera multinormal, y esto parece encajar bien en la práctica, por lo que sería útil una solución para esta situación.

(Por "práctico" me refiero a un método que puede codificarse de manera confiable en al menos un entorno de software generalmente disponible como R, Python, SAS, etc., de una manera que se ejecute lo suficientemente rápido como para admitir recálculos iterativos como los que ocurren en la imputación múltiple, y que es razonablemente estable [es por eso que soy reacio a explorar una implementación de ERRORES, aunque las soluciones bayesianas en general son bienvenidas].

Muchas gracias de antemano por sus pensamientos sobre este asunto.

whuber
fuente
Solo así entiendo correctamente el problema de la censura: cuando diluye una muestra, la concentración de un compuesto cae tan bajo que el instrumento de prueba puede no detectar su presencia. ¿Es eso una reformulación precisa del problema de censura?
Sí, eso es correcto: la dilución por un factor de D aumenta todos los límites de detección también por un factor de D. (El problema de la interferencia de la matriz es más difícil de cuantificar y la situación general es extremadamente compleja. Para simplificar esto, el modelo convencional es que un conjunto de pruebas en una muestra produce un vector (x [1], ..., x [k ]) donde x [i] son ​​números reales o son intervalos de reales, normalmente con el punto final izquierdo en -infinito; un intervalo identifica un conjunto en el que se supone que se encuentra el valor verdadero).
whuber
¿Por qué subirían los límites de detección? ¿No son una característica del instrumento de prueba en lugar de la de la muestra que se está analizando?
Como ejemplo, suponga que el límite de detección de un instrumento es de 1 microgramo por litro (ug / L). Una muestra se diluye 10: 1 (con gran precisión, por lo que no nos preocupamos por errores aquí) y el instrumento lee "<1"; es decir, no detectable, para la muestra diluida. El laboratorio infiere que la concentración en la muestra es inferior a 10 * 1 = 10 ug / L y lo informa como tal; es decir, como "<10".
whuber
1
@amoeba Veo que debería haber explicado esas cosas en la pregunta misma. Las respuestas son: PCA; la dimensionalidad variará de 3 a unos pocos cientos; los tamaños de muestra siempre exceden en gran medida la dimensionalidad, pero las tasas de censura pueden ser muy altas (se necesita poder manejar hasta el 50% y es deseable hasta el 95%).
whuber

Respuestas:

3

No he internalizado por completo el tema de la interferencia de la matriz, pero aquí hay un enfoque. Dejar:

sea ​​un vector que represente la concentración de todos los compuestos objetivo en la muestra sin diluir.Y

Z

dre

Nuestro modelo es:

YN(μ,Σ)

Z=Yd+ϵ

ϵN(0,σ2 I)

Por lo tanto, se deduce que:

ZN(μd,Σ+σ2 I)

ZfZ(.)

Oτith

Oyo=Zyoyo(Zyo>τ)+0 0yo(Zyoτ)

k

L(O1,...Ok,Ok+1,...OnorteEl |-)=[yo=1yo=kPAGSr(Zyoτ)][yo=k+1yo=norteF(OyoEl |-)]

dónde

F(OyoEl |-)=jyoFZ(OyoEl |-)yo(Oyo>τ)

La estimación es, entonces, una cuestión de utilizar la máxima probabilidad o ideas bayesianas. No estoy seguro de cuán manejable es lo anterior, pero espero que te dé algunas ideas.


fuente
Muchas gracias por este pensamiento. De hecho, este es un enfoque estándar y bien documentado para la censura múltiple. Una dificultad radica en su intratabilidad: esas integrales son notoriamente difíciles de calcular. Aquí también hay un problema de modelado: el valor de d generalmente se correlaciona positivamente con Y , como lo implica el primer párrafo de mi descripción.
whuber
2

Otra opción más eficiente desde el punto de vista computacional sería ajustar la matriz de covarianza por coincidencia de momentos utilizando un modelo que se ha denominado "Gaussiano dicomizado", realmente solo un modelo de cópula gaussiana.

Un artículo reciente de Macke et al 2010 describe un procedimiento de forma cerrada para ajustar este modelo que involucra solo la matriz de covarianza empírica (censurada) y el cálculo de algunas probabilidades normales bivariadas. El mismo grupo (laboratorio de Bethge en MPI Tuebingen) también ha descrito modelos gaussianos híbridos discretos / continuos que probablemente son lo que desea aquí (es decir, ya que los RV gaussianos no están completamente "dicotomizados", solo aquellos por debajo del umbral).

Críticamente, este no es un estimador de ML, y me temo que no sé cuáles son sus propiedades de sesgo.

jpillow
fuente
@jp Gracias: lo investigaré. (Puede llevar algo de tiempo ...)
whuber
1

¿Cuántos compuestos hay en su muestra? (O, ¿qué tan grande es la matriz de covarianza en cuestión?).

Alan Genz tiene un código muy agradable en una variedad de lenguajes (R, Matlab, Fortran; ver aquí ) para calcular integrales de densidades normales multivariadas sobre hiper-rectángulos (es decir, los tipos de integrales que necesita para evaluar la probabilidad, como lo señala usuario28).

He usado estas funciones ("ADAPT" y "QSIMVN") para integrales de hasta 10-12 dimensiones, y varias funciones en esa página anuncian integrales (y derivados asociados que pueda necesitar) para problemas hasta la dimensión 100. No lo uso No sé si eso es suficiente para sus propósitos, pero si es así, presumiblemente podría permitirle encontrar estimaciones de máxima probabilidad por gradiente de ascenso.

jpillow
fuente
Oh, lo siento, soy nuevo aquí y no me di cuenta de cuánto tiempo hace que se publicó esto, ¡probablemente sea demasiado tarde para ser de mucha ayuda!
jpillow
@jp Este es un problema importante en curso, por lo que el tiempo transcurrido entre la pregunta y la respuesta es de poca importancia. ¡Gracias por responder!
whuber