¿Cuál es la diferencia entre la prueba de McNemar y la prueba de chi-cuadrado, y cómo sabes cuándo usar cada una?

30

He intentado leer sobre diferentes fuentes, pero todavía no tengo claro qué prueba sería la adecuada en mi caso. Hay tres preguntas diferentes que hago sobre mi conjunto de datos:

  1. Los sujetos son evaluados para detectar infecciones de X en diferentes momentos. Quiero saber si las proporciones de positivo para X después están relacionadas con la proporción de positivo para X antes:

                 After   
               |no  |yes|
    Before|No  |1157|35 |
          |Yes |220 |13 |
    
    results of chi-squared test: 
    Chi^2 =  4.183     d.f. =  1     p =  0.04082 
    
    results of McNemar's test: 
    Chi^2 =  134.2     d.f. =  1     p =  4.901e-31
    

    Según tengo entendido, como los datos son medidas repetidas, debo usar la prueba de McNemar, que prueba si la proporción de positivo para X ha cambiado.

    Pero mis preguntas parecen necesitar la prueba de ji cuadrado: probar si la proporción de positivo para X después está relacionada con la proporción de positivo para X antes.

    Ni siquiera estoy seguro si entiendo la diferencia entre la prueba de McNemar y el chi-cuadrado correctamente. ¿Cuál sería la prueba correcta si mi pregunta fuera: "¿La proporción de sujetos infectados con X después es diferente de antes?"

  2. Un caso similar, pero donde en lugar de antes y después, mido dos infecciones diferentes en un momento dado:

            Y   
          |no  |yes|
    X|No  |1157|35 |
     |Yes |220 |13 |
    

    ¿Qué prueba sería correcta aquí si la pregunta es "¿Las proporciones más altas de una infección se relacionan con proporciones más altas de Y"?

  3. Si mi pregunta fuera: "¿La infección Y en el momento t2 está relacionada con la infección X en el tiempo t1?", ¿Qué prueba sería apropiada?

                  Y at t2   
                |no  |yes|
    X at t1|No  |1157|35 |
           |Yes |220 |13 |
    

Estaba usando la prueba de McNemar en todos estos casos, pero tengo mis dudas sobre si esa es la prueba correcta para responder mis preguntas. Estoy usando R. ¿Podría usar un binomio en su glmlugar? ¿Sería eso análogo a la prueba de chi-cuadrado?

Anto
fuente
1
¿ Intentó leer stats.stackexchange.com/questions/tagged/mcnemar-test temas aquí en la prueba de Mcnemar?
ttnphns
¿Qué quiere decir con "relación entre dos probabilidades"?
Michael M
@ttnphns Los revisé, pero no pude reformularlo a mi pregunta. Después de pensar más, parece que puedo responder dos preguntas basadas en la P1: Chi-sq me diría si la proporción de + ve X después está relacionada con la proporción de + ve X antes, mientras que Mcnemar me diría si ha habido un cambio en las proporciones. Estoy en lo cierto?
Anto
No puede utilizar una prueba de independencia estándar porque cada persona está representada por dos valores que causan muestras no aleatorias. χ2
Michael M
Gracias @MichaelMayer. Estaba usando mcnemar's hasta que vi esto . Cuando se explica el Mcnemar, él dice qué respondería hacer un Chi-sq en el mismo caso. Estoy bastante perplejo. La forma en que cada prueba nos dice está enmarcada en esta página, debo elegir el Chi-sq, pero como son medidas sobre el mismo tema, ¡debo elegir McNemar's!
Hasta el

Respuestas:

48

Es muy lamentable que la prueba de McNemar sea ​​tan difícil de entender para la gente. Incluso noto que en la parte superior de su página de Wikipedia dice que la explicación en la página es difícil de entender para la gente. La explicación breve típica de la prueba de McNemar es que es: 'una prueba de chi-cuadrado dentro de los sujetos' o que es 'una prueba de la homogeneidad marginal de una tabla de contingencia'. No encuentro que ninguno de estos sea muy útil. Primero, no está claro qué se entiende por 'chi-cuadrado dentro de los sujetos', porque siempre estás midiendo tus sujetos dos veces (una vez en cada variable) y tratando de determinar la relación entre esas variables. Además, 'homogeneidad marginal' (Trágicamente, incluso esta respuesta puede ser confusa. Si lo es, puede ser útil leer mi segundo intento a continuación).

Veamos si podemos trabajar a través de un proceso de razonamiento sobre su ejemplo principal para ver si podemos entender si (y si es así, por qué) la prueba de McNemar es apropiada. Usted ha puesto:

ingrese la descripción de la imagen aquí

Esta es una tabla de contingencia, por lo que connota un análisis de chi-cuadrado. Además, desea comprender la relación entre y A f t e r , y la prueba de chi-cuadrado verifica la relación entre las variables, por lo que a primera vista parece que la prueba de chi-cuadrado debe ser El análisis que responde a su pregunta. simiFormiUNAFtmir

Sin embargo, vale la pena señalar que también podemos presentar estos datos así:

ingrese la descripción de la imagen aquí

Cuando observa los datos de esta manera, puede pensar que podría hacer una prueba antigua normal . Pero una prueba t no está del todo bien. Hay dos problemas: Primero, debido a que cada fila enumera los datos medidos del mismo sujeto, no queremos hacer una prueba t entre sujetos , nos gustaría hacer una prueba t dentro de los sujetos . En segundo lugar, dado que estos datos se distribuyen como un binomio , la varianza es una función de la media. Esto significa que no hay una incertidumbre adicional de la que preocuparse una vez que se ha estimado la media de la muestra (es decir, no tiene que estimar posteriormente la varianza), por lo que no tiene que referirse a la distribución t , puede usar el ztttttzdistribución. (Para más información sobre esto, puede ayudar a leer mi respuesta aquí: El -test frente a la χ 2 pruebaszχ2 .) Por lo tanto, se necesita un intra-sujetos -test. Es decir, necesitamos una prueba de igualdad de proporciones dentro de los sujetos. z

Hemos visto que hay dos formas diferentes de pensar y analizar estos datos (impulsados ​​por dos formas diferentes de ver los datos). Por lo tanto, debemos decidir de qué manera debemos usar. La prueba de chi cuadrado evalúa si y A f t e r son independientes. Es decir, las personas que estuvieron enfermas de antemano tienen más probabilidades de enfermarse después que las personas que nunca han estado enfermas. Es extremadamente difícil ver cómo ese no sería el caso dado que estas mediciones se evalúan en los mismos sujetos. Si obtuviera un resultado no significativo (como casi lo hace) eso sería simplemente un error de tipo II. En lugar de si B e fsimiFormiUNAFtmir y A f t e r son independientes, es casi seguro que desea saber si el tratamiento funciona (una pregunta chi-cuadrado no responde). Esto es muy similar a cualquier número de estudios de tratamiento versus control en los que desea ver si las medias son iguales, excepto que en este caso sus mediciones son sí / no y son dentro de los sujetos. Considere una t más típicasimiFormiUNAFtmirt-test situación con presión arterial medida antes y después de algún tratamiento. Aquellos cuyo punto de referencia estaba por encima de su promedio de muestra de antemano, casi seguramente tenderán a estar entre los puntos de referencia más altos después, pero no desea saber sobre la consistencia de las clasificaciones, desea saber si el tratamiento condujo a un cambio en el punto de referencia medio . Su situación aquí es directamente análoga. Específicamente, desea ejecutar una prueba de igualdad de proporciones dentro de los sujetos . Esa es la prueba de McNemar.z

z

UNAFtmirnorteoYmistotunalsimiForminorteo1157351192Ymis22013233totunal1377481425
simiFormiUNAFtmir
Antes de la proporción sí=220+131425,Después de proporción sí=35+131425
1322035220/ /(220+35).5R

Hay otra discusión sobre la prueba de McNemar, con extensiones a las tablas de contingencia mayores de 2x2, aquí .


Aquí hay una Rdemostración con sus datos:

mat = as.table(rbind(c(1157, 35), 
                     c( 220, 13) ))
colnames(mat) <- rownames(mat) <- c("No", "Yes")
names(dimnames(mat)) = c("Before", "After")
mat
margin.table(mat, 1)
margin.table(mat, 2)
sum(mat)

mcnemar.test(mat, correct=FALSE)
#  McNemar's Chi-squared test
# 
# data:  mat
# McNemar's chi-squared = 134.2157, df = 1, p-value < 2.2e-16
binom.test(c(220, 35), p=0.5)
#  Exact binomial test
# 
# data:  c(220, 35)
# number of successes = 220, number of trials = 255, p-value < 2.2e-16
# alternative hypothesis: true probability of success is not equal to 0.5
# 95 percent confidence interval:
#  0.8143138 0.9024996
# sample estimates:
# probability of success 
#              0.8627451 

Si no tomáramos en cuenta la naturaleza de los datos dentro de los sujetos, tendríamos una prueba un poco menos poderosa de la igualdad de proporciones:

prop.test(rbind(margin.table(mat, 1), margin.table(mat, 2)), correct=FALSE)
#  2-sample test for equality of proportions without continuity
#  correction
# 
# data:  rbind(margin.table(mat, 1), margin.table(mat, 2))
# X-squared = 135.1195, df = 1, p-value < 2.2e-16
# alternative hypothesis: two.sided
# 95 percent confidence interval:
#  0.1084598 0.1511894
# sample estimates:
#    prop 1    prop 2 
# 0.9663158 0.8364912 

X-squared = 133.6627chi-squared = 134.215713norte=2850norte=1425


Aquí están las respuestas a sus preguntas concretas:

  1. El análisis correcto es la prueba de McNemar (como se discutió ampliamente anteriormente).
  2. Esta versión es más complicada, y la redacción "hace que proporciones más altas de una infección se relacionen con proporciones más altas de Y" es ambigua. Hay dos posibles preguntas:

    • Es perfectamente razonable querer saber si los pacientes que contraen una de las infecciones tienden a contraer la otra, en cuyo caso utilizaría la prueba de independencia chi-cuadrado. Esta pregunta es si la susceptibilidad a las dos infecciones diferentes es independiente (tal vez porque se contraen a través de diferentes vías fisiológicas) o no (tal vez se contraen debido a un sistema inmunitario generalmente debilitado).
    • También es perfectamente razonable saber si la misma proporción de pacientes tiende a contraer ambas infecciones, en cuyo caso usaría la prueba de McNemar. La pregunta aquí es si las infecciones son igualmente virulentas.
  3. Dado que esta es una vez más la misma infección, por supuesto, estarán relacionados. Entiendo que esta versión no es antes y después de un tratamiento, sino solo en algún momento posterior. Por lo tanto, se pregunta si las tasas de infección de fondo están cambiando orgánicamente, lo que nuevamente es una pregunta perfectamente razonable. En cualquier caso, el análisis correcto es la prueba de McNemar.
    Editar: Parece que interpreté mal su tercera pregunta, tal vez debido a un error tipográfico. Ahora lo interpreto como dos infecciones diferentes en dos puntos de tiempo separados. Según esta interpretación, la prueba de ji cuadrado sería apropiada.
gung - Restablece a Monica
fuente
@Alexis Por lo que puedo entender, tú y Gung parecen estar hablando entre sí. Incluso la llamada prueba t "no emparejada" o "muestras independientes", o el "ANOVA" de un solo sentido o "muestras independientes", en realidad requiere datos emparejados en el sentido de Gung: para cada sujeto, debe registrar tanto un grupo categórico variable de membresía y una variable de resultado continuo . (Si la variable de pertenencia al grupo tiene dos niveles, generalmente usamos la prueba t no emparejada; para los niveles de 3+ necesita ANOVA unidireccional).
Silverfish
2
Al explicar qué prueba usar, muestro ambas formas de verlo: si tiene observaciones de una variable continua, una para cada sujeto, y los sujetos provienen de 2 (o 3+) grupos y le interesan las diferencias entre grupos, luego use la prueba t de muestras independientes (o ANOVA unidireccional). Luego, confirme su elección mirando su tabla de datos: ¿tiene, para cada materia, dos datos: categoría para la pertenencia al grupo y la variable continua. Incluso podemos cambiar las cosas y decir que la prueba t es una especie de prueba de asociación entre variable binaria y continua.
Silverfish
2
La prueba t pareada (o ANOVA de muestras correlacionadas) se usa si, para cada sujeto, tiene dos (o 3+) lecturas continuas, tomadas en diferentes condiciones, y desea probar las diferencias entre las condiciones. Esto está "emparejado" en un sentido diferente. Pero en esta pregunta, tenemos dos variables categóricas registradas para cada sujeto. Mirando la tabla de datos, los valores registrados de esas variables categóricas deben venir en pares. Pero esto no significa que el diseño del estudio en sí esté emparejado. Esto es confuso (como notas de gung). Pero si conoce el diseño de su estudio, esto puede resolverlo (como señala Alexis)
Silverfish
@Silverfish Si tiene dos observaciones (de la misma variable nominal) hechas en cada tema, ¿en qué sentido no es un diseño emparejado?
Alexis
1
@Alexis Es el "de la misma variable" que es clave, y potencialmente confuso. Es posible que sepa que representa la misma variable, aunque bajo diferentes condiciones o en diferentes momentos, pero dependiendo de la forma en que presentamos la tabla de datos, puede parecer que se registran como variables diferentes (por ejemplo, un "antes" y un "después" separados variable).
Silverfish
22

Bueno, parece que hice un hash de esto. Permítanme intentar explicar esto nuevamente, de una manera diferente y veremos si puede ayudar a aclarar las cosas.

La forma tradicional de explicar la prueba de McNemar frente a la prueba de chi-cuadrado es preguntar si los datos están "emparejados" y recomendar la prueba de McNemar si los datos están emparejados y la prueba de chi-cuadrado si los datos están "no emparejados". He descubierto que esto genera mucha confusión (¡este hilo es un ejemplo!). En lugar de esto, he descubierto que es más útil enfocarse en la pregunta que está tratando de hacer y usar la prueba que coincida con su pregunta. Para hacer esto más concreto, veamos un escenario inventado:

Usted camina alrededor de una conferencia de estadísticas y por cada estadístico que conoce, registra si son de los EE. UU. O el Reino Unido. También registra si tienen presión arterial alta o presión arterial normal.

Aquí están los datos:

mat = as.table(rbind(c(195,   5),
                     c(  5, 195) ))
colnames(mat)        = c("US", "UK")
rownames(mat)        = c("Hi", "Normal")
names(dimnames(mat)) = c("BP", "Nationality")
mat
#         Nationality
# BP        US  UK
#   Hi     195   5
#   Normal   5 195

En este punto, es importante determinar qué pregunta queremos hacer con nuestros datos. Hay tres preguntas diferentes que podríamos hacer aquí:

  1. Lo que se quiere saber si las variables categóricas BPy Nationalityestán asociados o independientes;
  2. Podríamos preguntarnos si la presión arterial alta es más común entre los estadísticos de EE. UU. Que entre los estadísticos del Reino Unido;
  3. Finalmente, podríamos preguntarnos si la proporción de estadísticos con presión arterial alta es igual a la proporción de estadísticos estadounidenses con los que hablamos. Esto se refiere a las proporciones marginales de la tabla. Estos no se imprimen por defecto en R, pero podemos obtenerlos de esta manera (tenga en cuenta que, en este caso, son exactamente iguales):

    margin.table(mat, 1)/sum(mat)
    # BP
    #    Hi Normal 
    #   0.5    0.5 
    margin.table(mat, 2)/sum(mat)
    # Nationality
    #  US  UK 
    # 0.5 0.5 

Como dije, el enfoque tradicional, discutido en muchos libros de texto, es determinar qué prueba usar en función de si los datos están "emparejados" o no. Pero esto es muy confuso, ¿esta tabla de contingencia está "emparejada"? Si comparamos la proporción con presión arterial alta entre los estadísticos de EE. UU. Y el Reino Unido, está comparando dos proporciones (aunque de la misma variable) medidas en diferentes grupos de personas. Por otro lado, si desea comparar la proporción con presión arterial alta con la proporción US, está comparando dos proporciones (aunque de diferentes variables) medidas en el mismo grupo de personas. Estos datos son ambos"emparejado" y "no emparejado" al mismo tiempo (aunque con respecto a diferentes aspectos de los datos). Esto lleva a la confusión. Para tratar de evitar esta confusión, argumento que debes pensar en términos de qué pregunta estás haciendo. Específicamente, si quieres saber:

  1. Si las variables son independientes: use la prueba de ji cuadrado.
  2. Si la proporción con presión arterial alta difiere según la nacionalidad: utilice la prueba z para la diferencia de proporciones.
  3. Si las proporciones marginales son las mismas: use la prueba de McNemar.

Alguien podría estar en desacuerdo conmigo aquí, argumentando que debido a que la tabla de contingencia no está "emparejada", la prueba de McNemar no puede usarse para probar la igualdad de las proporciones marginales y que la prueba de chi-cuadrado debería usarse en su lugar. Dado que este es el punto de discusión, intentemos ambos para ver si los resultados tienen sentido:

chisq.test(mat)
#  Pearson's Chi-squared test with Yates' continuity correction
# 
# data:  mat
# X-squared = 357.21, df = 1, p-value < 2.2e-16
mcnemar.test(mat)
#  McNemar's Chi-squared test
# 
# data:  mat
# McNemar's chi-squared = 0, df = 1, p-value = 1

50%=50%

Probemos con otro ejemplo:

mat2 = as.table(rbind(c(195, 195),
                      c(  5,   5) ))
colnames(mat2)        = c("US", "UK")
rownames(mat2)        = c("Hi", "Normal")
names(dimnames(mat2)) = c("BP", "Nationality")
mat2
#         Nationality
# BP        US  UK
#   Hi     195 195
#   Normal   5   5
margin.table(mat2, 1)/sum(mat2)
# BP
#     Hi Normal 
#  0.975  0.025 
margin.table(mat2, 2)/sum(mat2)
# Nationality
#  US  UK 
# 0.5 0.5 

97,5%50%

chisq.test(mat2)
#  Pearson's Chi-squared test
# 
# data:  mat2
# X-squared = 0, df = 1, p-value = 1
mcnemar.test(mat2)
#  McNemar's Chi-squared test with continuity correction
# 
# data:  mat2
# McNemar's chi-squared = 178.605, df = 1, p-value < 2.2e-16

Esta vez, la prueba de ji cuadrado da un valor p de 1, lo que significa que las proporciones marginales son tan iguales como pueden ser. Pero vimos que las proporciones marginales obviamente no son iguales, por lo que este resultado no tiene ningún sentido a la luz de nuestros datos. Por otro lado, la prueba de McNemar arroja un valor p de aproximadamente 0. En otras palabras, es extremadamente improbable obtener datos con proporciones marginales tan lejos de la igualdad como estos, si realmente son iguales en la población. Dado que nuestras proporciones marginales observadas están lejos de ser iguales, este resultado tiene sentido.

El hecho de que la prueba de ji al cuadrado arroje resultados que no tienen sentido dados nuestros datos sugiere que hay algo malo en usar la prueba de ji al cuadrado aquí. Por supuesto, el hecho de que la prueba de McNemar proporcionó resultados razonables no prueba que sea válida, puede que haya sido una coincidencia, pero la prueba de ji cuadrado es claramente incorrecta.

Veamos si podemos analizar el argumento de por qué la prueba de McNemar podría ser la correcta. Usaré un tercer conjunto de datos:

mat3 = as.table(rbind(c(190,  15),
                      c( 60, 135) ))
colnames(mat3)        = c("US", "UK")
rownames(mat3)        = c("Hi", "Normal")
names(dimnames(mat3)) = c("BP", "Nationality")
mat3
#         Nationality
# BP        US  UK
#   Hi     190  15
#   Normal  60 135
margin.table(mat3, 1)/sum(mat3)
# BP
#     Hi Normal 
# 0.5125 0.4875 
margin.table(mat3, 2)/sum(mat3)
# Nationality
#    US    UK 
# 0.625 0.375 

51.25%62,5%

prop.test(x=c(205, 250), n=c(400, 400))
#  2-sample test for equality of proportions with continuity correction
# 
# data:  c(205, 250) out of c(400, 400)
# X-squared = 9.8665, df = 1, p-value = 0.001683
# alternative hypothesis: two.sided
# 95 percent confidence interval:
#   -0.18319286 -0.04180714
# sample estimates:
# prop 1 prop 2 
# 0.5125 0.6250 

(Para usar prop.test()para probar las proporciones marginales, tuve que ingresar los números de 'éxitos' y el número total de 'pruebas' manualmente, pero puedes ver desde la última línea de la salida que las proporciones son correctas). Esto sugiere que es poco probable que obtenga proporciones marginales tan lejos de la igualdad si fueran realmente iguales, dada la cantidad de datos que tenemos.

¿Es válida esta prueba? Aquí hay dos problemas: la prueba cree que tenemos 800 datos, cuando en realidad solo tenemos 400. Esta prueba tampoco tiene en cuenta que estas dos proporciones no son independientes, en el sentido de que se midieron en las mismas personas.


% BP alto: 190+15400% EE. UU .: 190+60 60400
1904001560 60π=.5bajo el nulo. Esa fue la idea de McNemar. De hecho, la prueba de McNemar es esencialmente una prueba binomial de si las observaciones tienen la misma probabilidad de caer en esas dos celdas:
binom.test(x=15, n=(15+60))
#  Exact binomial test
# 
# data:  15 and (15 + 60)
# number of successes = 15, number of trials = 75, p-value = 1.588e-07
# alternative hypothesis: true probability of success is not equal to 0.5
# 95 percent confidence interval:
#   0.1164821 0.3083261
# sample estimates:
# probability of success 
#                    0.2 

En esta versión, solo se utilizan las observaciones informativas y no se cuentan dos veces. El valor p aquí es mucho más pequeño, 0.0000001588, que a menudo es el caso cuando se tiene en cuenta la dependencia en los datos. Es decir, esta prueba es más poderosa que la prueba z de diferencia de proporciones. Podemos ver además que la versión anterior es esencialmente la misma que la prueba de McNemar:

mcnemar.test(mat3, correct=FALSE)
#  McNemar's Chi-squared test
# 
# data:  mat3
# McNemar's chi-squared = 27, df = 1, p-value = 2.035e-07

Si la no identidad es confusa, la prueba de McNemar típicamente, y en R, cuadra el resultado y lo compara con la distribución de chi-cuadrado, que no es una prueba exacta como el binomio anterior:

(15-60)^2/(15+60)
# [1] 27
1-pchisq(27, df=1)
# [1] 2.034555e-07

Por lo tanto, cuando desea verificar que las proporciones marginales de una tabla de contingencia sean iguales, la prueba de McNemar (o la prueba binomial exacta calculada manualmente) es correcta. Utiliza solo la información relevante sin usar ilegalmente ningún dato dos veces. No solo 'sucede' para producir resultados que tengan sentido de los datos.

Sigo creyendo que intentar averiguar si una tabla de contingencia está "emparejada" no es útil. Sugiero usar la prueba que coincida con la pregunta que está haciendo de los datos.

gung - Restablece a Monica
fuente
1
Tienes mi voto. :)
Alexis
11

χ2χ2


χ2

Por ejemplo, puede tener una muestra de 20 estadísticos de los EE. UU., Y una muestra independiente separada de 37 estadísticos del Reino Unido, y medir si estos estadísticos son hipertensos o normotensos. Su hipótesis nula es que tanto los estadísticos del Reino Unido como los de los Estados Unidos tienen la misma probabilidad subyacente de ser hipertensos (es decir, saber si uno es de los EE. UU. O del Reino Unido no dice nada sobre la probabilidad de hipertensión). Por supuesto, es posible que pueda tener el mismo tamaño de muestra en cada grupo, pero eso no cambia el hecho de que las muestras sean independientes (es decir, sin emparejar ).


χ2

Por ejemplo, es posible que tenga datos de estudios de casos y controles emparejados individualmente de una conferencia internacional de estadísticos, donde 30 estadísticos con hipertensión (casos) y 30 estadísticos sin hipertensión (controles; que son individualmente emparejados por edad, sexo, IMC y tabaquismo en casos particulares), son evaluados retrospectivamente para residencia profesional en el Reino Unido versus residencia en otro lugar. Lo nulo es que la probabilidad de residir en el Reino Unido entre los casos es la misma que la probabilidad de residir en el Reino Unido como controles (es decir, saber sobre el estado hipertensivo de uno no dice nada sobre el historial de residencia del Reino Unido).

rsχ2=[(r-s)-1]2(r+s)

Además, en su ejemplo, sus datos están emparejados (la misma variable se mide dos veces en el mismo sujeto) y, por lo tanto, la prueba de McNemar es la opción adecuada de prueba para la asociación.

[Gung y yo no estuvimos de acuerdo por un tiempo sobre una respuesta anterior.]

Referencias citadas
"Suponiendo que todavía estamos interesados ​​en comparar proporciones, ¿qué podemos hacer si nuestros datos están emparejados, en lugar de ser independientes? ... En esta situación, usamos la prueba de McNemar". - Pagano y Gauvreau, Principios de bioestadística , 2da. edición, página 349. [ Énfasis agregado ]

"La expresión es mejor conocida como la estadística de prueba de pares emparejados de McNemar (McNemar, 1949), y ha sido un pilar del análisis de pares emparejados ". - Rothman, Groenlandia y Lash. Epidemiología moderna , página 286. [ Énfasis agregado ]

"La prueba t pareada y las medidas repetidas de análisis de varianza se pueden usar para analizar experimentos en los que la variable que se está estudiando se puede medir en una escala de intervalo (y satisface otras suposiciones requeridas de los métodos paramétricos). ¿Qué pasa con los experimentos, análogos a los en el Capítulo 5, ¿dónde se mide el resultado en una escala nominal ? Este problema a menudo surge cuando se pregunta si un individuo respondió o no a un tratamiento o al comparar los resultados de dos pruebas de diagnóstico diferentes que se clasifican como positivas o negativas en los mismos individuos. Desarrollaremos un procedimiento para analizar tales experimentos, la prueba de Mcnemar para los cambios , en el contexto de uno de esos estudios ". - Glanz, Primer of Biostatisticsχ2

"Para los datos de control de casos coincidentes con un control por caso , el análisis resultante es simple, y la prueba estadística adecuada es la prueba de chi-cuadrado de McNemar ... tenga en cuenta que para el cálculo de la razón de probabilidades y la estadística, los únicos contribuyentes son los pares que tienen una exposición diferente , es decir, los pares donde el caso estuvo expuesto pero el control no, y aquellos donde el control estuvo expuesto pero el caso no. "- Elwood. Valoración crítica de estudios epidemiológicos y ensayos clínicos , primera edición, páginas 189-190. [ Énfasis agregado ]

Alexis
fuente
7

Mi comprensión de la prueba de McNemar es la siguiente: se utiliza para ver si una intervención ha marcado una diferencia significativa en un resultado binario. En su ejemplo, se verifica la infección en un grupo de sujetos y la respuesta se registra como sí o no. Todos los sujetos reciben alguna intervención, por ejemplo, un antibiótico. Luego se verifican nuevamente para detectar infección y la respuesta se registra como sí / no nuevamente. Los (pares de) respuestas se pueden poner en la tabla de contingencia:

             After   
           |no  |yes|
Before|No  |1157|35 |
      |Yes |220 |13 |

Y la prueba de McNemar sería apropiada para esto.

De la tabla se desprende que muchos más se han convertido de 'sí' a 'no' (220 / (220 + 13) o 94.4%) que de 'no' a 'sí' (35 / (1157 + 35) o 2.9 %). Considerando estas proporciones, el valor P de McNemar (4.901e-31) parece más correcto que el valor P de chi-cuadrado (0.04082).

Si la tabla de contingencia representa 2 infecciones diferentes (pregunta 2), entonces Chi-cuadrado sería más apropiado.

Tu tercera pregunta es ambigua: primero declaras relacionar Y en t2 con Y en t1 pero en la tabla escribes 'X' en t1 vs Y en t2. Y en t2 vs Y en t1 es lo mismo que su primera pregunta y, por lo tanto, se necesita la prueba de McNemar, mientras que X en t1 e Y en t2 indican que se están comparando diferentes eventos y, por lo tanto, Chi-cuadrado será más apropiado.

Editar: Como lo menciona Alexis en el comentario, los datos de control de casos coincidentes también se analizan mediante la prueba de McNemar. Por ejemplo, 1425 pacientes con cáncer son reclutados para un estudio y para cada paciente también se recluta un control compatible. Todos estos (1425 * 2) se verifican en busca de infección. Los resultados de cada par se pueden mostrar en una tabla similar:

             Normal   
           |no  |yes|
Cancer|No  |1157|35 |
      |Yes |220 |13 |

Mas claro:

                                    Normal:
                                    No infection   Infection  
Cancer patient:     No infection    1157            35      
                    Infection       220             13      

Muestra que es mucho más frecuente que un paciente con cáncer tuviera una infección y el control no, en lugar de lo contrario. Su importancia puede ser probada por la prueba de McNemar.

Si estos pacientes y controles no coincidían e eran independientes, solo se puede hacer la siguiente tabla y hacer una prueba de chisquare:

            Infection
            No    Yes
Cancer  No  1377   48
        Yes 1192  233

Mas claro:

                No infection        Infection
No cancer       1377                48
Cancer          1192                233

Tenga en cuenta que estos números son los mismos que los márgenes de la primera tabla:

> addmargins(mat)
      After
Before   No  Yes  Sum
   No  1157   35 1192
   Yes  220   13  233
   Sum 1377   48 1425

Esa debe ser la razón para el uso de términos como "frecuencias marginales" y "homogeneidad marginal" en la prueba de McNemar.

Curiosamente, la función addmargins también puede ayudar a decidir qué prueba usar. Si el total general es la mitad del número de sujetos observados (lo que indica que se ha realizado el emparejamiento), entonces se aplica la prueba de McNemar; de lo contrario, es apropiada la prueba cuadriculada:

> addmargins(mat)
      Normal
Cancer   No  Yes  Sum
   No  1157   35 1192
   Yes  220   13  233
   Sum 1377   48 1425
> 
> addmargins(mat3)
      Infection
Cancer   No  Yes  Sum
   No  1377   48 1425
   Yes 1192  233 1425
   Sum 2569  281 2850

Los códigos R para las tablas anteriores son de las respuestas anteriores:

mat = as.table(rbind(c(1157, 35), 
                      c( 220, 13) ))
colnames(mat) <- rownames(mat) <- c("No", "Yes")
names(dimnames(mat)) = c("Cancer", "Normal")

mat3 = as.table(rbind(c(1377, 48), 
                     c(1192, 233) ))
colnames(mat3) <- rownames(mat3) <- c("No", "Yes")
names(dimnames(mat3)) = c("Cancer", "Infection")

El siguiente pseudocódigo también puede ayudar a conocer la diferencia:

subject_id      result_first_observation    result_second_observation   
1               no                          yes                     
2               yes                         no                      
...

mcnemar.test(table(result_first_observation, result_second_observation))



pair_id     result_case_subject     result_control_subject  
1           no                      yes                     
2           yes                     no                      
...

mcnemar.test(table(result_case_subject, result_control_subject))



subject_id      result_first_test       result_second_test
1               yes                     no
2               no                      yes
..

chisq.test(table(result_first_test, result_second_test))

Editar:

mid-pLa variación de la prueba de McNemar ( https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3716987/ ) es interesante. Se compara by cde la tabla de contingencia, es decir, el número que cambió de sí a no versus el número que cambió de no a sí (ignorando el número de aquellos que permanecieron sí o no durante el estudio). Se puede realizar usando la prueba binomial en python, como se muestra en https://gist.github.com/kylebgorman/c8b3fb31c1552ecbaafb

Podría ser equivalente a, binom.test(b, b+c, 0.5)ya que en un cambio aleatorio, uno esperaría bser igual a c.

rnso
fuente
3
No solo para el análisis de intervención: también se utiliza para analizar datos de control de casos coincidentes en un sentido observacional.
Alexis
Dada la descripción / configuración anterior a la tabla para Q3, sospecho que la "X" es un error tipográfico, pero esa fue una buena captura y esta es una contribución útil para el hilo +1.
gung - Restablece a Monica
@mso Editado Q3. ¡es X en t1! de lo contrario, como usted dice, no es diferente de Q1. este Q tiene más de un año y me sorprende ver a alguien regresar con los mismos pensamientos que me confundieron. Siguiendo con mucho interés!
Anto
Mis disculpas, el OP ha aclarado Q3, evidentemente son 2 enfermedades diferentes en 2 momentos diferentes. De nuevo, buena captura.
gung - Restablece a Monica