Tamaño relativo de los valores de p en diferentes tamaños de muestra

13

¿Cómo cambia el tamaño relativo del valor ap en diferentes tamaños de muestra? Como si obtuviera en para una correlación y luego en obtuviera el mismo valor p de 0.20, ¿cuál sería el tamaño relativo del valor p para la segunda prueba, en comparación con el valor p original? cuando ?p=0.20n=45n=120n=45

Nick Stauner
fuente
1
Explique el sentido en el que está modificando los tamaños de muestra. ¿Está tratando de comparar los valores de p para dos experimentos independientes de diferentes cosas o, en cambio, está contemplando la posibilidad de aumentar una muestra de tamaño mediante la recopilación de observaciones independientes adicionales? 4512045
whuber
Desafortunadamente no se me dio más información que la de la pregunta
1
Esto es para algún tema?
Glen_b -Reinstala Monica

Respuestas:

19

Considere lanzar una moneda que sospecha que puede aparecer cara a mano con demasiada frecuencia.

Realizas un experimento, seguido de una prueba de hipótesis de una cola. En diez lanzamientos obtienes 7 cabezas. Algo tan alejado del 50% podría suceder fácilmente con una moneda justa. Nada inusual allí.

Si, en cambio, obtienes 700 caras en 1000 lanzamientos, un resultado al menos tan justo como eso sería asombroso para una moneda justa.

Entonces, el 70% de las caras no es nada extraño para una moneda justa en el primer caso y muy extraño para una moneda justa en el segundo caso. La diferencia es el tamaño de la muestra.

A medida que aumenta el tamaño de la muestra, disminuye nuestra incertidumbre acerca de dónde podría estar la media de la población (la proporción de cabezas en nuestro ejemplo). Por lo tanto, las muestras más grandes son consistentes con rangos más pequeños de posibles valores de población: más valores tienden a "descartarse" a medida que las muestras se hacen más grandes.

Cuantos más datos tengamos, más precisamente podremos precisar dónde podría estar la media de la población ... por lo que un valor fijo de la media que está mal parecerá menos plausible a medida que nuestros tamaños de muestra se hagan más grandes. Es decir, los valores p tienden a reducirse a medida que aumenta el tamaño de la muestra, a menos que sea ​​verdaderoH0 .

Glen_b -Reinstate a Monica
fuente
Gracias :) ¿Y cómo encaja eso con obtener el mismo valor p (no más pequeño) con un tamaño de muestra más grande?
1
Su pregunta no dice que el valor p es el mismo, dice que pensó que sería el mismo. ¿Es esta una nueva pregunta o no estabas especialmente claro acerca de lo que querías? En cualquier caso, puede suceder, si la muestra más grande está lo suficientemente cerca de lo que esperaría bajo nulo para que sea así. Imagine que tiene 8 caras en 25 lanzamientos (32% de cabezas), pero 14 caras en 39 lanzamientos (aproximadamente 36% de caras). El valor p para una prueba de es casi el mismo. P(H)=0.5
Glen_b -Reinstalar Monica
1
Su pregunta editada ahora es muy confusa. Pensé que entendía lo que estabas preguntando, ahora no tengo ni idea de lo que estás hablando. (Al parecer, lo que parecía que estaba pidiendo no es lo que estaba pidiendo.)
Glen_b -Reinstate Mónica
1
No sé qué significa la frase 'valor p relativo' allí.
Glen_b -Reinstalar Monica
1
Para el editor anónimo: 700 cabezas en 1000 lanzamientos es mucho más de lo necesario para establecer el punto; Ya son 12,65 desviaciones estándar de la media. Corresponde a un valor p de . Ya es un ejemplo extremo, por lo que multiplicar todo por 1000 en realidad no ayuda a mejorar ese punto. Incluso 70 de cada 100 serían más que suficientes. 1.7×1037
Glen_b: reinstala a Monica el
8

Estoy de acuerdo con @Glen_b, solo quiero explicarlo desde otro punto de vista.

Pongamos el ejemplo de la diferencia de medias en dos poblaciones. Rechazar es equivalente a decir que 0 no está en el intervalo de confianza para la diferencia de medias. Este intervalo se hace más pequeño con n (por definición), por lo que será cada vez más difícil para cualquier punto (en este caso, el cero) estar en el intervalo a medida que n crece. Como el rechazo por intervalo de confianza es matemáticamente equivalente al rechazo por valor p, el valor p se reducirá con n.H0

Llegará el momento en que obtendrá un intervalo como que indicará que la primera población tiene una media mayor que la segunda población, pero esta diferencia es tan pequeña que no le importaría. Rechazará , pero este rechazo no significará nada en la vida real. Esa es la razón por la cual los valores p no son suficientes para describir un resultado. Siempre se debe dar alguna medida del TAMAÑO de la diferencia observada.[0.0001,0.0010]H0

Rufo
fuente
3

El valor para una de de una que un dado distinto de cero es en realidad cero en la población disminuirá al aumentar el tamaño de la muestra. Esto se debe a que una muestra más grande que proporciona evidencia consistente de ese efecto distinto de cero proporciona más evidencia contra el nulo que una muestra más pequeña. Una muestra más pequeña ofrece más oportunidades de error de muestreo aleatorio para sesgar las estimaciones del tamaño del efecto, como lo ilustra la respuesta de @ Glen_b. La regresión a la media reduce el error de muestreo a medida que aumenta el tamaño de la muestra; una estimación del tamaño del efecto basada en la tendencia central de una muestra mejora con el tamaño de la muestra siguiendo el teorema del límite central . Por lo tantopp- es decir, la probabilidad de obtener más muestras del mismo tamaño y con tamaños de efectos al menos tan fuertes como los de su muestra si los extrae aleatoriamente de la misma población, suponiendo que el tamaño del efecto en esa población sea realmente cero - disminuye a medida que el tamaño de la muestra aumenta y el tamaño del efecto de la muestra permanece sin cambios. Si el tamaño del efecto disminuye o la variación del error aumenta a medida que aumenta el tamaño de la muestra, la significancia puede permanecer igual.

Aquí hay otro ejemplo simple: la correlación entre e . Aquí, Pearson . Si duplico los datos y pruebo la correlación de e , todavía, pero . No se necesitan muchas copias ( ) para acercarse a , que se muestra aquí:x={1,2,3,4,5}y={2,1,2,1,3}r=.378,t(3)=.71,p=.53x={1,2,3,4,5,1,2,3,4,5}y={2,1,2,1,3,2,1,2,1,3}r=.378t(3)=1.15,p=.28nlimnp(n)=0

Nick Stauner
fuente
Cuando hace referencia al CLT, creo que realmente quiere hacer referencia a la ley de los grandes números. El CLT nos da una normalidad aproximada de la distribución de muestreo, que realmente no menciona en absoluto.
Dason