Mi supervisor plantea esta pregunta y no sé cómo explicarla.
Por lo general, el nivel de confianza aceptado es 0.95, lo que significa que la probabilidad de error de tipo 1 es del 5%. Pero el poder generalmente aceptado es 0.8 (Cohen, 1988), lo que significa que la probabilidad de error tipo 2 es del 20%. ¿Por qué podemos aceptar una mayor probabilidad de error tipo 2 que un error tipo 1? ¿Hay alguna razón estadística detrás de eso?
También preguntó el significado físico de power = 0.8 (por qué se selecciona como criterio) que tampoco tengo idea de explicar.
Y cuando usamos el análisis de potencia para diseñar el experimento, podemos seleccionar el tamaño efectivo 0.3, 0.5 o 0.8 para representar los efectos pequeños, medianos y grandes. Y mi supervisor preguntó por qué se seleccionan estos números. Tengo entendido que estos números se sugieren en función de la experiencia. Inmediatamente me preguntó cuál es la experiencia. Estoy realmente frustrante con esas preguntas. Mi especialidad no son las estadísticas y necesito dedicar mucho tiempo a esas preguntas, lo que creo que puede no tener sentido. ¿Alguien puede sugerir si tales preguntas son realmente significativas o no? En caso afirmativo, ¿cómo puedo encontrar la respuesta?
fuente
Respuestas:
Ni la tasa de error de tipo uno del 5% ni la cifra de potencia del 80% son universales. Por ejemplo, los físicos de partículas tienden a utilizar un criterio de "5 sigma" que corresponde a una tasa de error nocional tipo I que es aproximadamente del orden de uno en un millón. De hecho, dudo que su físico promedio haya oído hablar de Cohen.
Pero una razón por la cual las dos tasas de error que cita deben ser diferentes es que el costo de los dos tipos de error no sería el mismo.
En cuanto a por qué la tasa de error tipo I a menudo se toma en 5%, aquí se discute parte de la razón (algunos de los antecedentes históricos de la convención) .
fuente