¿Por qué las estadísticas bayesianas no son más populares para el control estadístico de procesos?

18

Mi comprensión del debate bayesiano vs frecuentista es que las estadísticas frecuentistas:

  • es (o pretende ser) objetivo
  • o al menos imparcial
  • así que diferentes investigadores, utilizando diferentes supuestos aún pueden obtener resultados cuantitativamente comparables

mientras que las estadísticas bayesianas

  • pretende hacer predicciones "mejores" (es decir, menor pérdida esperada), porque puede usar conocimiento previo (entre otras razones)
  • necesita menos opciones "ad hoc", reemplazándolas por opciones anteriores / modelo que (al menos en principio) tengan una interpretación del mundo real.

Dado eso, hubiera esperado que las estadísticas bayesianas fueran muy populares en SPC: si fuera el dueño de una fábrica que tratara de controlar la calidad de mi proceso, me importaría principalmente la pérdida esperada; Si pudiera reducir eso, porque tengo más / mejor conocimiento previo que mis competidores, aún mejor.

Pero prácticamente todo lo que he leído sobre SPC parece ser firmemente frecuente (es decir, sin distribuciones previas, estimaciones puntuales de todos los parámetros, muchas opciones ad-hoc sobre el tamaño de la muestra, los valores de p, etc.)

¿Porqué es eso? Puedo ver por qué las estadísticas frecuentistas eran una mejor opción en la década de 1960, cuando SPC se realizó con lápiz y papel. Pero, ¿por qué nadie ha probado diferentes métodos desde entonces?

nikie
fuente
2
Creo que las estadísticas bayesianas son mi cámara SLP digital mientras que soy frecuente como cámara de iPhone. Los compré en algún momento, pero uso DSLR menos el 5% de las fotos, mientras que el teléfono descansa el 95%. Porque es fácil, práctico y de bolsillo y muchas veces ofrece según la calidad (basado en mis habilidades DSLR). Al igual que al incorporar las cadenas anteriores y las cadenas en heno, necesito encontrar un equilibrio óptimo de la duración de la apertura, la longitud y otros parámetros. Iphone final de popular.
Ram Sharma
¡@RamSharma deberías publicar eso como respuesta! Me gusta más que la analogía de mi cuchillo cocinero.
shadowtalker

Respuestas:

18

ADVERTENCIA Escribí esta respuesta hace mucho tiempo con muy poca idea de lo que estaba hablando. No puedo eliminarlo porque ha sido aceptado, pero no puedo respaldar la mayor parte del contenido.


Esta es una respuesta muy larga y espero que sea útil de alguna manera. SPC no es mi área, pero creo que estos comentarios son lo suficientemente generales como para que se apliquen aquí.

Yo diría que la ventaja más citada, la capacidad de incorporar creencias anteriores , es una ventaja débil aplicada / campos empíricos. Eso es porque necesitas cuantificar tu previo. Incluso si puedo decir "bueno, el nivel z es definitivamente inverosímil", por mi vida no puedo decirte lo que debería pasar debajo de z. A menos que los autores comiencen a publicar sus datos sin procesar en masa, mis mejores conjeturas para los anteriores son momentos condicionales tomados de trabajos anteriores que pueden o no haber sido ajustados en condiciones similares a las que enfrenta.

Básicamente, las técnicas bayesianas (al menos en un nivel conceptual) son excelentes para cuando tienes una suposición / idea / modelo fuerte y quieres llevarlo a los datos, y luego ver qué tan equivocado o no te equivocas. Pero a menudo no busca ver si tiene razón sobre un modelo en particular para su proceso de negocio; lo más probable es que no tengasmodelo, y está buscando ver qué va a hacer su proceso. No quiere sacar sus conclusiones, quiere que sus datos saquen sus conclusiones. Si tiene suficientes datos, eso es lo que sucederá de todos modos, pero en ese caso, ¿por qué molestarse con lo anterior? Tal vez eso sea demasiado escéptico y reacio al riesgo, pero nunca he oído hablar de un hombre de negocios optimista que también haya tenido éxito. No hay forma de cuantificar su incertidumbre acerca de sus propias creencias, y prefiere no correr el riesgo de estar demasiado confiado en lo incorrecto. Entonces establece un previo poco informativo y la ventaja desaparece.

Esto es interesante en el caso de SPC porque, a diferencia del marketing digital, por ejemplo, sus procesos comerciales no están siempre en un estado de flujo impredecible. Mi impresión es que los procesos comerciales tienden a cambiar de manera deliberada e incremental. Es decir, tiene mucho tiempo para construir antecedentes buenos y seguros. Pero recuerde que los antecedentes tienen que ver con propagar la incertidumbre. Dejando de lado la subjetividad, el bayesianismo tiene la ventaja de que propaga objetivamente la incertidumbre a través de procesos de generación de datos profundamente anidados. Para mí, eso es realmente para lo que sirven las estadísticas bayesianas. Y si está buscando la confiabilidad de su proceso mucho más allá del límite de "importancia" 1 en 20, parece que le gustaría tener en cuenta la mayor incertidumbre posible.

Entonces, ¿dónde están los modelos bayesianos? En primer lugar, son difíciles de implementar. Para decirlo sin rodeos, puedo enseñarle OLS a un ingeniero mecánico en 15 minutos y hacer que produzca regresiones y pruebas t en Matlab en otros 5. Para usar Bayes, primero necesito decidir qué tipo de modelo estoy ajustando, y luego vea si hay una biblioteca lista para usar en un idioma que alguien de mi compañía conozca. Si no, tengo que usar BUGS o Stan. Y luego tengo que ejecutar simulaciones para obtener incluso una respuesta básica, y eso lleva unos 15 minutos en una máquina i7 de 8 núcleos. Demasiado para la creación rápida de prototipos. Y en segundo lugar, para el momento en que obtiene una respuesta, ha pasado dos horas codificando y esperando, solo para obtener el mismo resultado que podría tener con efectos aleatorios frecuentes con errores estándar agrupados. Tal vez todo esto sea presuntuoso y equivocado y no entiendo SPC en absoluto.

Comparo el bayesianismo con un cuchillo de chef de muy alta calidad, una olla y una sartén para saltear ; el frenesí es como una cocina llena de herramientas como se ve en la televisión, como máquinas de cortar plátano y macetas de pasta con agujeros en la tapa para facilitar el drenaje . Si eres un cocinero experimentado con mucha experiencia en la cocina, de hecho, en tu propia cocina de conocimiento sustantivo, que está limpia y organizada y sabes dónde está ubicado todo, puedes hacer cosas increíbles con tu pequeña selección de Herramientas elegantes y de alta calidad. O bien, puede usar un montón de pequeñas herramientas diferentes ad-hoc *, que requieren cero habilidades para usar, para hacer una comida que sea simple, realmente no es tan mala, y tiene un par de sabores básicos que lo hacen entender. Acabas de llegar a casa de las minas de datos y tienes hambre de resultados; que cocinero eres

* Bayes es tan ad-hoc, pero menos transparente . ¿Cuánto vino entra en tu coq au vin? No tengo idea, lo miras porque eres un profesional. O bien, no puede distinguir la diferencia entre un Pinot Grigio y un Pinot Noir, pero la primera receta de Epicurious dice que use 2 tazas del rojo, así que eso es lo que va a hacer. ¿Cuál es más "ad-hoc"?

Shadowtalker
fuente
1
+1, gran respuesta. Tengo curiosidad: ¿podría agregar un párrafo sobre tamaños de muestra pequeños / adaptativos? En SPC, los tamaños de muestra de 3-5 parecen ser comunes. Y si el software SPC pudiera decirle al técnico después de 2 muestras si realmente necesitaba 3 muestras más o no, esa sería una gran característica. Con un modelo bayesiano, eso es casi obvio: defina un costo para las mediciones, falsos positivos y negativos, luego calcule el costo esperado de tomar otra medición en lugar de detenerse. En las estadísticas frecuentistas, que tendría que hacer frente a los efectos de la regla de parada raro (¿Se puede enseñar a las personas a un ME en 15 minutos?)
nikie
1
En cuanto al tamaño de la muestra, el problema, y ​​habría mencionado esto si hubiera sabido que las muestras eran tan pequeñas, es que con muy pocas observaciones sus estimaciones serán muy sensibles a su elección previa. No se puede obtener sangre de una piedra, por lo que es una compensación: o se sobreabastece demasiado con un estimador frecuente, pero lo hace con pocas suposiciones, o incorpora su propio conocimiento (o falta de él) en un previo y lo suficientemente vago. esencialmente se ajusta tanto a los datos que tiene frente a usted como a los "datos" que tiene en la cabeza. Se le permite tener un uniforme antes en su cabeza.
shadowtalker
1
Básicamente, Bayes pone más carga sobre el analista para usar su cerebro desde el principio. Personalmente, creo que ser reacio a la idea de establecer prioridades es una señal de que a) eres demasiado vago para, o b) realmente no entiendes cómo funcionan las estadísticas (se necesita conocer una, etc.). Dije que era difícil cuantificar los anteriores en mi respuesta; En realidad no estoy de acuerdo con eso en la práctica. Una cosa que siempre puede hacer es dibujar una curva de campana en una página y preguntarse "¿esperaría que mis datos se vean así?" Si no, comienza a ajustar la curva. Y si no puede decidir dónde pegar el modo, use un hiperprior.
shadowtalker
2
Una pregunta (no pretende ser malcriada): sabes que hay una literatura sobre (cuantitativamente) la solicitud de creencias previas, ¿verdad? Incluidas las creencias publicadas, las creencias entrevistadas de expertos y no expertos, y las creencias propias. La razón por la que pregunto es que he escuchado esta queja antes, pero los autores de tales quejas pensaron que su objeción era el final de la discusión, más que el comienzo de una investigación.
Alexis
1
@CliffAB Interesante ... No he leído esa literatura profundamente (Bernardo, Kaas, Garthwaite ... desde hace varias décadas) ... pero eso es una ciencia cargada de valor para usted: diferentes creencias previas informan si uno prefiere los métodos frecuentistas o bayesianos. ;)
Alexis
5

En mi humilde opinión, las estadísticas bayesianas adolecen de algunos inconvenientes que entran en conflicto con su uso generalizado (en SPC pero también en otros sectores de investigación):

  1. Es más difícil obtener estimaciones en comparación con su contraparte frecuente (la mayor parte de las clases de estadísticas adoptan el enfoque frecuentista. Por cierto, sería interesante investigar si esta es la causa o el efecto de la popularidad limitada de las estadísticas bayesianas )

  2. Muy a menudo, las estadísticas bayesianas imponen opciones sobre diferentes formas de abordar el mismo problema (por ejemplo, ¿cuál es el mejor previo?), No solo hacer clic y ver (de todos modos, este enfoque tampoco debería fomentarse bajo el marco frecuentista).

  3. Las estadísticas bayesianas tienen algunos temas que son difíciles de manejar por estadísticos menos experimentados (p. Ej., Antecedentes inadecuados );

  4. Requiere análisis de sensibilidad (generalmente evitados bajo el marco frecuentista) y excepciones para algunos temas, como el análisis de datos faltantes.

  5. Tiene solo un software (loable, descargable gratis) disponible para el cálculo.

  6. Se necesita más tiempo para ser un investigador autónomo con bayesiano que con herramientas frecuentistas.

Carlo Lazzaro
fuente
66
Buena respuesta, pero no estoy de acuerdo con el punto 5: puedo pensar en muchos programas diferentes (gratuitos) para el análisis bayesiano: WinBUGS, OpenBUGS, JAGS, Stan, PyMC ... y estoy seguro de que hay más. Lo que diría es que todo este software tiene una curva de aprendizaje pronunciada y requiere una cantidad decente de programación y conocimiento estadístico.
COOLSerdash
COOLSerdash tiene razón y agradezco tanto las aclaraciones como los comentarios. Mi falta de exhaustividad en la lista de software de análisis bayesiano probablemente se debió a mi familiaridad (suelta) con WinBugs solamente.
Carlo Lazzaro
@CarloLazzaro Estoy de acuerdo con el punto de COOLSerdash sobre el n. ° 5, también: a partir de la versión 14, el paquete de estadísticas privado pero con licencia Stata ahora incorpora modelos bayesianos y estimaciones en el paquete de vainilla. Creo que la disponibilidad computacional bayesiana solo crecerá. Pero sus otros puntos son importantes y deberían ayudar a informar la agenda de los proponentes bayesianos.
Alexis
@Alexis: como usuario de Stata, estoy contento con su sabor bayesiano bastante reciente. Como un pensamiento más general, respondería al aprender los enfoques frecuentista y bayesiano durante las clases de estadística en la universidad (¡probablemente los partidarios de la probabilidad comienzan a quejarse!).
Carlo Lazzaro
3

Una razón es que las estadísticas bayesianas quedaron fuera de la corriente principal hasta alrededor de 1990. Cuando estudiaba estadísticas en la década de 1970, era casi una herejía (no en todas partes, sino en la mayoría de los programas de posgrado). No ayudó que la mayoría de los problemas interesantes fueran intratables. Como resultado, casi todos los que enseñan estadísticas hoy (y revisan artículos para revistas y diseñan planes de estudio) reciben capacitación como frecuentadores. Las cosas comenzaron a cambiar alrededor de 1990 con la popularización de los métodos de Markov Chain Monte Carlo (MCMC) que gradualmente están llegando a paquetes como SAS y Stata. Personalmente, creo que serán mucho más comunes en 10 años, aunque en aplicaciones especializadas (SPC) pueden no tener mucha ventaja.

Un grupo que está trabajando hace que el análisis bayesiano esté más ampliamente disponible es el grupo que desarrolla el paquete STAN (mc-stan.org).

equinn1
fuente
¡Bienvenido a nuestro sitio! Solo una nota de que es "Stata" en lugar de "STATA": ¡he estado en el lado equivocado de los usuarios de Stata cuando lo capitalicé yo mismo! (Pensé que era como SAS, SPSS, etc., pero aparentemente no ...)
Silverfish