En cierto sentido, no existe una estadística sin "parámetros" y "modelos". Es un etiquetado arbitrario hasta cierto punto, dependiendo de lo que reconozca como "modelo" o "parámetro". Los parámetros y modelos son básicamente formas de traducir suposiciones y conocimientos sobre el mundo real en un sistema matemático. Pero esto es cierto para cualquier algoritmo matemático. Necesitas convertir de alguna manera tu problema del mundo real en cualquier marco matemático que quieras usar para resolverlo.
El uso de una distribución de probabilidad que se ha asignado de acuerdo con algún principio es una forma de hacer esta conversión de manera sistemática y transparente. Los mejores principios que conozco son el principio de máxima entropía (MaxEnt) y el principio de los grupos de transformación (que creo que también podría llamarse el principio de "invariancia" o "indiferencia del problema").
Una vez asignado, puede utilizar la teoría de probabilidad bayesiana para manipular coherentemente estas probabilidades de "entrada" que contienen su información y suposiciones en probabilidades de "salida" que le indican cuánta incertidumbre está presente en el análisis que le interesa.
Algunas introducciones desde la perspectiva Bayes / MaxEnt descritas anteriormente se pueden encontrar aquí , aquí y aquí . Estos se basan en la interpretación de la probabilidad como una extensión de la lógica deductiva. Están más en el lado teórico de las cosas.
Como nota final menor, recomiendo estos métodos principalmente porque me parecen más atractivos: no puedo pensar en una buena razón teórica para renunciar a los comportamientos normativos que se encuentran detrás de la justificación de Bayes / MaxEnt. Por supuesto, es posible que no esté tan obligado como yo, y puedo pensar en algunos compromisos prácticos sobre la viabilidad y las limitaciones del software. Las estadísticas del "mundo real" a menudo pueden referirse a qué ideología se está aproximando (aproximadamente Bayes frente a aproximadamente Máxima probabilidad frente a aproximadamente Diseño basado) o qué ideología entiende y puede explicar a sus clientes.
Una forma bayesiana de introducir y motivar modelos paramétricos es a través de la intercambiabilidad y el teorema de representación de De Finetti. Hay alguna discusión en esta pregunta:
¿Qué tiene de bueno el teorema de representación de de Finetti?
Se da una gran introducción en el primer capítulo de la Teoría de la estadística de Schervish . Todo el lenguaje teórico de medidas necesario para la discusión se da en su Apéndice de tour de force (¡con pruebas completas!). He aprendido mucho de este libro y le recomiendo que lo compre.
Este artículo estudia la generalidad de la construcción bayesiana:
Sandra Fortini, Lucia Ladelli y Eugenio Regazzini
Sankhyā: The Indian Journal of Statistics, Serie A (1961-2002)
Vol. 62, N ° 1 (febrero de 2000), págs. 86-109
Está disponible para descargar aquí: http://sankhya.isical.ac.in/search/62a1/62a17092.pdf
fuente