Estadísticas y Big Data

9
Forma cerrada para , para

Sabemos que si , entonces donde es la función Digamma ¿Hay una forma fácil para ?p∼Beta(α,β)p∼Beta(α,β)p \sim Beta(\alpha, \beta)E[lnp]=ψ(α)−ψ(α+β)E[ln⁡p]=ψ(α)−ψ(α+β) \mathbb{E}[\ln p] = \psi(\alpha) - \psi(\alpha + \beta) ψ(.)ψ(.)\psi(.)E[ln(1−p)]E[ln⁡(1−p)] \mathbb{E}[\ln...

9
KNN: 1 vecino más cercano

Mi pregunta es sobre el clasificador vecino más cercano y sobre una declaración hecha en el excelente libro The Elements of Statistical Learning, de Hastie, Tibshirani y Friedman. La declaración es (p. 465, sección 13.3): "Debido a que usa solo el punto de entrenamiento más cercano al punto de...

9
¿Cómo usar anova para la comparación de dos modelos?

¿Cómo debo entender el anovaresultado al comparar dos modelos? Ejemplo: Res.Df RSS Df Sum of Sq F Pr(>F) 1 9 54.032 2 7 4.632 2 49.4 37.329 0.0001844 *** La página de manual dice: "Calcular las tablas de análisis de varianza (o desviación) para uno o más objetos de modelo ajustados". Sin...

9
Dejar

Ahora mismo estoy aprendiendo sobre teoría de modelos lineales, y una cosa que me sorprende es que, aunque E[Y]E[Y]\mathbb{E}[\mathbf{Y}] se define para un vector aleatorio Y=⎡⎣⎢⎢⎢⎢y1y2⋮yn⎤⎦⎥⎥⎥⎥Y=[y1y2⋮yn]\mathbf{Y} = \begin{bmatrix} y_1 \\ y_2 \\ \vdots \\ y_n\end{bmatrix}, no se mencionan más...