¿Existe un método estándar y aceptado para seleccionar el número de capas y el número de nodos en cada capa, en una red neuronal de avance? Estoy interesado en formas automatizadas de construir redes
Preguntas y respuestas para personas interesadas en estadísticas, aprendizaje automático, análisis de datos, minería de datos y visualización de datos.
¿Existe un método estándar y aceptado para seleccionar el número de capas y el número de nodos en cada capa, en una red neuronal de avance? Estoy interesado en formas automatizadas de construir redes
La página de wikipedia afirma que la probabilidad y la probabilidad son conceptos distintos. En lenguaje no técnico, "verosimilitud" suele ser sinónimo de "probabilidad", pero en el uso estadístico hay una clara distinción en perspectiva: el número que es la probabilidad de algunos resultados...
Descargo de responsabilidad: no soy un estadístico sino un ingeniero de software. La mayor parte de mi conocimiento en estadística proviene de la autoeducación, por lo que todavía tengo muchas lagunas en la comprensión de conceptos que pueden parecer triviales para otras personas aquí. Así que...
Encontré esto confuso cuando uso la caja de herramientas de red neuronal en Matlab. Dividió el conjunto de datos sin procesar en tres partes: conjunto de entrenamiento conjunto de validación equipo de prueba Noto que en muchos algoritmos de entrenamiento o aprendizaje, los datos a menudo se...
El año pasado, leí una publicación de blog de Brendan O'Connor titulada "Estadísticas vs. Aprendizaje automático, ¡lucha!" eso discutió algunas de las diferencias entre los dos campos. Andrew Gelman respondió favorablemente a esto : Simon Blomberg: Del paquete de fortunas de R: Parafraseando...
En la definición de desviación estándar, ¿por qué tenemos que cuadrar la diferencia de la media para obtener la media (E) y recuperar la raíz cuadrada al final? ¿No podemos simplemente tomar el valor absoluto de la diferencia y obtener el valor esperado (promedio) de esos, y eso no mostraría...
K-means es un método ampliamente utilizado en el análisis de conglomerados. Según tengo entendido, este método NO requiere NINGUNA suposición, es decir, dame un conjunto de datos y un número predeterminado de clústeres, k, y simplemente aplico este algoritmo que minimiza la suma de los errores al...
Mucha gente usa una herramienta principal como Excel u otra hoja de cálculo, SPSS, Stata o R para sus necesidades estadísticas. Pueden recurrir a algún paquete específico para necesidades muy especiales, pero se pueden hacer muchas cosas con una simple hoja de cálculo o un paquete de estadísticas...
El análisis de componentes principales (PCA) generalmente se explica a través de una descomposición propia de la matriz de covarianza. Sin embargo, también se puede realizar a través de descomposición en valores singulares (SVD) de la matriz de datos . ¿Como funciona? ¿Cuál es la conexión entre...
Este es uno de mis favoritos: Una entrada por respuesta. (Esto está en la línea de la pregunta de desbordamiento de pila ¿ Cuál es tu dibujo animado favorito de "programador"? ) PD No conecte el dibujo animado sin el permiso del sitio, por
¿Cómo describirías en inglés las características que distinguen el razonamiento bayesiano del
Recientemente utilicé bootstrapping para estimar los intervalos de confianza para un proyecto. Alguien que no sabe mucho sobre estadísticas recientemente me pidió que explicara por qué funciona el bootstrapping, es decir, por qué volver a muestrear la misma muestra una y otra vez da buenos...
Supongamos que tenemos un conjunto de datos con puntos. Queremos realizar una regresión lineal, pero primero clasificamos los valores y los valores independientemente uno del otro, formando un conjunto de datos . ¿Hay alguna interpretación significativa de la regresión en el nuevo conjunto de...
¿Cuál es la diferencia entre el modelo Logit y Probit ? Aquí estoy más interesado en saber cuándo usar la regresión logística y cuándo usar Probit. Si hay alguna literatura que lo defina usando R , eso también sería
Un ex colega una vez me argumentó lo siguiente: Usualmente aplicamos pruebas de normalidad a los resultados de procesos que, bajo nulo, generan variables aleatorias que son solo asintóticamente o casi normales (con la parte 'asintóticamente' dependiente de alguna cantidad que no podemos hacer...
En cierta literatura, he leído que una regresión con múltiples variables explicativas, si está en unidades diferentes, necesitaba ser estandarizada. (La estandarización consiste en restar la media y dividirla por la desviación estándar). ¿En qué otros casos necesito estandarizar mis datos? ¿Hay...
En términos simples, ¿cómo explicaría (quizás con ejemplos simples) la diferencia entre los modelos de efectos fijos, de efectos aleatorios y de efectos mixtos?
Estoy perdido en la normalización, ¿podría alguien guiarme por favor? Tengo valores mínimos y máximos, digamos -23.89 y 7.54990767, respectivamente. Si obtengo un valor de 5.6878, ¿cómo puedo escalar este valor en una escala de 0 a
¿Cuál es tu cita estadística favorita? Esta es la wiki de la comunidad, así que por favor, una cita por respuesta.
Después de tomar un curso de estadística y luego tratar de ayudar a otros estudiantes, noté que un tema que inspira mucho golpear el escritorio es interpretar los resultados de las pruebas de hipótesis estadísticas. Parece que los estudiantes aprenden fácilmente cómo realizar los cálculos...