Preguntas etiquetadas con lg.learning

11
Dado

Aquí hay un problema con un sabor similar al de las juntas de aprendizaje: Entrada: Una función f:{0,1}n→{−1,1}f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\} , representada por un oráculo de membresía, es decir, un oráculo que dado xxx , devuelve f(x)f(x)f(x) . Objetivo: encontrar un subcubo...

11
Aprendiendo con oráculos "taciturnos"

Mi pregunta es un poco genérica, así que estoy inventando una buena historia para justificarla. Ten paciencia conmigo si no es realista ;-) Historia El Sr. X, jefe del departamento de seguridad informática de una gran empresa, es un poco paranoico: exige que todos los empleados cambien sus...

10
Una pregunta de aprendizaje de paridad

Definamos una clase de funciones sobre un conjunto de bits. Arregle dos distribuciones p , q que sean "razonablemente" diferentes entre sí (si lo desea, su distancia de variación es al menos ϵ , o algo similar).nnnp,qp,qp, qϵϵ\epsilon Ahora cada función en esta clase se define mediante una...

10
Muestra agnóstica de PAC límite inferior

Es bien sabido que para el aprendizaje PAC clásico, los ejemplos de son necesarios para lograr un límite de error de ε whp, donde d es la dimensión VC de la clase de concepto.Ω(d/ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonddd ¿Se sabe que se necesitan ejemplos de en el caso...

9
¿Resultados teóricos para bosques aleatorios?

Los bosques aleatorios tienen una reputación entre los profesionales de estar entre las técnicas de clasificación más efectivas. Sin embargo, no los encontramos mucho en la literatura teórica del aprendizaje, de la cual deduzco una ausencia de resultados teóricos profundos. Si uno quisiera...

8
Complejidad computacional de algoritmos de agrupamiento

Mi deseo es describir la complejidad temporal de varios enfoques de agrupación. Por ejemplo, supongamos que tenemos puntos de datos en m espacio dimensional.nnnmmm Supongamos además que la matriz de diferencia de pares ΔΔ\Delta de n×nn×nn\times n dimensiones ya está calculada y que ya hemos...