Caracterización combinatoria del aprendizaje exacto con consultas de membresía

15

Editar: como no he recibido ninguna respuesta / comentario en una semana, me gustaría agregar que estoy feliz de escuchar algo sobre el problema. No trabajo en el área, así que aunque sea una simple observación, puede que no lo sepa. ¡Incluso un comentario como "Trabajo en el área, pero no he visto una caracterización como esta" sería útil!

Antecedentes:

Existen varios modelos de aprendizaje bien estudiados en la teoría del aprendizaje (p. Ej., Aprendizaje PAC, aprendizaje en línea, aprendizaje exacto con consultas de membresía / equivalencia).

Por ejemplo, en el aprendizaje PAC, la complejidad de la muestra de una clase de concepto tiene una buena caracterización combinatoria en términos de la dimensión VC de la clase. Entonces, si queremos aprender una clase con precisión y confianza constantes, esto se puede hacer con muestras , donde d es la dimensión VC. (Tenga en cuenta que estamos hablando de la complejidad de la muestra, no de la complejidad del tiempo). También hay una caracterización más refinada en términos de precisión y confianza. Del mismo modo, el modelo de aprendizaje en línea con errores tiene una buena caracterización combinatoria.Θ(re)re

Pregunta:

Quiero saber si se conoce un resultado similar para el modelo de aprendizaje exacto con consultas de membresía. El modelo se define de la siguiente manera: tenemos acceso a un cuadro negro que en la entrada le da f ( x ) . Sabemos f viene de alguna clase de concepto C . Queremos determinar f con la menor cantidad de consultas posible.Xf(x)fCf

¿Existe un parámetro combinatorio de una clase de concepto que caracterice el número de consultas necesarias para aprender un concepto en el modelo de aprendizaje exacto con consultas de membresía?C

Lo que yo sé:

La mejor caracterización que he encontrado está en este artículo de Servedio y Gortler , usando un parámetro que atribuyen a Bshouty, Cleve, Gavaldà, Kannan y Tamon . Definen un parámetro combinatorio llamado , donde C es la clase de concepto, que tiene las siguientes propiedades. (Deje que Q C sea ​​el número óptimo de consultas necesarias para aprender C en este modelo).γCCQCC

QC=Ω(1/γC)QC=Ω(log|C|)QC=O(log|C|/γC)

Esta caracterización es casi estricta. Sin embargo, podría haber una brecha cuadrática entre los límites superior e inferior. Por ejemplo si , entonces el límite inferior es Ω ( k ) , pero el límite superior es O ( k 2 ) . (También creo que esta brecha es alcanzable, es decir, existe una clase de concepto para la cual los límites inferiores son Ω ( k ) , pero el límite superior es O ( k 2 ) .)1/γC=log|C|=kΩ(k)O(k2)Ω(k)O(k2)

Robin Kothari
fuente
1
La "dimensión Haystack" caracteriza la complejidad de la consulta de la optimización de una función: cis.upenn.edu/~mkearns/papers/haystack.pdf . Esto es diferente de lo que desea, pero puede disfrutar del trabajo relacionado que analiza lo que se sabe sobre la caracterización La complejidad de la consulta del aprendizaje exacto.
Aaron Roth

Respuestas:

6

Para llevar a casa el punto del ejemplo de alce anónimo, considere la clase de concepto que consiste en funciones que generan 1 en solo un punto en {0,1} ^ n. La clase es de tamaño 2 ^ n, y se necesitan 2 ^ n consultas en el peor de los casos. Eche un vistazo a la Dimensión de enseñanza en el peor de los casos (Goldman & Schapire) que proporciona algo similar a lo que está buscando.

ganso anónimo
fuente
1
¡Gracias! La búsqueda de la Dimensión de enseñanza me llevó a la Dimensión de enseñanza extendida, que es similar al parámetro combinatorio que mencioné en la pregunta, que luego me llevó a muchos otros documentos interesantes sobre el tema.
Robin Kothari
4

No sé de tal caracterización. Sin embargo, vale la pena señalar que para casi cualquier clase de concepto, uno necesita consultar todos los puntos. Para ver esto, considere la clase de concepto que consiste en todos los vectores booleanos n-dimensionales con peso de Hamming 1. Esta clase de concepto obviamente requiere n consultas para aprender, que es igual a su cardinalidad. Probablemente pueda generalizar esta observación para obtener que casi cualquier clase de concepto también requiere realizar todas las consultas.

Sospecharía que dada una clase de concepto C como entrada, es NP-difícil determinar la complejidad de aprender exactamente la clase de concepto con consultas de membresía, o incluso aproximarla para decir una constante. Esto daría alguna indicación de que no existe una caracterización combinatoria "buena". Si desea probar un resultado de dureza NP así, pero intente y fracase, no dude en publicar aquí y veré si puedo resolverlo (tengo algunas ideas).

alce anónimo
fuente
1
Gracias por la respuesta. Incluso si es cierto que casi todas las clases conceptuales (bajo una distribución razonable sobre las clases) son difíciles de aprender, algunas clases son fáciles de aprender y sería interesante tener un parámetro combinatorio que lo caracterice. No me importa si el parámetro es difícil de calcular. Incluso no se sabe que la dimensión VC sea eficientemente computable.
Robin Kothari
1

Aunque otros han señalado la respuesta. Pensé que podría hacerlo autónomo y mostrar por qué la dimensión de enseñanza es la respuesta.

CXSXFFCS

T(F)F(F,C)=metroyonorte{ El |SEl | El | ST(F)}Fmetroyonorte(F)T(F)(C)=FC(F,C)C

F(F,C)metroyonorte(F)(C)F

seteropere
fuente
FFF
@RobinKothari TD limita el número mínimo de consultas en cualquier algoritmo MQ. En la práctica, puede no haber un algoritmo que logre ciegamente este límite sin trampas o trucos de código. En el artículo "Consultas revisadas" de Angluin, discutió un parámetro llamado MQ que representa el número de consultas que necesita el mejor algoritmo MQ en el peor de los casos. No recuerdo sus detalles, pero ciertamente TD <= MQ.
seteropere
1
Lo que me interesaba (cuando hice esta pregunta) era un parámetro que caracteriza el aprendizaje exacto con consultas de membresía. Debe ser un límite superior e inferior. Proporcioné un ejemplo de un parámetro que logra esto (hasta un log | C | factor) en la pregunta. Mi pregunta era si se sabe algo mejor.
Robin Kothari