¿Cuáles son sus ejemplos favoritos donde la teoría de la información se usa para probar una declaración combinatoria ordenada de una manera simple?
Algunos ejemplos que se me ocurren se relacionan con los límites para disminuir localmente códigos descifrables, por ejemplo, en este documento: supongamos que para un montón de cadenas binarias de longitud n sostiene que para cada i , para k i diferentes pares { j 1 , j 2 }, e i = x j 1 ⊕ x j 2 . Entonces m es al menos exponencial en n, donde el exponente depende linealmente de la relación promedio de k
Otro ejemplo (relacionado) son algunas desigualdades isoperimétricas en el cubo booleano (siéntase libre de explicar esto en sus respuestas).
¿Tienes más buenos ejemplos? Preferiblemente, corto y fácil de explicar.
fuente
Respuestas:
La prueba de Moser del constructivo Lema local de Lovasz . Básicamente muestra que, bajo las condiciones del lema local, el segundo algoritmo más simple para SAT que se te ocurra funciona. (La primera más simple podría ser simplemente intentar una asignación aleatoria hasta que una funcione. La segunda más simple es elegir una asignación aleatoria, encontrar una cláusula insatisfecha, satisfacerla, luego ver qué otras cláusulas rompió, repetir y repetir hasta que esté listo). La prueba de que esto se ejecuta en tiempo polinómico es quizás el uso más elegante de la teoría de la información (o la complejidad de Kolmogorov, como quiera llamarlo en este caso) que he visto.
fuente
Mi ejemplo favorito de este tipo es la prueba basada en entropía del Lema de Shearer. (Aprendí de esta prueba y varias otras muy bonitas de Entropy and Counting de Jaikumar Radhakrishnan ).
Reclamación: suponga que tiene puntos en R 3 que tienen n x proyecciones distintas en el plano y z , n y proyecciones distintas en el plano x z y n z proyecciones distintas en el plano x y . Entonces, n 2 ≤ n x n y n z .norte R3 nx yz ny xz nz xy n2≤nxnynz
Prueba: Sea un punto uniformemente elegido al azar de los n puntos. Supongamos que p x , p y , p z denotan sus proyecciones en los planos y z , x z y x y respectivamente.p=(x,y,z) n px py pz yz xz xy
Por un lado, , H [ p x ] ≤ log n x , H [ p y ] ≤ log n y y H [ p z ] ≤ log n z , por las propiedades básicas de la entropía.H[p]=logn H[px]≤lognx H[py]≤logny H[pz]≤lognz
Por otro lado, tenemos y también H [ p x ] = H [ y ] + H [ z | y ] H [ p y ] = H [ x ] + H [ z
fuente
fuente
Muy buenos ejemplos están contenidos en dos documentos de Pippenger Un método teórico de la información en la teoría combinatoria. J. Comb. Teoría, Ser. A 23 (1): 99-104 (1977) y Entropía y enumeración de funciones booleanas. IEEE Transactions on Information Theory 45 (6): 2096-2100 (1999). En realidad, varios documentos de Pippenger contienen lindas pruebas de hechos combinatorios por medio de entropía / información mutua. Además, los dos libros: Jukna, Extremal Combinatorics With Applications in Computer Science y Aigner, Combinatorial Search tienen algunos buenos ejemplos. También me gustan los dos artículos Madiman et al. Desigualdades teóricas de la información en combinatoria aditiva y Terence Tao, estimaciones de suma de entropía (puede encontrarlas con Google Scholar). Espero eso ayude.
fuente
Otro gran ejemplo es la prueba alternativa de Terry Tao del lema de regularidad del gráfico Szemerédi . Utiliza una perspectiva teórica de la información para probar una versión sólida del lema de regularidad, que resulta ser extremadamente útil en su prueba del lema de regularidad para las hipergrafías . La prueba de Tao es, con diferencia, la prueba más concisa del lema de regularidad del hipergrama.
Permítanme tratar de explicar a un nivel muy alto esta perspectiva teórica de la información.
fuente
Básicamente hay un curso completo dedicado a esta pregunta:
https://catalyst.uw.edu/workspace/anuprao/15415/86751
El curso aún está en curso. Por lo tanto, no todas las notas están disponibles al momento de escribir esto. Además, ya se mencionaron algunos ejemplos del curso.
fuente
fuente
fuente
fuente
Análisis de casos promedio de algoritmos utilizando la complejidad de Kolmogorov por Jiang, Li, Vitanyi.
'Analizar la complejidad promedio de los algoritmos es un problema muy práctico pero muy difícil en informática. En los últimos años hemos demostrado que la complejidad de Kolmogorov es una herramienta importante para analizar la complejidad promedio de los algoritmos. Hemos desarrollado el método de incompresibilidad [7]. En este artículo usamos varios ejemplos simples para demostrar aún más el poder y la simplicidad de dicho método. Probamos límites en el número promedio de mayúsculas y minúsculas (colas) requeridas para ordenar Queueusort o Stacksort secuenciales o paralelas '.
Véase también, por ejemplo, la complejidad de Kolmogorov y un problema triangular del tipo Heilbronn .
fuente
La equivalencia de muestreo y búsqueda por Scott Aaronson. Aquí muestra la equivalencia del problema de muestreo y búsqueda en la teoría de la complejidad con respecto a la validez de la tesis extendida de Church-Turing. La teoría de la información estándar, la teoría de la información algorítmica y la complejidad de Kolmogorov se utilizan de manera fundamental.
Él enfatiza:
" Hagamos hincapié en que no estamos usando la complejidad de Kolmogorov como una simple conveniencia técnica, o como una abreviatura para un argumento de conteo. Más bien, la complejidad de Kolmogorov parece esencial incluso para definir un problema de búsqueda ... "
fuente
Este es simple y también una aproximación: ¿cuántas combinaciones de 10 6 cosas de 10 9 , permitiendo duplicados? La fórmula correcta es
Pero imagine dar instrucciones para caminar a lo largo de una fila de mil millones de cubos, dejando caer un millón de canicas en los cubos a lo largo del camino. Habrá ~ 10 9 instrucciones de "paso al siguiente balde" y 10 6 instrucciones de "soltar una canica". La información total es
que es una forma divertida, pero bastante buena, de aproximar el (registro del) recuento. Me gusta porque funciona si olvido cómo hacer combinatoria. Es equivalente a decir que
que es como usar la aproximación de Stirling, cancelar y perder algo.
fuente
Una aplicación reciente muy agradable para dar límites superiores para permutaciones de alta dimensión por Linial y Luria está aquí: http://www.cs.huji.ac.il/~nati/PAPERS/hd_permutations.pdf
fuente