Explicar la interpretación de rango tensorial de Gurvits del artículo de Deolalikar

20

[Nota: creo que esta pregunta de ninguna manera depende de la corrección o incorrección del documento de Deolalikar.]

En el blog de Scott Aaronson, Shtetl Optimized , en la discusión sobre el reciente intento de Deolalikar de P vs NP, Leonid Gurvits hizo el siguiente comentario :

Traté de entender / reformular el enfoque, y aquí está mi intento, quizás muy minimalista: las distribuciones probabilísticas discretas en el documento pueden verse como tensores o polinomios multilineales muy especiales. Los supuestos "P = NP" de alguna manera dan un límite superior (¿polinomial?) En el rango del tensor. Y finalmente, usando resultados probabilísticos conocidos, obtiene un límite inferior no coincidente (¿exponencial?) En el mismo rango. Si estoy en lo cierto, entonces esta aproximación es una manera muy inteligente, en un buen sentido elemental, de impulsar los enfoques algebraico-geométricos anteriores.

A pesar de los defectos sospechosos / conocidos en la prueba de Deolalikar, tengo curiosidad:

¿De qué manera pueden considerarse las distribuciones discutidas en el artículo de Deolalikar como tensores, y cómo las declaraciones de sus resultados (independientemente de su corrección) se traducen en declaraciones sobre el rango tensorial?

Joshua Grochow
fuente
Acabo de ver esto. ¿Por qué no preguntarle al propio Gurvits? ...
Ryan Williams
1
@ Ryan: lo hice :). Él respondió rápidamente que está ocupado en este momento, pero definitivamente lo logrará eventualmente. Ha pasado un tiempo y esperaba que alguien aquí pudiera aclarar el comentario más rápido.
Joshua Grochow

Respuestas:

10

[Estaba leyendo algo que pensé que no tenía ninguna relación y luego tuve un "momento ajá", así que creo que descubrí al menos parte de la respuesta. No estoy seguro si esto es lo que Gurvits tenía en mente, pero esto tiene sentido para mí.]

Una distribución de variables n binarios puede verse como un elemento del producto tensor R 2R 2 (n factores) (en realidad, el espacio proyectivo asociado, pero llegaremos a eso). Si etiquetamos los elementos básicos de cada copia de R 2 por | 0 y | 1 x1,...,xnR2R2R2|0|1, entonces el conjunto de todas las cadenas de n bits proporciona una base de este espacio de producto tensorial. Si tenemos un elemento de este producto tensor cuyos coeficientes suman 1, entonces podemos interpretar el coeficiente de cualquier cadena de n bits dada como la probabilidad de que ocurra esa cadena, ¡de ahí una distribución de probabilidad! Ahora, dado que solo queremos distribuciones de probabilidad (coeficientes que sumen 1), podemos normalizar cualquier vector en el producto tensor para tener esa propiedad. Al considerar solo los tensores normalizados, en realidad solo estamos considerando elementos del espacio proyectivo de este producto tensorial.

Ahora tenemos que conectar el rango de tensor a la noción de Deolalikar de polylog-parametrizability. Según esta página por Terry Tao, parece que noción de polylog-parametrizability de Deolalikar es que la distribución puede ser "en cuenta en los potenciales" como μ ( x 1 , . . . , X n ) = Π n i = 1 p i ( x i ; x p a ( i ) ) donde pa (i) es un conjunto de variables polylog (n), definidas como los "padres de i" yμμ(x1,...,xn)=i=1npi(xi;xpa(i)) es una distribución en x i que depende solo de estas variables principales. Además, el gráfico dirigido de los padres debe ser acíclico.pi(;xpa(i))xi

μμ(x1,...,xn)=i=1npi(xi)pipixi(p1(0)|0+p1(1)|1)(pn(0)|0+pn(1)|1)

x2i=1x2i+1iO(1)(|0|1+|1|0)(|0|1+|1|0)2n/22n/2R2R2R2O(n)O(1)O(n)2n

Todavía tengo problemas para formular dos cuestiones, y agradecería más respuestas sobre ellas:

  • Hacer precisa la última correspondencia
  • Escribir las fórmulas para el tensor correspondiente a la distribución parametrizable polylog, y obtener un límite superior en su rango.
Joshua Grochow
fuente
¿alguna vez volviste a esto?
T ....