Supongamos que Alice recibe un subconjunto y Bob recibe . Se promete que . ¿Cuál es la complejidad de la comunicación aleatoria para determinar el elemento común ?T ⊆ { 1 , ... , n } | S ∩ T | = 1 S ∩ T
Mi interés en esto es el siguiente. El costo de comunicación cero de este problema es ya que Alice y Bob pueden adivinar usando monedas públicas y abortar si adivinan mal. Sin embargo, no puedo pensar en un protocolo de comunicación de costo . Como no se sabe si el costo de comunicación cero es mucho menor que el costo de comunicación aleatorio, creo que me estoy perdiendo algo obvio aquí.S ∩ T O ( log n )
El costo de comunicación cero se define de la siguiente manera. Después de que Alice y Bob reciben sus aportes, no deben comunicarse en absoluto. Sin embargo, comparten monedas públicas y se les permite responder con "abortar". Si ninguna de las partes aborta, deben proporcionar la respuesta correcta con probabilidad. El costo de comunicación cero es el registro negativo de la probabilidad de no abortar. En arxiv: 1204.1505 se muestra (entre otras cosas) que casi todos los límites inferiores conocidos en la complejidad de la comunicación son, de hecho, límites inferiores para la comunicación cero.
Actualización: @Shitikanth mostró que la complejidad de la comunicación es . Entonces, aparentemente esto da una brecha entre el costo de comunicación y el costo de comunicación cero. Pero arxiv: 1204.1505 parece dar la impresión de que no se conoce esa brecha. ¿Qué me estoy perdiendo?
fuente
Respuestas:
(Reducción de la disyunción establecida)
Supongamos que Alice y Bob reciben los conjuntos con la garantía de que | S ∩ T | ≤ 1 . Alice y Bob ejecutar el protocolo para encontrar el elemento común de S y T suponiendo que sus conjuntos tienen una intersección no trivial para decidir un elemento común X . Ahora, pueden comunicarse entre sí para verificar que X es de hecho común a S y T con O ( log n ) bits.S, T⊆ [ n ] El | S∩ TEl | ≤1 S T X X S T O ( logn )
Por lo tanto, cualquier protocolo para encontrar el elemento común de y T debe tomar Ω ( n ) bits de comunicación.S T Ω ( n )
fuente
La versión decisiva de su problema se puede escribir en la siguiente forma: Esto es muy similar al producto interno x 1 y 1 ∨ x 2 y 2 ∨ ⋯ ∨ x n y n .
Además, encontrar un tal que s i = t i es al menos tan difícil como la versión decisiva del problema. Por lo tanto, su problema es tan difícil como resolver I P cuando solo se satisface una cláusula. No tengo ninguna prueba directa, pero mi intuición me permite creer que me P con sólo 1 cláusula satisfecho es tan duro como en general I P . Entonces, la complejidad aleatoria de su problema estaría en Θ ( n ) si no me equivoco.yo syo= tyo yoPAGS yoPAGS yoPAGS Θ ( n )
Espero que esto ayude.
fuente
El protocolo más rápido que se me ocurre es el intercambio alternativo de un par de elementos adyacentes al azar, tirando cosas que se omiten.
Alice [1,10,26,49,50] Bob [2,3,25,49,51]
El par adyacente de Alice es [10,26] así que Bob tira 25
Alice [1,49,50] Bob [2,3,49,51]
Bob par adyacente es [3,49] partido en 49, así que alto
fuente