Una de las preguntas más discutidas en el sitio ha sido Qué significaría refutar la Tesis de Turing de la Iglesia . Esto se debe en parte a que Dershowitz y Gurevich publicaron una prueba de que la Tesis de Church-Turing es el Boletín de la lógica simbólica en 2008. (No voy a discutir eso aquí, pero para un enlace y comentarios extensos, vea la pregunta original, o - - autopromoción descarada - una entrada de blog que escribí)
Esta pregunta es sobre la Tesis Extendida de Turing de la Iglesia, que, según lo formulado por Ian Parberry, es:
El tiempo en todos los modelos de máquinas "razonables" está relacionado por un polinomio.
Gracias a Giorgio Marinelli, me enteré de que uno de los coautores del artículo anterior, Dershowitz, y un estudiante de doctorado suyo, Falkovich, han publicado una prueba de la Tesis Extendida de Turing de la Iglesia, que acaba de aparecer en el taller Desarrollos de Modelos computacionales 2011 .
Esta mañana acabo de imprimir el periódico y lo he leído, nada más. Los autores afirman que las máquinas de Turing pueden simular cualquier dispositivo computacional secuencial con una sobrecarga polinómica como máximo. La computación cuántica y la computación paralela a gran escala no están explícitamente cubiertas. Mi pregunta se refiere a la siguiente declaración en el documento.
Hemos demostrado, como se ha conjeturado y se cree ampliamente, que cada implementación efectiva, independientemente de las estructuras de datos que use, puede ser simulada por una máquina de Turing, con una sobrecarga polinómica en la complejidad del tiempo.
Entonces, mi pregunta: ¿es esto realmente "ampliamente creído", incluso en el caso de computación secuencial "verdaderamente" sin aleatorización? ¿Qué pasa si las cosas son aleatorias? La computación cuántica sería un contraejemplo probable, si de hecho se puede instanciar, pero ¿hay posibilidades "más débiles" que la cuántica que también serían contraejemplos?
fuente
Respuestas:
Rant preparatoria
Tengo que decirte que no veo cómo hablar de "pruebas" de la TC o la TEC añade alguna luz a esta discusión. Tales "pruebas" tienden a ser exactamente tan buenas como las suposiciones sobre las que descansan, en otras palabras, como lo que significan palabras como "cálculo" o "cálculo eficiente". Entonces, ¿por qué no proceder de inmediato a una discusión de los supuestos y prescindir de la palabra "prueba"?
Eso ya estaba claro con el CT original, pero es aún más claro con la TEC --- ya que no solo es "filosóficamente demostrable", ¡sino que hoy en día se cree que es falso! Para mí, la computación cuántica es el contraejemplo enorme y deslumbrante que debería ser el punto de partida para cualquier discusión moderna sobre la TEC, y no algo desviado. Sin embargo, el artículo de Dershowitz y Falkovich ni siquiera toca el control de calidad hasta el último párrafo:
El resultado anterior no cubre el cómputo paralelo a gran escala, como el cómputo cuántico, ya que postula que hay un límite fijo en el grado de paralelismo, con el número de términos críticos fijados por el algoritmo. La cuestión de la complejidad relativamente [sic] de los modelos paralelos se abordará en el futuro cercano.
Encontré lo anterior altamente engañoso: QC no es un "modelo paralelo" en ningún sentido convencional. En la mecánica cuántica, no hay comunicación directa entre los "procesos paralelos", solo interferencia de amplitudes, pero también es fácil generar un número exponencial de "procesos paralelos". (¡De hecho, uno podría pensar que cada sistema físico del universo lo hace mientras hablamos!) En cualquier caso, sea lo que sea que piense acerca de la interpretación de la mecánica cuántica (o incluso su verdad o falsedad), está claro que requiere un ¡discusión!
Ahora, ¡a tus preguntas (interesantes)!
No, no conozco ningún contraejemplo convincente para la TEC que no sea la computación cuántica. En otras palabras, si la mecánica cuántica hubiera sido falsa (de una manera que todavía mantuviera el universo más "digital" que "analógico" en la escala de Planck --- ver más abajo), entonces la TEC como lo entiendo todavía no sería "demostrable" (ya que aún dependería de hechos empíricos sobre lo que es eficientemente computable en el mundo físico), pero sería una buena hipótesis de trabajo.
La aleatorización probablemente no desafíe la TEC como se entiende convencionalmente, debido a la fuerte evidencia de que P = BPP. (Sin embargo, tenga en cuenta que, si está interesado en configuraciones que no sean problemas de decisión del idioma, por ejemplo, problemas relacionales, árboles de decisión o complejidad de la comunicación, entonces la aleatorización puede marcar una gran diferencia. Y esas configuraciones son perfectamente razonables de las que hablar; simplemente no son las personas que normalmente tienen en mente cuando discuten la TEC).
La otra clase de "contraejemplos" para la TEC que a menudo se menciona implica la computación analógica o "hiper". Mi opinión es que, según nuestra mejor comprensión actual de la física, la computación analógica y la hipercomputación no pueden escalar, y la razón por la que no pueden, irónicamente, ¡es la mecánica cuántica! En particular, aunque todavía no tenemos una teoría cuántica de la gravedad, lo que se sabe hoy sugiere que existen obstáculos fundamentales para ejecutar más de aproximadamente 10 43 pasos de cálculo por segundo o resolver distancias menores de aproximadamente 10 -33 cm.
Finalmente, si quiere asumir fuera de discusión cualquier cosa que pueda ser un desafío plausible o interesante para el TCE, y que solo permita el cálculo en serie, discreto y determinista, ¡ entonces estoy de acuerdo con Dershowitz y Falkovich que sostiene el TCE! :-) Pero incluso allí, es difícil imaginar una "prueba formal" que aumente mi confianza en esa declaración: el problema real, de nuevo, es justo lo que tomamos palabras como "serial", "discreto" y "determinista" para significar .
En cuanto a tu última pregunta:
La computación cuántica sería un contraejemplo probable, si de hecho se puede instanciar, pero ¿hay posibilidades "más débiles" que la cuántica que también serían contraejemplos?
Hoy en día, hay muchos ejemplos interesantes de sistemas físicos que parecen capaces de implementar algunos de la computación cuántica, pero no todos (dando clases de complejidad que podrían ser intermedias entre BPP y BQP). Además, muchos de estos sistemas pueden ser más fáciles de realizar que un control de calidad universal completo. Véase, por ejemplo, este artículo de Bremner, Jozsa y Shepherd, o este de Arkhipov y yo.
fuente
Esta respuesta está destinada a complementar la respuesta de Scott Aaronson (con la que estoy de acuerdo principalmente).
Desde una perspectiva de ingeniería, es sorprendente que el artículo de Dershowitz / Falkovich use la palabra "aleatorio" solo en el sentido de "memoria de acceso aleatorio", y además, el artículo no usa la palabra "muestra" (o ninguno de sus variantes) en absoluto. Más bien, el enfoque del análisis de Dershowitz / Falkovic se limita exclusivamente al cálculo de funciones numéricas.
Esta limitación es sorprendente porque la gran mayoría de los recursos computacionales STEM modernos (me atreveré a decir) no respetan la restricción a las funciones numéricas, sino que se dedican a generar muestras a partir de distribuciones (por ejemplo, dinámica molecular, flujo de fluido turbulento, propagación de fracturas). , sistemas de espín ruidosos tanto clásicos como cuánticos, ondas que se propagan a través de medios aleatorios, etc.
Por lo tanto, si la "Tesis extendida de Turing de la Iglesia" (ECT) va a tener una relevancia sustancial para los cálculos STEM definidos de manera amplia, tal vez se deba levantar la restricción exclusiva a las funciones numéricas, y se debe dar una declaración generalizada de la ECT, que abarca el muestreo cálculos (y su validación y verificación).
¿Esta versión del TCE generalizada al muestreo aún estaría dentro del alcance de TCS como se concibe tradicionalmente? La respuesta aparentemente es "sí", según las preguntas frecuentes de TCS Stack Exchange :
Estas consideraciones sugieren que, para que sean relevantes para los cálculos prácticos de STEM, los análisis de la TEC deberían incluir consideraciones explícitas de validación y verificación de muestras ... y podemos anticipar razonablemente que esta extensión de la TEC estaría asociada tanto a hermosos teoremas matemáticos como a para estimular las percepciones físicas.fuente
Por ejemplo, supongamos que afirmo haber construido una máquina que factoriza números y que su tiempo de ejecución satisface un límite polinómico particular. La máquina está en una caja, introduce el número escrito en una cinta de papel e imprime los factores. No hay duda de que funciona, ya que lo he usado para ganar los desafíos de RSA, confiscar criptomonedas, factorizar grandes cantidades de su elección, etc. ¿Qué hay en la caja? ¿Es un nuevo tipo de computadora sorprendente, o es una computadora ordinaria que ejecuta algún tipo de software nuevo y sorprendente?
fuente