¿Qué tiene de malo la idea de que la IA será capaz de omnisciencia?

10

En el contexto de la inteligencia artificial, la singularidad se refiere al advenimiento de una inteligencia general artificial capaz de superación recursiva, que conduce a la rápida aparición de la superinteligencia artificial (ASI), cuyos límites son desconocidos, poco después de que se logre la singularidad tecnológica. . Por lo tanto, estas superinteligencias podrían resolver problemas que posiblemente no podamos resolver.

Según una encuesta informada en Progreso futuro en inteligencia artificial: una encuesta de opinión de expertos (2014)

La estimación media de los encuestados fue una probabilidad de uno en dos de que se desarrolle inteligencia artificial de alto nivel alrededor de 2040-2050

que no está muy lejos

¿Qué tiene de malo la idea de que la IA será capaz de omnisciencia, dado que podría beneficiarnos al resolver muchos problemas?

Aaron
fuente

Respuestas:

8

Me gusta mucho su perspectiva, y sin entrar en los detalles de cómo se puede efectuar una "singularidad" que está cubierta en muchas otras preguntas, o cómo la conciencia y la "omnisciencia" entran en juego porque la conciencia y la omnisciencia no son requisitos , en cambio dirigirlo a dos filósofos clave:

Entonces, cuando la gente se vuelve loca, centrándose en el mito de " Skynet " bajo el cual las máquinas se levantan para destruirnos, me pregunto si simplemente no son tan inteligentes como Nash o tan profundos como Dick, lo que podría explicar su falta de énfasis en lo que se puede llamar el paradigma de " ovejas eléctricas ".

DukeZhou
fuente
1
Estoy totalmente de acuerdo contigo. A veces pregunto qué nos lleva a crear nuevas tecnologías. ¿Queremos poderes absolutos o realmente resolvemos nuestros problemas reales? Por eso prefiero ver a través del prisma del amor. Algunos podrían considerarlo cliché, pero esa es la forma en que creo.
Karl Zillner el
@KarlZillner Continuando por el frente mitológico, en Accellerando de Stross , introduce un concepto de "Economía 2.0 *, definido como un sistema en el que incluso los humanos aumentados ya no pueden competir con algoritmos puros, y que parece ser completamente inútil. Parece proponer dos vías principales: IA semi-partidista y cooperativa versus IA hiperpartidista (que se presentan como primos menos inteligentes, aunque con funciones de adquisición de bajo nivel altamente optimizadas que les permiten abrumar y cooptar la infraestructura del creador. )
DukeZhou
0

La pregunta es buena y está en la mente de muchas personas. Hay algunos conceptos erróneos en la línea de pensamiento a considerar.

  • La supremacía de los seres inteligentes distintos de los humanos amenaza la civilización. ¿Es lógico imaginar esa amenaza? ¿Es esa una conclusión racional cuando la inteligencia humana es el fenómeno biológico más amenazador en la biosfera de hoy? La inteligencia de los insectos puede ser más sostenible. Las civilizaciones de hormigas y termitas son ciertamente más colaborativas. Las guerras mundiales y el genocidio son una de las características principales de la historia humana.
  • La inteligencia artificial se vuelve más inteligente que los humanos: la inteligencia artificial ya es más inteligente que los humanos en algunos aspectos, por lo que utilizamos calculadoras, conmutación automática de señales de comunicación en lugar de operadores y clasificadores automáticos de correo. En otros sentidos, la IA tiene que cruzar distancias astronómicas para comenzar a aproximarse a la inteligencia humana. No tenemos nada que incluso muestre una pista de poder simular o duplicar en el futuro las capacidades humanas de razonamiento, inventiva o compasión.
  • La singularidad se predice en la década de 2040: hay más de una docena de supuestos poco realistas en esas predicciones. Mire con ojo crítico cualquiera de los argumentos detrás de ellos y hará agujeros finos por los que podría volar un 757 con los ojos vendados.
  • Crecimiento exponencial en el conocimiento: hay un crecimiento exponencial en la información, pero la proporción de esa información que es legítimamente revisada por pares disminuye a medida que aumenta la información errónea, las conjeturas salvajes y las noticias falsas. Creo que la cantidad de información en el mundo puede ser aproximada por log (n), donde n es la población. Si estoy encaminado con esa relación, el valor informativo del individuo promedio es log (n) / n, que disminuye a medida que crece la población.
  • La IA será capaz de omnisciencia: la omnisciencia es más que responder cualquier pregunta. La omnisciencia requeriría que la respuesta sea 100% confiable y 100% precisa, lo que puede requerir más silicio del que existe en el universo. Lea el Caos de Gleick si desea entender por qué. También se podría argumentar que un ser omnisciente no respondería preguntas sobre el comando.

Si desea un mundo que sea mejor que uno controlado por la inteligencia humana, entonces una dirección a seguir es buscar el desarrollo de una nueva especie con una concepción más avanzada de civilización pacífica que pueda domesticarnos y domesticarnos como lo hemos hecho con los perros y gatos

La ruta más fácil es que todos nosotros muramos. La biosfera puede haber sido más civilizada antes de que llegáramos y comenzáramos a matar todo y entre nosotros. Pero esa no es mi esperanza.

Mi recomendación es que estudiemos NI (no inteligencia) y descubramos cómo eliminar lo estúpido del comportamiento humano y la interacción geopolítica. Eso mejoraría el mundo mucho más que los dispositivos y aplicaciones de aprendizaje automático que distraen y son sustancialmente irrelevantes.

FauChristian
fuente
0

Aquí hay algunos problemas que se me ocurrió.

1.Smart! = Todo lo sabe

La explosión de auto mejora de la inteligencia artificial lo hace cada vez más inteligente. Ser más inteligente no significa conocer más hechos. Supongo que este es un argumento bastante exigente, pero creo que vale la pena pensarlo.

Un médico muy inteligente que no conoce su historial aún puede tomar una peor decisión que uno menos inteligente con mejores datos.

2. ¿Es todo para los humanos? ¿Es para todos los humanos?

ASI que alcanza un nivel superior no podría estar interesado en nuestro bienestar.

Un ASI controlado aún podría funcionar en beneficio de unos pocos, si estos pocos deciden objetivos equivocados, podríamos ir hacia atrás.

3 ASI duro

Una mente científica no necesariamente llena de simpatía o empatía.

4. Ser inteligente y no ser inteligente

Las grandes mentes aún cometen errores: * al establecer sus objetivos y * al ejecutar el plan para lograrlo.

El intelecto Geat no garantiza la falta de miopía o la falta de puntos ciegos.

5. Límites

Si hay límites de existencia (límites del tipo de velocidad de la luz), la IA también estará vinculada por estos. Esto puede significar que hay cosas que incluso ASI no 'entenderá'. Además, dado que nuestra mente puede tener límites basados ​​en su estructura, la próxima IA también puede tener límites, e incluso si mejora el uppn, puede alcanzar límites para los que no puede encontrar soluciones porque es `` demasiado estúpido ''.

6. No lo conseguiremos

La comprensión de ASI de ciertos aspectos del mundo puede no ser comunicativa para la mayoría de los humanos. Simplemente no lo conseguiremos (incluso si somos capaces de entender todo, no significa que lo entenderemos).

7. ¿Cómo usarlo?

Podemos destruirnos a nosotros mismos, y la IA con la tecnología que nos ayuda a construir. No necesita ser bombas. Puede ser geoingeniería o drogas maravillosas.

Esto es especialmente intenso cuando el ASI ya es poderoso pero no lo suficientemente fuerte como para evitar consecuencias negativas (o simplemente lo ignoraremos de todos modos).

tymtam
fuente