En el contexto de la inteligencia artificial, la singularidad se refiere al advenimiento de una inteligencia general artificial capaz de superación recursiva, que conduce a la rápida aparición de la superinteligencia artificial (ASI), cuyos límites son desconocidos, poco después de que se logre la singularidad tecnológica. . Por lo tanto, estas superinteligencias podrían resolver problemas que posiblemente no podamos resolver.
Según una encuesta informada en Progreso futuro en inteligencia artificial: una encuesta de opinión de expertos (2014)
La estimación media de los encuestados fue una probabilidad de uno en dos de que se desarrolle inteligencia artificial de alto nivel alrededor de 2040-2050
que no está muy lejos
¿Qué tiene de malo la idea de que la IA será capaz de omnisciencia, dado que podría beneficiarnos al resolver muchos problemas?
La pregunta es buena y está en la mente de muchas personas. Hay algunos conceptos erróneos en la línea de pensamiento a considerar.
Si desea un mundo que sea mejor que uno controlado por la inteligencia humana, entonces una dirección a seguir es buscar el desarrollo de una nueva especie con una concepción más avanzada de civilización pacífica que pueda domesticarnos y domesticarnos como lo hemos hecho con los perros y gatos
La ruta más fácil es que todos nosotros muramos. La biosfera puede haber sido más civilizada antes de que llegáramos y comenzáramos a matar todo y entre nosotros. Pero esa no es mi esperanza.
Mi recomendación es que estudiemos NI (no inteligencia) y descubramos cómo eliminar lo estúpido del comportamiento humano y la interacción geopolítica. Eso mejoraría el mundo mucho más que los dispositivos y aplicaciones de aprendizaje automático que distraen y son sustancialmente irrelevantes.
fuente
Aquí hay algunos problemas que se me ocurrió.
1.Smart! = Todo lo sabe
La explosión de auto mejora de la inteligencia artificial lo hace cada vez más inteligente. Ser más inteligente no significa conocer más hechos. Supongo que este es un argumento bastante exigente, pero creo que vale la pena pensarlo.
Un médico muy inteligente que no conoce su historial aún puede tomar una peor decisión que uno menos inteligente con mejores datos.
2. ¿Es todo para los humanos? ¿Es para todos los humanos?
ASI que alcanza un nivel superior no podría estar interesado en nuestro bienestar.
Un ASI controlado aún podría funcionar en beneficio de unos pocos, si estos pocos deciden objetivos equivocados, podríamos ir hacia atrás.
3 ASI duro
Una mente científica no necesariamente llena de simpatía o empatía.
4. Ser inteligente y no ser inteligente
Las grandes mentes aún cometen errores: * al establecer sus objetivos y * al ejecutar el plan para lograrlo.
El intelecto Geat no garantiza la falta de miopía o la falta de puntos ciegos.
5. Límites
Si hay límites de existencia (límites del tipo de velocidad de la luz), la IA también estará vinculada por estos. Esto puede significar que hay cosas que incluso ASI no 'entenderá'. Además, dado que nuestra mente puede tener límites basados en su estructura, la próxima IA también puede tener límites, e incluso si mejora el uppn, puede alcanzar límites para los que no puede encontrar soluciones porque es `` demasiado estúpido ''.
6. No lo conseguiremos
La comprensión de ASI de ciertos aspectos del mundo puede no ser comunicativa para la mayoría de los humanos. Simplemente no lo conseguiremos (incluso si somos capaces de entender todo, no significa que lo entenderemos).
7. ¿Cómo usarlo?
Podemos destruirnos a nosotros mismos, y la IA con la tecnología que nos ayuda a construir. No necesita ser bombas. Puede ser geoingeniería o drogas maravillosas.
Esto es especialmente intenso cuando el ASI ya es poderoso pero no lo suficientemente fuerte como para evitar consecuencias negativas (o simplemente lo ignoraremos de todos modos).
fuente