¿Cuál es el concepto de singularidad tecnológica?

32

He escuchado la idea de la singularidad tecnológica, ¿qué es y cómo se relaciona con la Inteligencia Artificial? ¿Es este el punto teórico en el que las máquinas de Inteligencia Artificial han progresado hasta el punto en que crecen y aprenden por sí mismas más allá de lo que los humanos pueden hacer y su crecimiento despega? ¿Cómo sabríamos cuando lleguemos a este punto?

WilliamKF
fuente

Respuestas:

20

La singularidad tecnológica es un punto teórico en el tiempo en el que una inteligencia general artificial que se mejora a sí misma se vuelve capaz de comprender y manipular conceptos fuera del alcance del cerebro humano, es decir, el momento en que puede comprender cosas que los humanos, por diseño biológico, pueden " t.

La confusión sobre la singularidad proviene del hecho de que, desde la singularidad en adelante, la historia es efectivamente impredecible. La humanidad sería incapaz de predecir eventos futuros, o explicar cualquier evento presente, ya que la ciencia misma se vuelve incapaz de describir eventos activados por máquinas. Esencialmente, las máquinas pensarían en nosotros de la misma manera que pensamos en las hormigas. Por lo tanto, no podemos hacer predicciones más allá de la singularidad. Además, como consecuencia lógica, no podríamos definir el punto en el que puede ocurrir la singularidad, ni siquiera reconocerla cuando suceda.

Sin embargo, para que se produzca la singularidad, es necesario desarrollar AGI, y si eso es posible es un debate bastante candenteahora mismo. Además, se tendría que diseñar un algoritmo que cree inteligencia sobrehumana a partir de bits y bytes. Por definición, un programador humano no podría hacer tal cosa, ya que su cerebro necesitaría poder comprender conceptos más allá de su alcance. También existe el argumento de que una explosión de inteligencia (el mecanismo por el cual se formaría teóricamente una singularidad tecnológica) sería imposible debido a la dificultad del desafío de diseño de hacerse más inteligente, hacerse más proporcionalmente a su inteligencia, y que la dificultad del diseño en sí puede superar la inteligencia requerida para resolver dicho desafío (último punto de crédito al dios de las llamas en los comentarios).

Además, hay teorías relacionadas que involucran máquinas que se apoderan de la humanidad y toda esa narrativa de ciencia ficción. Sin embargo, es poco probable que eso suceda si las leyes de Asimov se siguen adecuadamente. Incluso si las leyes de Asimov no fueran suficientes, una serie de restricciones seguirían siendo necesarias para evitar el uso indebido de AGI por parte de personas mal atendidas, y las leyes de Asimov son lo más cercano que tenemos a eso.

3442
fuente
También existe el argumento de que una explosión de inteligencia (el mecanismo por el cual se formaría teóricamente una singularidad tecnológica) sería imposible debido a la dificultad del desafío de diseño de hacerse más inteligente y hacerse más grande proporcionalmente a su inteligencia, y que la dificultad de El desafío de diseño puede superar la inteligencia requerida para resolver dicho desafío de diseño. << es posible que desee agregar esto a su respuesta para hacerlo más completo / completo.
dios de las llamas
1
Las leyes de robótica de Asimov no se toman en serio, en realidad fueron inventadas para mostrar las muchas formas en que podrían equivocarse y ser mal interpretadas por la IA (suponiendo, por supuesto, que la IA no se vuelva lo suficientemente inteligente como para ignorarlas por completo y hacer las suyas propias). intenciones y objetivos) y de esto se trataban las historias. Mira este video .
dios de las llamas
@godofllamas: Gracias por su propuesta, actualicé la respuesta en consecuencia. Con respecto a las leyes de Asimov, AFAIK, la ley zeroth fue diseñada precisamente para evitar las muchas formas en que las tres leyes originales fueron (ab) utilizadas en las historias de Asimov. De todos modos, una IA definitivamente necesitaría estar restringida de alguna manera, ya sean las leyes de Asimov o cualquier otra cosa, para evitar un posible uso indebido de ella y más estragos.
3442
Comprender cosas que los humanos no pueden no es un requisito de la teoría de la singularidad en IA. Si las máquinas solo pudieran entender el 1% de lo que los humanos entienden pero pudieran duplicar ese nivel de comprensión cada año, la singularidad habría ocurrido. Incluso si la máquina nunca excediera cualitativamente el cerebro humano, si pudiera procesar más rápido o de manera más confiable, aún exhibiría superioridad y probablemente alcanzaría el dominio.
FauChristian
3

El concepto de "singularidad" es cuando las máquinas burlan a los humanos. Aunque la opinión de Stephen Hawking es que esta situación es inevitable, creo que será muy difícil llegar a ese punto, ya que cada algoritmo de IA debe ser programado por humanos, por lo tanto, siempre será más limitado que su creador.

Probablemente sabríamos cuándo ese momento en que la humanidad perderá el control sobre la Inteligencia Artificial, donde la IA súper inteligente competiría con los humanos y tal vez creará seres inteligentes más sofisticados, pero actualmente, es más como ciencia ficción (también conocida como Terminator's Skynet ).

El riesgo podría implicar matar personas (como los drones de guerra que vuelan por sí mismos tomando su propia decisión), destruir países o incluso todo el planeta (como la IA conectada a las armas nucleares (también conocida como película WarGames ), pero no prueba el punto de que el Las máquinas serían más inteligentes que los humanos.

kenorb
fuente
`todos los algoritmos de IA deben ser programados por humanos` -> La idea general detrás de la IA es que las máquinas pueden aprender mejorando su propia programación. Teóricamente, esto podría resultar en que las máquinas eventualmente se vuelvan más inteligentes que nosotros, y sean capaces de crear algoritmos superiores a cualquier algoritmo escrito por humanos, lo que a su vez resultaría en una IA aún mejor.
John Slegers
"cada algoritmo de IA necesita ser programado por humanos, por lo tanto, siempre sería más limitado que su creador" - este es un argumento interesante. Los siguientes son contraargumentos -1) no necesitamos codificar la inteligencia de la IA. Necesitamos codificar la IA para poder observar, inferir y comprender. Después de eso, presumiblemente, solo agregando suficiente potencia de procesamiento y más rápidas haría que la IA sea capaz de aprender y comprender mejor que nosotros.2) Además, si 1000 humanos aplican su cerebro para construir una IA, la IA puede tener más inteligencia que 1 humano.
akm
Los algoritmos NO necesitan ser programados por humanos. Es posible y en realidad algo común transformar, mutar, optimizar, evaluar y seleccionar algoritmos; y las máquinas ya son más astutas que los humanos de alguna manera y con bastante frecuencia.
FauChristian
3

La singularidad, en el contexto de la IA, es un evento teórico mediante el cual se implementa un sistema inteligente con los siguientes criterios.

  1. Capaz de mejorar el alcance de su propia inteligencia o desplegar otro sistema con ese alcance mejorado
  2. Dispuesto o obligado a hacerlo
  3. Capaz de hacerlo en ausencia de supervisión humana
  4. La versión mejorada mantiene los criterios (1) a (3) de forma recursiva

Por inducción, la teoría predice que se generará una secuencia de eventos con una tasa potencial de aumento de inteligencia que puede exceder ampliamente la tasa potencial de evolución cerebral.

Qué tan obligada sería esta entidad o población de entidades procreadas para mejorar la vida humana y la libertad es indeterminada. La idea de que dicha obligación puede ser parte de un contrato de software irrevocable es ingenua a la luz de la naturaleza de las capacidades vinculadas a los criterios (1) a (4) anteriores. Al igual que con otras tecnologías potentes, los riesgos son tan numerosos y de gran alcance como los beneficios potenciales.

Los riesgos para la humanidad no requieren inteligencia. Existen otros contextos para el uso del término singularidad, pero están fuera del alcance de este foro de IA, pero puede merecer una breve mención para mayor claridad. Ingeniería genética, ingeniería nuclear, globalización y basar una economía internacional en una fuente de energía finita que se consume miles de veces más rápido de lo que surgió en la tierra. Estos son otros ejemplos de tecnologías de alto riesgo y tendencias masivas que presentan riesgos y beneficios. a la humanidad

Volviendo a la IA, la advertencia principal en la teoría de la singularidad es su incapacidad para incorporar la probabilidad. Aunque es posible desarrollar una entidad que cumpla con los criterios (1) a (4) anteriores, puede ser lo suficientemente improbable como para que el primer evento ocurra mucho después de que todos los idiomas que se hablan en la Tierra estén muertos.

En el otro extremo de la distribución de probabilidad, uno podría argumentar fácilmente que existe una probabilidad distinta de cero de que el primer evento ya haya ocurrido.

En ese sentido, si una presencia más inteligente ya existiera en Internet, ¿qué tan probable sería que encontrara en su mejor interés revelarse a los seres humanos inferiores? ¿Nos presentamos a un gusano que pasa?

Douglas Daseeco
fuente
Gracias por la explicación. Tengo que admitir que no entiendo, conceptualmente, cómo se verían estas condiciones, especialmente 1). Presumiblemente, un algoritmo se implementa con un conjunto más o menos definido de entradas y salidas. ¿Tenemos que suponer que altera esos conjuntos para que 1) sea cierto? ¿Por qué cualquier desarrollador humano elegiría permitir eso, al menos de manera incontrolada, incluso mucho antes del nivel de AGI? Y ... ¿es una pregunta ingenua? :)
Cpt Reynolds
0

La "singularidad", vista de manera limitada, se refiere a un punto en el que el crecimiento económico es tan rápido que no podemos hacer predicciones útiles sobre cómo será el futuro más allá de ese punto.

A menudo se usa indistintamente con la "explosión de inteligencia", que es cuando obtenemos la llamada IA ​​fuerte, que es una IA lo suficientemente inteligente como para comprenderse y mejorarse. Parece razonable esperar que la explosión de inteligencia conduzca inmediatamente a una singularidad económica, pero lo contrario no es necesariamente cierto.

Matthew Graves
fuente