La singularidad tecnológica es un punto teórico en el tiempo en el que una inteligencia general artificial que se mejora a sí misma se vuelve capaz de comprender y manipular conceptos fuera del alcance del cerebro humano, es decir, el momento en que puede comprender cosas que los humanos, por diseño biológico, pueden " t.
La confusión sobre la singularidad proviene del hecho de que, desde la singularidad en adelante, la historia es efectivamente impredecible. La humanidad sería incapaz de predecir eventos futuros, o explicar cualquier evento presente, ya que la ciencia misma se vuelve incapaz de describir eventos activados por máquinas. Esencialmente, las máquinas pensarían en nosotros de la misma manera que pensamos en las hormigas. Por lo tanto, no podemos hacer predicciones más allá de la singularidad. Además, como consecuencia lógica, no podríamos definir el punto en el que puede ocurrir la singularidad, ni siquiera reconocerla cuando suceda.
Sin embargo, para que se produzca la singularidad, es necesario desarrollar AGI, y si eso es posible es un debate bastante candenteahora mismo. Además, se tendría que diseñar un algoritmo que cree inteligencia sobrehumana a partir de bits y bytes. Por definición, un programador humano no podría hacer tal cosa, ya que su cerebro necesitaría poder comprender conceptos más allá de su alcance. También existe el argumento de que una explosión de inteligencia (el mecanismo por el cual se formaría teóricamente una singularidad tecnológica) sería imposible debido a la dificultad del desafío de diseño de hacerse más inteligente, hacerse más proporcionalmente a su inteligencia, y que la dificultad del diseño en sí puede superar la inteligencia requerida para resolver dicho desafío (último punto de crédito al dios de las llamas en los comentarios).
Además, hay teorías relacionadas que involucran máquinas que se apoderan de la humanidad y toda esa narrativa de ciencia ficción. Sin embargo, es poco probable que eso suceda si las leyes de Asimov se siguen adecuadamente. Incluso si las leyes de Asimov no fueran suficientes, una serie de restricciones seguirían siendo necesarias para evitar el uso indebido de AGI por parte de personas mal atendidas, y las leyes de Asimov son lo más cercano que tenemos a eso.
El concepto de "singularidad" es cuando las máquinas burlan a los humanos. Aunque la opinión de Stephen Hawking es que esta situación es inevitable, creo que será muy difícil llegar a ese punto, ya que cada algoritmo de IA debe ser programado por humanos, por lo tanto, siempre será más limitado que su creador.
Probablemente sabríamos cuándo ese momento en que la humanidad perderá el control sobre la Inteligencia Artificial, donde la IA súper inteligente competiría con los humanos y tal vez creará seres inteligentes más sofisticados, pero actualmente, es más como ciencia ficción (también conocida como Terminator's Skynet ).
El riesgo podría implicar matar personas (como los drones de guerra que vuelan por sí mismos tomando su propia decisión), destruir países o incluso todo el planeta (como la IA conectada a las armas nucleares (también conocida como película WarGames ), pero no prueba el punto de que el Las máquinas serían más inteligentes que los humanos.
fuente
La singularidad, en el contexto de la IA, es un evento teórico mediante el cual se implementa un sistema inteligente con los siguientes criterios.
Por inducción, la teoría predice que se generará una secuencia de eventos con una tasa potencial de aumento de inteligencia que puede exceder ampliamente la tasa potencial de evolución cerebral.
Qué tan obligada sería esta entidad o población de entidades procreadas para mejorar la vida humana y la libertad es indeterminada. La idea de que dicha obligación puede ser parte de un contrato de software irrevocable es ingenua a la luz de la naturaleza de las capacidades vinculadas a los criterios (1) a (4) anteriores. Al igual que con otras tecnologías potentes, los riesgos son tan numerosos y de gran alcance como los beneficios potenciales.
Los riesgos para la humanidad no requieren inteligencia. Existen otros contextos para el uso del término singularidad, pero están fuera del alcance de este foro de IA, pero puede merecer una breve mención para mayor claridad. Ingeniería genética, ingeniería nuclear, globalización y basar una economía internacional en una fuente de energía finita que se consume miles de veces más rápido de lo que surgió en la tierra. Estos son otros ejemplos de tecnologías de alto riesgo y tendencias masivas que presentan riesgos y beneficios. a la humanidad
Volviendo a la IA, la advertencia principal en la teoría de la singularidad es su incapacidad para incorporar la probabilidad. Aunque es posible desarrollar una entidad que cumpla con los criterios (1) a (4) anteriores, puede ser lo suficientemente improbable como para que el primer evento ocurra mucho después de que todos los idiomas que se hablan en la Tierra estén muertos.
En el otro extremo de la distribución de probabilidad, uno podría argumentar fácilmente que existe una probabilidad distinta de cero de que el primer evento ya haya ocurrido.
En ese sentido, si una presencia más inteligente ya existiera en Internet, ¿qué tan probable sería que encontrara en su mejor interés revelarse a los seres humanos inferiores? ¿Nos presentamos a un gusano que pasa?
fuente
La "singularidad", vista de manera limitada, se refiere a un punto en el que el crecimiento económico es tan rápido que no podemos hacer predicciones útiles sobre cómo será el futuro más allá de ese punto.
A menudo se usa indistintamente con la "explosión de inteligencia", que es cuando obtenemos la llamada IA fuerte, que es una IA lo suficientemente inteligente como para comprenderse y mejorarse. Parece razonable esperar que la explosión de inteligencia conduzca inmediatamente a una singularidad económica, pero lo contrario no es necesariamente cierto.
fuente