¿Puede una singularidad tecnológica solo ocurrir con superinteligencia?

10

En el Capítulo 26 del libro Inteligencia artificial: un enfoque moderno (3ª edición), el libro de texto discute la "singularidad tecnológica". Cita a IJ Good, quien escribió en 1965:

Deje que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultra inteligente podría diseñar máquinas aún mejores; indudablemente habría una "explosión de inteligencia", y la inteligencia del hombre quedaría muy atrás. Así, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil como para decirnos cómo mantenerla bajo control.

Más adelante en el libro de texto, tiene esta pregunta:

26.7 - IJ Good afirma que la inteligencia es la cualidad más importante, y que construir máquinas ultra inteligentes lo cambiará todo. Un guepardo inteligente responde que "En realidad, la velocidad es más importante; si pudiéramos construir máquinas ultrarrápidas, eso cambiaría todo" y un elefante inteligente dice "Ambos están equivocados; lo que necesitamos son máquinas ultra fuertes", ¿qué piensas de estos? argumentos?

Parece que la pregunta del libro de texto es un argumento implícito contra IJ Good. El bien puede ser tratar la inteligencia como valiosa, simplemente porque las fortalezas del hombre residen en ese rasgo llamado "inteligencia". Pero otros rasgos podrían ser igualmente valorados (velocidad o fuerza) y los seres sintientes pueden especular salvajemente acerca de que sus rasgos preferidos son "maximizados" por alguna máquina u otra.

Esto me hace preguntarme si una singularidad podría ocurrir si hubiéramos construido máquinas que no maximizaran la inteligencia, sino que maximizaran algún otro rasgo (una máquina que siempre aumenta su fuerza o una máquina que siempre aumenta su velocidad). Estos tipos de máquinas pueden ser igual de transformadores: las máquinas ultrarrápidas pueden resolver problemas rápidamente debido a la "fuerza bruta", y las máquinas ultrafuertes pueden usar su potencia bruta para una variedad de tareas físicas. Tal vez una máquina ultra-X no pueda construir otra máquina ultra-X (ya que IJ Good trató el diseño de las máquinas como una actividad intelectual), pero una máquina que mejora constantemente dejaría a sus creadores muy atrás y obligaría a sus creadores a ser Depende de ello.

¿Las singularidades tecnológicas se limitan a las ultrainteligencias? ¿O las singularidades tecnológicas pueden ser causadas por máquinas que no son "IA fuerte" pero que siguen siendo optimizadores "ultra"?

Izquierda SE en 10_6_19
fuente

Respuestas:

4

Eso sería un no para la velocidad o la fuerza, si tienes una entidad súper fuerte pero no puede investigar nuevos materiales, se limitará rápidamente, lo mismo para la velocidad. Básicamente, necesitas algo fuera de su campo para mejorarlos, lo que hace que Una mejora desbocada imposible.

Sin embargo, ya tenemos máquinas súper fuertes y súper rápidas, que son automóviles, camiones, prensas hidráulicas, exoesqueletos industriales, etc. Pero, a pesar de que podemos construir mejores mediante el uso de los viejos, aún necesitamos investigar cosas eso no puede ser mejorado por los viejos.

Lo que necesitamos para una singularidad es un campo donde una mejora en él facilite más mejoras. Y no conozco un campo donde esto no implique inteligencia. Si hay uno, puede ser posible tener una singularidad no impulsada por la inteligencia allí.

satibel
fuente
0

"Monte Carlo" parece ser el mejor método actualmente para la creatividad algorítmica. (es decir, la máquina toma decisiones al azar y ve si conducen a algo útil).

Si bien parece obvio que las conexiones creativas formadas a partir de la comprensión son superiores a las que son aleatorias, si la máquina es lo suficientemente rápida, debería ser capaz de ganar por pura "fuerza bruta".

es decir, la evolución, antes de la guía humana, no se ha basado en la inteligencia. * Más bien, la evolución se ha basado en mutaciones aleatorias que son beneficiosas o perjudiciales.


* La advertencia es que se puede decir que los humanos que crean algoritmos y alteran genes (ya sea en un laboratorio o mediante la cría de animales y la horticultura) comprenden una nueva forma de evolución que está enraizada en la inteligencia y el deseo humanos.

DukeZhou
fuente
-1

Esto puede no ser lo que estabas buscando, pero técnicamente sí. Aunque no por velocidad y fuerza. Pero podría adivinar aleatoriamente nuevas soluciones matemáticas / físicas / químicas para ser más eficientes en adivinanzas aleatorias (básicamente cualquier cosa que permita que la máquina calcule más rápido y tal vez simule el efecto de esos hallazgos) logrando técnicamente algo similar a una singularidad, sin tener tener cualquier tipo de inteligencia en realidad (o solo en un nivel humano), ya que podrías simplemente forzarlo todo.

¿Es esto eficiente? No, ni siquiera cerca de ser factible. ¿Funciona? Técnicamente sí.

Sería una especie de singularidad, ya que mejora continuamente, pero no necesitaría mejorar su propia inteligencia.

Por supuesto, algunos hallazgos podrían hacer posible ser más inteligentes, pero supongamos que no aplica esos hallazgos a sí mismo.

Lexyth
fuente