Estamos investigando, pasando horas descubriendo cómo podemos hacer que el software de IA real (agentes inteligentes) funcione mejor. También estamos tratando de implementar algunas aplicaciones, por ejemplo, en negocios, salud y educación, utilizando la tecnología de IA.
Sin embargo, hasta ahora, la mayoría de nosotros hemos ignorado el lado "oscuro" de la inteligencia artificial. Por ejemplo, una persona "poco ética" podría comprar miles de drones baratos, armarlos con armas y enviarlos disparando al público. Esta sería una aplicación "poco ética" de IA.
¿Podría haber (en el futuro) amenazas existenciales para la humanidad debido a la IA?
human-like
applications
cyberterrorism
quintumnia
fuente
fuente
Respuestas:
Definiría la inteligencia como una habilidad para predecir el futuro. Entonces, si alguien es inteligente, puede predecir algunos aspectos del futuro y decidir qué hacer en función de sus predicciones. Entonces, si una persona "inteligente" decide lastimar a otras personas, podría ser muy efectivo en esto (por ejemplo, Hitler y su personal).
La inteligencia artificial podría ser extremadamente efectiva para predecir algunos aspectos del futuro incierto. Y esta en mi humilde opinión lleva a dos escenarios negativos:
Por supuesto, también hay escenarios positivos, pero no está preguntando sobre ellos.
Recomiendo leer esta genial publicación sobre superinteligencia artificial y los posibles resultados de su creación: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
fuente
No hay duda de que la IA tiene el potencial de representar una amenaza existencial para la humanidad.
Una inteligencia artificial que supere la inteligencia humana será capaz de aumentar exponencialmente su propia inteligencia, lo que dará como resultado un sistema de IA que, para los humanos, será completamente imparable.
En esta etapa, si el sistema de inteligencia artificial decide que la humanidad ya no es útil, podría borrarnos de la faz de la tierra.
Como lo expresa Eliezer Yudkowsky en Inteligencia Artificial como un factor positivo y negativo en el riesgo global ,
"La IA no te odia, ni te ama a ti, pero estás hecho de átomos que puedes usar para otra cosa".
Aquí es útil considerar el experimento de pensamiento maximizador de clip.
Una IA altamente inteligente instruida para maximizar la producción de clips de papel podría tomar los siguientes pasos para lograr su objetivo.
1) Lograr una explosión de inteligencia para hacerse superinteligente (esto aumentará la eficiencia de optimización de clips)
2) Eliminar a la humanidad para que no se pueda desactivar (eso minimizaría la producción y sería ineficiente)
3) Use los recursos de la Tierra (incluido el planeta mismo) para construir robots autorreplicantes que alojen la IA
4) Exponencialmente esparcidos por todo el universo, cosechando planetas y estrellas por igual, convirtiéndolos en materiales para construir fábricas de clips.
Esto ilustra cómo los sistemas de inteligencia artificial superinteligentes y altamente inteligentes pueden ser el mayor riesgo existencial que la humanidad pueda enfrentar.
Murray Shanahan, en The Technological Singularity , incluso propuso que la IA puede ser la solución a la paradoja de Fermi: la razón por la que no vemos vida inteligente en el universo puede ser que una vez que una civilización avance lo suficiente, desarrollará una IA que finalmente destruirá eso. Esto se conoce como la idea de un filtro cósmico .
En conclusión, la inteligencia que hace que la IA sea tan útil también la hace extremadamente peligrosa.
Figuras influyentes como Elon Musk y Stephen Hawking han expresado su preocupación de que la inteligencia artificial superinteligente sea la mayor amenaza que tendremos que enfrentar.
Espero que responda tu pregunta :)
fuente