Esta cita de Stephen Hawking ha estado en los titulares durante bastante tiempo:
La Inteligencia Artificial podría aniquilar a la humanidad cuando se vuelve demasiado inteligente, ya que los humanos serán como hormigas.
¿Por qué dice esto? En pocas palabras: ¿cuáles son las posibles amenazas de la IA? Si sabemos que la IA es tan peligrosa, ¿por qué seguimos promocionándola? ¿Por qué no está prohibido?
¿Cuáles son las consecuencias adversas de la llamada Singularidad Tecnológica ?
intelligent-agent
tatan
fuente
fuente
Respuestas:
No es solo Hawking, oyes variaciones sobre este estribillo de mucha gente. Y dado que en su mayoría son personas muy inteligentes, bien educadas y bien informadas (Elon Musk es otra, por ejemplo), probablemente no debería descartarse de inmediato.
De todos modos, la idea básica parece ser esta: si creamos inteligencia artificial "real", en algún momento, será capaz de mejorar, lo que mejora su capacidad de mejorarse, lo que significa que puede mejorar su capacidad de mejorarse incluso más, y así sucesivamente ... una cascada desbocada que conduce a la "inteligencia sobrehumana". Es decir, conducir a algo más inteligente que nosotros.
Entonces, ¿qué sucede si hay una entidad en este planeta que es literalmente más inteligente que nosotros (los humanos)? ¿Sería una amenaza para nosotros? Bueno, ciertamente parece razonable especular que podría ser así. Otoh, no tenemos ninguna razón en particular, en este momento, a pensar que va a ser así.
Entonces parece que Hawking, Musk, etc. simplemente están cayendo en el lado más cauteloso / temeroso de las cosas. Dado que no sabemos si una IA sobrehumana será peligrosa o no, y dado que podría ser imparable si se volviera maliciosa (recuerde, ¡es más inteligente que nosotros!), Es algo razonable de considerar.
Eliezer Yudkowsky también ha escrito bastante sobre este tema, incluido el famoso experimento "AI Box". Creo que cualquier persona interesada en este tema debería leer parte de su material.
http://www.yudkowsky.net/singularity/aibox/
fuente
Debido a que aún no sabía qué tan lejos está la IA actual ... Trabajando en un laboratorio de IA de medios, recibo mucho esta pregunta. Pero en realidad ... todavía estamos muy lejos de esto. Los robots aún hacen todo lo que les describimos detalladamente. En lugar de ver al robot como inteligente, miraría al programador humano para saber dónde sucede realmente la creatividad.
fuente
Actualmente, no hay amenaza.
La amenaza surge si los humanos crean una llamada máquina ultrainteligente, una máquina que puede superar todas las actividades intelectuales de cualquier humano. Esta sería la última invención que el hombre necesitaría hacer, ya que esta máquina es mejor inventando máquinas que los humanos (ya que es una actividad intelectual). Sin embargo, esto podría hacer que la máquina invente máquinas que puedan destruir a los humanos, y no podemos detenerlos porque son mucho más inteligentes que nosotros.
Todo esto es hipotético, nadie tiene ni idea de cómo es una máquina ultrainteligente.
Como dije antes, la existencia de una máquina ultrainteligente es hipotética. La Inteligencia Artificial tiene muchas aplicaciones útiles (más de las que puede contener esta respuesta), y si la desarrollamos, obtendremos aplicaciones aún más útiles. Solo debemos tener cuidado de que las máquinas no nos alcancen.
fuente
Como dijo Andrew Ng , preocuparse por tal amenaza de IA es como preocuparse por la sobrepoblación en Marte. Es ciencia ficción.
Dicho esto, dado el surgimiento de robots (mucho más débiles) y otros agentes (semi) autónomos, los campos de la ley y la ética los están incorporando cada vez más, por ejemplo, ver Roboethics .
fuente
Hay una serie de recursos de largo para responder a este tipo de pregunta: ¿consideran el libro de Stuart Armstrong más inteligente que nosotros , el libro de Nick Bostrom super-inteligencia , que surgió a partir de esta respuesta edge.org , la explicación de Tim Urban , o la explicación de Michael Cohen .
Pero aquí está mi respuesta (algo más corta): la inteligencia se trata de la toma de decisiones, y no tenemos ninguna razón para creer que los humanos estén cerca de ser los mejores posibles en la toma de decisiones. Una vez que podamos construir un investigador de IA AI (es decir, una computadora que sepa cómo hacer que las computadoras sean mejores para pensar), la relevancia económica y militar de los humanos desaparecerá rápidamente ya que cualquier decisión que pueda tomar un humano podría tomarse mejor por una computadora. (¿Por qué tener generales humanos en lugar de generales de robots, ingenieros humanos en lugar de ingenieros de robots, y así sucesivamente?)
Esto no es necesariamente una catástrofe. Si los vulcanianos aparecieran mañana y trajeran mejores decisiones a la Tierra, podríamos evitar mucha miseria. La parte difícil es asegurarse de que lo que obtenemos sean vulcanos que nos quieren felices y felices, en lugar de algo que no comparte nuestros valores.
fuente
Él dice esto porque puede suceder. Si algo se vuelve más inteligente que nosotros, ¿por qué continuaría sirviéndonos? El peor de los casos es que se hace cargo de todos los procesos de fabricación y consume toda la materia para convertirla en material capaz de computar, extendiéndose hacia el exterior infinitamente hasta que se consuma toda la materia.
Sabemos que la IA es peligrosa, pero no importa porque la mayoría de la gente no cree en ella. Va en contra de todas las comodidades que la religión tiene para ofrecer. El hombre es el fin del mundo y, si se discute ese hecho, la gente se sentirá fuera de lugar y sin propósito.
El hecho es que la mayoría de la gente simplemente no reconoce que es posible, o que sucederá en nuestras vidas, a pesar de que muchos expertos en IA de buena reputación ponen la ocurrencia de la singularidad en dos décadas. Si las personas realmente reconocieran que la IA que era más inteligente que ellos era posible, ¿no vivirían de manera diferente? ¿No estarían buscando hacer cosas que disfruten, sabiendo que, sea lo que sea que hagan, temerán será automatizado? ¿No estarían todos pidiendo un ingreso básico universal?
La otra razón por la que no lo prohibimos es porque su promesa es muy buena. Un investigador podría ser aumentado por 1,000 asistentes de investigación digital. Todo el trabajo manual podría ser automatizado. Por primera vez, la tecnología nos ofrece libertad real para hacer lo que queramos.
Pero incluso en este mejor escenario en el que no nos alcanza, los humanos aún tienen que adaptarse y alterar su sistema económico a uno en el que la mano de obra no sea necesaria. De lo contrario, aquellos que no están entrenados técnicamente morirán de hambre y se rebelarán.
fuente