¿Por qué dice Stephen Hawking "La inteligencia artificial nos matará a todos"? [cerrado]

10

Esta cita de Stephen Hawking ha estado en los titulares durante bastante tiempo:

La Inteligencia Artificial podría aniquilar a la humanidad cuando se vuelve demasiado inteligente, ya que los humanos serán como hormigas.

¿Por qué dice esto? En pocas palabras: ¿cuáles son las posibles amenazas de la IA? Si sabemos que la IA es tan peligrosa, ¿por qué seguimos promocionándola? ¿Por qué no está prohibido?

¿Cuáles son las consecuencias adversas de la llamada Singularidad Tecnológica ?

tatan
fuente
1
¿Quizás esta pregunta podría reformularse a una pregunta sobre la posibilidad de singularidad tecnológica?
Rob Murray
1
@ R.Murray Editado y agregado su punto al cuerpo ...
tatan
2
Lo siento, pero me votó negativamente. Por favor, por favor, haga preguntas que respondan en lugar de preguntas especulativas. Quiero decir "¿Por qué Stephen Hawking dice" La inteligencia artificial nos matará a todos "?". ¿Cuál esperas que sea la respuesta correcta ? Necesitamos preguntas técnicas a partir de la versión beta temprana para atraer expertos, en lugar de cualquier persona que tenga conocimientos básicos al leer algunas páginas de Wikipedia. Nuevamente citando: "¿Por qué Stephen Hawking dice" La inteligencia artificial nos matará a todos? ". No creo que se necesite ninguna experiencia para responder a esto. Lo siento si me encontré grosero en mi pequeño discurso: P
Rushat Rai
La pregunta es mejor después de la edición, pero sería bueno reducir la cantidad de preguntas que se hacen a la vez. Por ejemplo, podrías preguntar "¿Cómo podría la IA acabar con la humanidad?" (como parece estar haciendo), pero por qué todavía se está investigando tanto es una pregunta diferente.
Ben N
2
Creo que la pregunta en el título no es una mala pregunta. Tiene una respuesta, porque está preguntando qué piensa Stephen Hawking. Las otras preguntas en el cuerpo son diferentes de esto y deben eliminarse. Estoy de acuerdo sin embargo, que esto no es el tipo de pregunta que atraería a los expertos
Harsh

Respuestas:

5

No es solo Hawking, oyes variaciones sobre este estribillo de mucha gente. Y dado que en su mayoría son personas muy inteligentes, bien educadas y bien informadas (Elon Musk es otra, por ejemplo), probablemente no debería descartarse de inmediato.

De todos modos, la idea básica parece ser esta: si creamos inteligencia artificial "real", en algún momento, será capaz de mejorar, lo que mejora su capacidad de mejorarse, lo que significa que puede mejorar su capacidad de mejorarse incluso más, y así sucesivamente ... una cascada desbocada que conduce a la "inteligencia sobrehumana". Es decir, conducir a algo más inteligente que nosotros.

Entonces, ¿qué sucede si hay una entidad en este planeta que es literalmente más inteligente que nosotros (los humanos)? ¿Sería una amenaza para nosotros? Bueno, ciertamente parece razonable especular que podría ser así. Otoh, no tenemos ninguna razón en particular, en este momento, a pensar que va a ser así.

Entonces parece que Hawking, Musk, etc. simplemente están cayendo en el lado más cauteloso / temeroso de las cosas. Dado que no sabemos si una IA sobrehumana será peligrosa o no, y dado que podría ser imparable si se volviera maliciosa (recuerde, ¡es más inteligente que nosotros!), Es algo razonable de considerar.

Eliezer Yudkowsky también ha escrito bastante sobre este tema, incluido el famoso experimento "AI Box". Creo que cualquier persona interesada en este tema debería leer parte de su material.

http://www.yudkowsky.net/singularity/aibox/

crimen mental
fuente
1
Creo que AI Box es en realidad una mala introducción al riesgo de AI; apunta a una pequeña parte específica de la explicación, que es "¿cómo podría alguien convencerse de dejar salir una IA de la caja?". Para alguien que piensa que vale la pena usar la IA, ya ha decidido que vale la pena dejarla salir de la caja. La Tesis de Ortogonalidad es probablemente el mejor lugar para comenzar, creo.
Matthew Graves el
Lo suficientemente justo. Simplemente estoy más familiarizado con los escritos de Yudkowsky. Ciertamente no pretendo disminuir la importancia de otros trabajos sobre este tema.
mindcrime
4

Debido a que aún no sabía qué tan lejos está la IA actual ... Trabajando en un laboratorio de IA de medios, recibo mucho esta pregunta. Pero en realidad ... todavía estamos muy lejos de esto. Los robots aún hacen todo lo que les describimos detalladamente. En lugar de ver al robot como inteligente, miraría al programador humano para saber dónde sucede realmente la creatividad.

dorien
fuente
La evaluación de la honestidad del estado de la investigación es uno de los pilares del progreso. Gracias. Estoy de acuerdo.
FauChristian
3

En pocas palabras, ¿cuáles son las posibles amenazas de la IA?

Actualmente, no hay amenaza.

La amenaza surge si los humanos crean una llamada máquina ultrainteligente, una máquina que puede superar todas las actividades intelectuales de cualquier humano. Esta sería la última invención que el hombre necesitaría hacer, ya que esta máquina es mejor inventando máquinas que los humanos (ya que es una actividad intelectual). Sin embargo, esto podría hacer que la máquina invente máquinas que puedan destruir a los humanos, y no podemos detenerlos porque son mucho más inteligentes que nosotros.

Todo esto es hipotético, nadie tiene ni idea de cómo es una máquina ultrainteligente.

Si sabemos que la IA es tan peligrosa, ¿por qué seguimos promocionándola? ¿Por qué no está prohibido?

Como dije antes, la existencia de una máquina ultrainteligente es hipotética. La Inteligencia Artificial tiene muchas aplicaciones útiles (más de las que puede contener esta respuesta), y si la desarrollamos, obtendremos aplicaciones aún más útiles. Solo debemos tener cuidado de que las máquinas no nos alcancen.

Wythagoras
fuente
3

Como dijo Andrew Ng , preocuparse por tal amenaza de IA es como preocuparse por la sobrepoblación en Marte. Es ciencia ficción.

ingrese la descripción de la imagen aquí

Dicho esto, dado el surgimiento de robots (mucho más débiles) y otros agentes (semi) autónomos, los campos de la ley y la ética los están incorporando cada vez más, por ejemplo, ver Roboethics .

Franck Dernoncourt
fuente
3

Hay una serie de recursos de largo para responder a este tipo de pregunta: ¿consideran el libro de Stuart Armstrong más inteligente que nosotros , el libro de Nick Bostrom super-inteligencia , que surgió a partir de esta respuesta edge.org , la explicación de Tim Urban , o la explicación de Michael Cohen .

Pero aquí está mi respuesta (algo más corta): la inteligencia se trata de la toma de decisiones, y no tenemos ninguna razón para creer que los humanos estén cerca de ser los mejores posibles en la toma de decisiones. Una vez que podamos construir un investigador de IA AI (es decir, una computadora que sepa cómo hacer que las computadoras sean mejores para pensar), la relevancia económica y militar de los humanos desaparecerá rápidamente ya que cualquier decisión que pueda tomar un humano podría tomarse mejor por una computadora. (¿Por qué tener generales humanos en lugar de generales de robots, ingenieros humanos en lugar de ingenieros de robots, y así sucesivamente?)

Esto no es necesariamente una catástrofe. Si los vulcanianos aparecieran mañana y trajeran mejores decisiones a la Tierra, podríamos evitar mucha miseria. La parte difícil es asegurarse de que lo que obtenemos sean vulcanos que nos quieren felices y felices, en lugar de algo que no comparte nuestros valores.

Matthew Graves
fuente
3

Él dice esto porque puede suceder. Si algo se vuelve más inteligente que nosotros, ¿por qué continuaría sirviéndonos? El peor de los casos es que se hace cargo de todos los procesos de fabricación y consume toda la materia para convertirla en material capaz de computar, extendiéndose hacia el exterior infinitamente hasta que se consuma toda la materia.

Sabemos que la IA es peligrosa, pero no importa porque la mayoría de la gente no cree en ella. Va en contra de todas las comodidades que la religión tiene para ofrecer. El hombre es el fin del mundo y, si se discute ese hecho, la gente se sentirá fuera de lugar y sin propósito.

El hecho es que la mayoría de la gente simplemente no reconoce que es posible, o que sucederá en nuestras vidas, a pesar de que muchos expertos en IA de buena reputación ponen la ocurrencia de la singularidad en dos décadas. Si las personas realmente reconocieran que la IA que era más inteligente que ellos era posible, ¿no vivirían de manera diferente? ¿No estarían buscando hacer cosas que disfruten, sabiendo que, sea lo que sea que hagan, temerán será automatizado? ¿No estarían todos pidiendo un ingreso básico universal?

La otra razón por la que no lo prohibimos es porque su promesa es muy buena. Un investigador podría ser aumentado por 1,000 asistentes de investigación digital. Todo el trabajo manual podría ser automatizado. Por primera vez, la tecnología nos ofrece libertad real para hacer lo que queramos.

Pero incluso en este mejor escenario en el que no nos alcanza, los humanos aún tienen que adaptarse y alterar su sistema económico a uno en el que la mano de obra no sea necesaria. De lo contrario, aquellos que no están entrenados técnicamente morirán de hambre y se rebelarán.

zavtra
fuente
¿Tienes una salsa para esto -> "Los expertos en IA ponen la ocurrencia de la singularidad en dos décadas" , por favor? ;)
Daniel
Parece que no puedo encontrar la encuesta original, pero estos sitios se acercan: aiimpacts.org/predictions-of-human-level-ai-timelines - aiimpacts.org/ai-timeline-surveys - techemergence.com/artificial-intelligence -risk
zavtra