¿Cómo podría dañarnos la inteligencia artificial?

51

A menudo escuchamos que la inteligencia artificial puede dañar o incluso matar humanos, por lo que puede resultar peligroso.

¿Cómo podría dañarnos la inteligencia artificial?

Manak
fuente
66
Esto es un poco amplio, ya que hay muchas razones y escenarios sugeridos en los que la IA podría volverse peligrosa. Por ejemplo, como DuttaA sugiere anteriormente, los humanos pueden diseñar sistemas de armas inteligentes que decidan a qué apuntar, y esto es una verdadera preocupación, ya que es posible que ya esté utilizando una IA estrecha. Quizás le dé más contexto a los miedos específicos que desea comprender, citando o vinculando una inquietud específica que haya leído (use editar ).
Neil Slater
44
@NeilSlater Sí, puede ser demasiado amplio, pero creo que esta respuesta ai.stackexchange.com/a/15462/2444 proporciona algunas razones plausibles. Edité la pregunta para eliminar la suposición posiblemente incorrecta.
nbro
2
¿Es esta pregunta específicamente sobre "superinteligencia" o IA en general? (Por ejemplo, si la hipotética superinteligencia, entonces el hipotético " problema de control " es un problema. Sin embargo, los sistemas de armas automáticas contemporáneas no serán superinteligentes, ni los vehículos autónomos, y esos pueden dañar a los humanos.)
DukeZhou
@DukeZhou El OP no mencionó original y explícitamente la superinteligencia, pero supongo que se refería a cualquier cosa que pueda considerarse AI, incluido un SI.
nbro
3
Primero pregunte cómo puede dañarle la inteligencia normal. La respuesta es entonces la misma.
J ...

Respuestas:

47

tl; dr

Hay muchas razones válidas por las cuales las personas podrían temer (o mejor preocuparse ) por la IA, no todas involucran robots y escenarios apocalípticos.

Para ilustrar mejor estas preocupaciones, intentaré dividirlas en tres categorías.

IA consciente

Este es el tipo de IA al que se refiere su pregunta. Una IA consciente súper inteligente que destruirá / esclavizará a la humanidad. Esto nos lo aporta principalmente la ciencia ficción. Algunos ejemplos notables de Hollywood son "The terminator" , "The Matrix" , "Age of Ultron" . Las novelas más influyentes fueron escritas por Isaac Asimov y se conocen como la "serie Robot" (que incluye "I, robot" , que también fue adaptada como una película).

La premisa básica de la mayoría de estos trabajos es que la IA evolucionará hasta un punto en el que se volverá consciente y superará a los humanos en inteligencia. Si bien las películas de Hollywood se centran principalmente en los robots y la batalla entre ellos y los humanos, no se le da suficiente énfasis a la IA real (es decir, el "cerebro" que los controla). Como nota al margen, debido a la narrativa, esta IA generalmente se presenta como una supercomputadora que controla todo (para que los protagonistas tengan un objetivo específico). No se ha hecho suficiente exploración sobre la "inteligencia ambigua" (que creo que es más realista).

¡En el mundo real, la inteligencia artificial se centra en resolver tareas específicas! Un agente de IA que es capaz de resolver problemas de diferentes dominios (por ejemplo, comprender el habla y procesar imágenes y conducir y ..., como lo son los humanos) se conoce como Inteligencia Artificial General y es necesario para que la IA pueda "pensar" y convertirse consciente.

Siendo realistas, ¡estamos muy lejos de la Inteligencia Artificial General! Dicho esto, no hay evidencia de por qué esto no se puede lograr en el futuro. Así que actualmente, incluso si todavía estamos en la infancia de la IA, no tenemos motivos para creer que la IA no evolucionará hasta un punto en el que sea más inteligente que los humanos.

Usar IA con intenciones maliciosas

A pesar de que una IA que conquista el mundo está muy lejos de suceder, hay varias razones para preocuparse por la IA hoy en día , ¡que no involucran robots! La segunda categoría en la que quiero centrarme un poco más es en varios usos maliciosos de la IA de hoy.

Me centraré solo en las aplicaciones de IA que están disponibles hoy . Algunos ejemplos de IA que se pueden usar con fines maliciosos:

  • DeepFake : una técnica para imponer la cara de alguien en una imagen de un video de otra persona. Esto ha ganado popularidad recientemente con el porno de celebridades y se puede usar para generar noticias falsas y engaños. Fuentes: 1 , 2 , 3

  • Con el uso de sistemas de vigilancia masiva y software de reconocimiento facial capaces de reconocer millones de caras por segundo , la IA se puede utilizar para la vigilancia masiva. Aunque cuando pensamos en la vigilancia masiva pensamos en China, muchas ciudades occidentales como Londres , Atlanta y Berlín se encuentran entre las ciudades más vigiladas del mundo . China ha dado un paso más al adoptar el sistema de crédito social , un sistema de evaluación para civiles que parece sacado directamente de las páginas de 1984 de George Orwell.

  • Influir en las personas a través de las redes sociales . Además de reconocer los gustos de los usuarios con el objetivo de marketing dirigido y agregar ubicaciones (una práctica común por muchas compañías de Internet), la IA se puede usar maliciosamente para influir en el voto de las personas (entre otras cosas). Fuentes: 1 , 2 , 3 .

  • Piratería .

  • Aplicaciones militares, por ejemplo, ataques con drones, sistemas de objetivos de misiles.

Efectos adversos de la IA

Esta categoría es bastante subjetiva, pero el desarrollo de la IA puede tener algunos efectos secundarios adversos. La distinción entre esta categoría y la anterior es que estos efectos, aunque dañinos, no se hacen intencionalmente; más bien ocurren con el desarrollo de la IA. Algunos ejemplos son:

  • Los trabajos se vuelven redundantes . A medida que la IA mejore, muchos trabajos serán reemplazados por IA. Desafortunadamente, no hay muchas cosas que se puedan hacer al respecto, ya que la mayoría de los desarrollos tecnológicos tienen este efecto secundario (por ejemplo, la maquinaria agrícola causó que muchos agricultores perdieran sus empleos, la automatización reemplazó a muchos trabajadores de fábricas, las computadoras hicieron lo mismo).

  • Reforzar el sesgo en nuestros datos . Esta es una categoría muy interesante, ya que la IA (y especialmente las redes neuronales) son tan buenas como los datos en los que están capacitados y tienen una tendencia a perpetuar e incluso mejorar las diferentes formas de sesgos sociales, que ya existen en los datos. Hay muchos ejemplos de redes que exhiben comportamientos racistas y sexistas. Fuentes: 1 , 2 , 3 , 4 .

Djib2011
fuente
44
No entiendo por qué "los empleos se vuelven redundantes" es una preocupación seria. Qué hermoso sería el mundo si nadie (o al menos la gran mayoría de los humanos) no necesitara trabajar y pudiera concentrarse en sus pasatiempos y disfrutar de la vida.
kukis
44
@kukis ¿Cómo puedes conseguir la comida, la casa, etc., sin trabajo, a menos que ya seas rico? Un trabajo significa supervivencia para la mayoría de las personas.
nbro
66
En cuanto a que los trabajos se vuelven redundantes, parece que podemos hacer algo al respecto, es decir, renovar nuestros modelos económicos para no depender de que los humanos tengan trabajos. Quiero decir, si nuestros sistemas económicos se derrumbaran al ser inundados con abundante mano de obra barata, entonces obviamente son defectuosos. Y dado que esperamos que este defecto se vuelva peligroso en el futuro previsible, debería solucionarse.
Nat
2
Otro ejemplo de dónde la IA podría causar problemas importantes es con el comercio de acciones. La gran mayoría de las operaciones bursátiles en estos días se realizan mediante IA cada vez más competitivas, que pueden reaccionar mucho más rápido que los operadores humanos. Pero llegó al punto en que incluso los humanos que los escribieron no necesariamente entienden la razón por la cual estas IA toman las decisiones que toman, y ha habido algunos efectos catastróficos en los mercados debido a que los algoritmos de predicción de acciones salieron mal.
Darrel Hoffman
8
@penelope no todos los trabajos que AI intenta reemplazar son de "bajo interés". Yo diría que hay muchos trabajos de alta demanda que podrían ser reemplazados en el futuro (no muy lejano). Algunos ejemplos son médicos, comerciantes y pilotos. Si la IA sigue avanzando y sigue mejorando en el diagnóstico de enfermedades, no sería descabellado pensar que los trabajos de los médicos se reducirán.
Djib2011
14

Término corto

  • Accidentes fisicos , por ejemplo, debido a maquinaria industrial, piloto automático de aeronaves, automóviles sin conductor. Especialmente en el caso de situaciones inusuales como el clima extremo o la falla del sensor. Por lo general, una IA funcionará mal en condiciones en las que no se ha probado exhaustivamente.
  • Impactos sociales como la reducción de la disponibilidad de empleo, barreras para los trabajadores desfavorecidos. préstamos, seguros, libertad condicional.
  • Motores de recomendación nos están manipulando cada vez más para cambiar nuestros comportamientos (así como para reforzar nuestras propias burbujas de "mundo pequeño"). Los motores de recomendación rutinariamente ofrecen contenido inapropiado de diversos tipos a los niños pequeños, a menudo porque los creadores de contenido (por ejemplo, en YouTube) usan el relleno de palabras clave correcto para parecer adecuado para los niños.
  • Manipulación política ... Bastante dicho, creo.
  • Negabilidad plausible de invasión de privacidad . Ahora que AI puede leer su correo electrónico e incluso hacer llamadas telefónicas por usted, es fácil que alguien haga que los humanos actúen sobre su información personal y afirme que tiene una computadora para hacerlo.
  • Convertir la guerra en un videojuego , es decir, reemplazar soldados con máquinas operadas de forma remota por alguien que no está en peligro y que está muy lejos de sus bajas.
  • Falta de transparencia . Confiamos en las máquinas para tomar decisiones con muy pocos medios para obtener la justificación detrás de una decisión.
  • Consumo de recursos y contaminación. Esto no es solo un problema de IA, sin embargo, cada mejora en la IA está creando una mayor demanda de Big Data y, en conjunto, aumentan la necesidad de almacenamiento, procesamiento y redes. Además del consumo de electricidad y minerales raros, la infraestructura debe ser eliminada después de su vida útil de varios años.
  • Vigilancia : con la ubicuidad de los teléfonos inteligentes y los dispositivos de escucha, hay una mina de oro de datos, pero demasiado para examinar cada pieza. ¡Obtén una IA para examinarla, por supuesto!
  • Ciberseguridad : los cibercriminales aprovechan cada vez más la inteligencia artificial para atacar a sus objetivos.

¿Mencioné que todos estos ya están en pleno apogeo?

A largo plazo

Aunque no existe una línea clara entre AI y AGI, esta sección trata más sobre lo que sucede cuando avanzamos hacia AGI. Veo dos alternativas:

  • O desarrollamos AGI como resultado de nuestra mejor comprensión de la naturaleza de la inteligencia,
  • o juntamos algo que parece funcionar pero que no entendemos muy bien, al igual que mucho aprendizaje automático en este momento.

En el primer caso, si una IA "se vuelve deshonesta", podemos construir otras IA para burlarla y neutralizarla. En el segundo caso, no podemos, y estamos condenados. Las IA serán una nueva forma de vida y podemos extinguirnos.

Aquí hay algunos problemas potenciales:

  • Copiar y pegar. Un problema con AGI es que posiblemente podría ejecutarse en una computadora de escritorio, lo que crea una serie de problemas:
    • Script Kiddies : las personas pueden descargar una IA y configurar los parámetros de forma destructiva. Relacionadamente
    • Los grupos criminales o terroristas podrían configurar una IA a su gusto. No necesita encontrar un experto en fabricación de bombas o armas biológicas si puede descargar una IA, dígale que investigue un poco y luego le dé instrucciones paso a paso.
    • IA autorreplicante : hay muchos juegos de computadora sobre esto. La IA se desata y se propaga como un virus. Cuanto más poder de procesamiento, mejor podrá protegerse y extenderse aún más.
  • Invasión de recursos informáticos . Es probable que más potencia informática sea beneficiosa para una IA. Una IA puede comprar o robar recursos del servidor, o los recursos de escritorios y dispositivos móviles. Llevado al extremo, esto podría significar que todos nuestros dispositivos simplemente quedaron inutilizables, lo que causaría estragos en el mundo inmediatamente. También podría significar un consumo masivo de electricidad (¡y sería difícil "desconectarlo" porque las centrales eléctricas están controladas por computadora!)
  • Fábricas automatizadas.Una AGI que desee obtener una mayor presencia física en el mundo podría hacerse cargo de las fábricas para producir robots que podrían construir nuevas fábricas y esencialmente crear cuerpos para sí misma.
  • Estas son consideraciones bastante filosóficas, pero algunos argumentarían que la IA destruiría lo que nos hace humanos:
    • Inferioridad. ¿Qué pasaría si muchas entidades de IA fueran más inteligentes, más rápidas, más confiables y más creativas que los mejores humanos?
    • Inutilidad. Con los robots reemplazando la necesidad de trabajo físico y las IA reemplazando la necesidad de trabajo intelectual, realmente no tendremos nada que hacer. Nadie volverá a obtener el Premio Nobel porque la IA ya estará por delante. ¿Por qué incluso educarse en primer lugar?
    • Monocultivo / estancamiento : en varios escenarios (como un solo "dictador benevolente" AGI), la sociedad podría fijarse en un patrón perpetuo sin nuevas ideas o cualquier tipo de cambio (por agradable que sea). Básicamente, Brave New World.

Creo que AGI se acerca y debemos ser conscientes de estos problemas para poder minimizarlos.

Artelius
fuente
1
Creo que el tipo de IA que es capaz de reprogramar fábricas para construir robots por sí mismo está muy lejos. La "IA" moderna es simplemente un reconocimiento de patrones realmente sofisticado.
user253751
Dije "a largo plazo" y "AGI". AGI es, por definición, mucho más allá del reconocimiento de patrones sofisticados. Y aunque el "reconocimiento de patrones sofisticado" es de lejos el elemento más común utilizado en aplicaciones del mundo real, ya hay mucho trabajo en otras direcciones (particularmente la descomposición de problemas / planificación de acciones, que IMO es el eje de este tipo de escenarios). )
Artelius
8

Además de las otras respuestas, me gustaría agregar al ejemplo de nuking cookie factory:

Las IA de aprendizaje automático básicamente intentan cumplir un objetivo descrito por los humanos. Por ejemplo, los humanos crean una IA que ejecuta una fábrica de galletas. El objetivo que implementan es vender tantas cookies como sea posible para obtener el mayor margen rentable.

Ahora, imagine una IA que sea suficientemente poderosa. Esta IA notará que si destruye todas las demás fábricas de galletas, todos tienen que comprar galletas en su fábrica, lo que aumenta las ventas y aumenta las ganancias.

Entonces, el error humano aquí no está penalizando el uso de violencia en el algoritmo. Esto se pasa por alto fácilmente porque los humanos no esperaban que el algoritmo llegara a esta conclusión.

Lustwelpintje
fuente
8
Esto me recuerda un ejemplo del mundo real que vi en reddit una vez donde alguien estaba entrenando a una IA para subir unas escaleras en Unity. Descubrió que podía presionarse contra el suelo con mucha fuerza y ​​la física fallaba, haciendo que volara por el aire y fuera el más rápido hacia la cima.
GammaGames
2
O, lo que es peor, decidiría que los humanos están hechos de átomos que se utilizarían mejor para hacer galletas.
nick012000
He escuchado este argumento antes. Una de las falacias de predecir un día del juicio final de la IA es que no podemos predecir qué hará la IA. Es completamente posible que la IA reconozca que bombardear a otras compañías de galletas podría deshacerse de la economía global y destruir cualquier demanda potencial de cookies ... Ley de economía, oferta y demanda
Zakk Díaz
8

Mi escenario favorito para el daño de la IA implica no alta inteligencia, sino poca inteligencia. Específicamente, la hipótesis del goo gris .

Aquí es donde un proceso automatizado de autorreplicación se vuelve loco y convierte todos los recursos en copias de sí mismo.

El punto aquí es que la IA no es "inteligente" en el sentido de tener alta inteligencia o inteligencia general: es simplemente muy buena en una sola cosa y tiene la capacidad de replicarse exponencialmente.

DukeZhou
fuente
3
FWIW, los humanos ya son grises. Somos una sustancia gris egoísta que no quiere ser reemplazada por una sustancia gris aún más eficiente.
user253751
1
@immibis Eso es, por supuesto, un punto de vista filosófico, no un hecho. Hay muchas personas que diferencian entre humanos y máquinas autorreplicantes / autosustentables. Las películas de zombis no tendrían mucho éxito si la mayoría llevara su definición de corazón =)
Stian Yttervik
1
@immibis ¿Leíste el artículo de goo gris en Wikipedia al que hace referencia esta respuesta? El término se refiere a máquinas no inteligentes (nano) que se vuelven locas, no a ningún comportamiento inteligente. Entonces diría que no, los humanos no lo son (y tampoco lo es la IA), ya que no comimos a Albert Einstein cuando pudimos.
kubanczyk
@kubanczyk el significado fundamental del término "inteligencia" parece ampliamente incomprendido, tanto en la academia como en el público en general. La inteligencia es un espectro, generalmente relativo (a otros mecanismos de toma de decisiones), y se basa en la utilidad de cualquier decisión dada en el contexto de un problema. Entonces, la sustancia gris sería inteligente, solo que la inteligencia sería limitada y estrecha.
DukeZhou
5

Yo diría que la mayor amenaza real sería el desequilibrio / interrupción que ya estamos viendo. Los cambios de dejar sin trabajo al 90% del país son reales, y los resultados (que serán una distribución aún más desigual de la riqueza) son terroríficos si lo piensas bien.

Bill K
fuente
2
La gente dijo lo mismo durante la revolución industrial que hizo que la mayoría de los trabajos agrícolas fueran redundantes. Si bien es posible que no esté equivocado, y es algo que me preocupa personalmente, la investigación que estudia las tendencias muestra que esto puede no ser una preocupación y es probable que se abran nuevos puestos de trabajo.
Programmdude
@Programmdude: creo que hay una diferencia fundamental entre los cambios de la revolución industrial e incluso la eliminación de los trabajos de secretaría a través del advenimiento de la P con lo que sucederá en las próximas décadas.
Mayo
2
@Programmdude Y la gente tenía razón. La revolución industrial cambió todo sobre la forma en que viven las personas, fue extremadamente disruptiva en términos de distribución de la riqueza y la capacidad de las personas de existir en un ingreso agrícola. Desde el otro punto de vista: los propietarios de esclavos que miran hacia atrás en unos pocos cientos de años en el futuro probablemente no verán los efectos de la IA en este período como perjudiciales, ya que formaron su situación.
Bill K
@ Bill Estuve contigo hasta la parte de los dueños de esclavos. Sabes que las IA no son conscientes de sí mismas, ¿verdad?
Ray
@ Ray, no me refería a las IA, me refería a las personas que controlaban las IA (y por lo tanto tendrían toda la riqueza), y realmente era solo una forma de señalar que las cosas pueden ser incomprensiblemente diferentes para nosotros, pero no sería No se siente tan diferente mirando hacia atrás.
Bill K
5

Tengo un ejemplo que va en la dirección opuesta a los temores del público, pero es algo muy real, que ya veo que sucede. No es específico de la IA, pero creo que empeorará con la IA. Es el problema de los humanos que confían ciegamente en las conclusiones de la IA en aplicaciones críticas.

Tenemos muchas áreas en las que se supone que los expertos humanos deben tomar una decisión. Tomemos, por ejemplo, un medicamento: ¿debemos administrar el medicamento X o el medicamento Y? Las situaciones que tengo en mente son con frecuencia problemas complejos (en el sentido de Cynefin) en los que es realmente bueno que alguien preste mucha atención y use mucha experiencia, y el resultado realmente importa.

Hay una demanda de informáticos médicos para escribir sistemas de apoyo a la decisión para este tipo de problema en la medicina (y supongo que para el mismo tipo en otros dominios). Lo hacen lo mejor que pueden, pero siempre se espera que un experto humano siempre considere la sugerencia del sistema como una opinión más al tomar la decisión. En muchos casos, sería irresponsable prometer algo más, dado el estado del conocimiento y los recursos disponibles para los desarrolladores. Un ejemplo típico sería el uso de la visión por computadora en radiología: un paciente se hace una tomografía computarizada y la IA tiene que procesar la imagen y decidir si el paciente tiene un tumor.

Por supuesto, la IA no es perfecta. Incluso cuando se compara con el estándar de oro, nunca alcanza el 100% de precisión. Y luego están todos los casos en los que funciona bien en comparación con sus propias métricas de objetivos, pero el problema era tan complejo que la métrica de objetivos no lo captura bien; no puedo pensar en un ejemplo en el contexto de CT, pero supongo Lo vemos incluso aquí en SE, donde los algoritmos favorecen la popularidad en las publicaciones, que es un proxy imperfecto para la corrección de los hechos.

Probablemente estabas leyendo el último párrafo y asintiendo, "Sí, aprendí eso en el primer curso introductorio de ML que tomé". ¿Adivina qué? Los médicos nunca tomaron un curso introductorio de ML. Raramente tienen suficientes conocimientos estadísticos para comprender las conclusiones de los artículos que aparecen en revistas médicas. Cuando están hablando con su paciente número 27, 7 horas en su turno de 16 horas, hambrientos y agotados emocionalmente, y la TC no se ve tan clara, pero la computadora dice que "no es un tumor maligno", no Tómese diez minutos más para concentrarse más en la imagen, buscar un libro de texto o consultar con un colega. Simplemente van con lo que dice la computadora, agradecidos de que su carga cognitiva no se esté disparando una vez más. Entonces pasan de ser expertos a ser personas que leen algo de una pantalla. Peor, En algunos hospitales, la administración no solo confía en las computadoras, también ha descubierto que son chivos expiatorios convenientes. Entonces, un médico tiene un mal presentimiento que va en contra de la salida de la computadora, se hace difícil para ellos actuar en ese presentimiento y defenderse de que eligieron anular la opinión de la IA.

Las IA son herramientas poderosas y útiles, pero siempre habrá tareas en las que no puedan reemplazar al portaherramientas.

rumtscho
fuente
Si está buscando más ejemplos, la controversia sobre el uso del aprendizaje automático para predecir las tasas de reincidencia de los solicitantes de libertad bajo fianza o libertad condicional es buena. Estoy de acuerdo en que no debemos esperar que los médicos y jueces tengan los niveles de experiencia estadística necesarios para comprender la IA, además de su experiencia médica y legal. Los diseñadores de IA deben ser conscientes de la falibilidad de sus algoritmos y proporcionar una guía clara a sus usuarios. Quizás le diga al médico dónde buscar la tomografía computarizada en lugar de darles el resultado directamente.
Craq
4

Esto solo pretende ser un complemento de otras respuestas, por lo que no discutiré la posibilidad de que AI intente esclavizar voluntariamente a la humanidad.

Pero un riesgo diferente ya está aquí. Yo lo llamaría tecnología no dominada . Me han enseñado ciencia y tecnología, y en mi humilde opinión, la IA no tiene por sí misma ninguna noción del bien y el mal, ni la libertad. Pero está construido y utilizado por los seres humanos y, debido a eso, puede comportarse un comportamiento no racional.

Comenzaría con un ejemplo de la vida real más relacionado con la TI general que con la IA. Hablaré de virus u otros malwares. Las computadoras son máquinas bastante estúpidas que son buenas para procesar datos rápidamente. Entonces la mayoría de la gente confía en ellos. Algunas personas (malas) desarrollan malwares que alterarán el comportamiento correcto de las computadoras. Y todos sabemos que pueden tener efectos terribles en organizaciones pequeñas y medianas que no están bien preparadas para una pérdida de computadora.

La IA está basada en la computadora, por lo que es vulnerable a los ataques de tipo computadora. Aquí mi ejemplo sería un automóvil impulsado por IA. La tecnología está casi lista para funcionar. Pero imagine el efecto de un malware que hace que el automóvil intente atacar a otras personas en el camino. Incluso sin un acceso directo al código de la IA, puede ser atacado por canales laterales . Por ejemplo, usa cámaras para leer señales de señal. Pero debido a la forma en que se implementa el aprendizaje automático, la IA generalmente no analiza una escena de la misma manera que lo hace un ser humano. Los investigadores han demostrado que era posible cambiar un signo de manera que un humano normal todavía vea el signo original, pero una IA verá uno diferente. Imagine ahora que la señal es la señal de prioridad de la carretera ...

Lo que quiero decir es que incluso si la IA no tiene intenciones malvadas, los malos pueden intentar que se comporte mal. Y las acciones más importantes se delegarán a la IA (medicamentos, automóviles, aviones, sin hablar de bombas) cuanto mayor sea el riesgo. Dicho de otra manera, realmente no temo a la IA por sí misma, sino por la forma en que los humanos pueden usarla.

Serge Ballesta
fuente
3

Creo que uno de los riesgos más reales (es decir, relacionados con las IA actuales y existentes) es confiar ciegamente en IA no supervisadas, por dos razones.

1. Los sistemas de IA pueden degradarse

El error físico en los sistemas de inteligencia artificial puede comenzar a producir resultados tremendamente incorrectos en regiones en las que no fueron probados porque el sistema físico comienza a proporcionar valores incorrectos. Esto a veces se canjea por autocomprobación y redundancia, pero aún requiere supervisión humana ocasional.

Las IA de autoaprendizaje también tienen una debilidad de software: sus redes de peso o representaciones estadísticas pueden acercarse a los mínimos locales donde están atrapados con un resultado incorrecto.

2. Los sistemas de IA están sesgados

Afortunadamente, esto se discute con frecuencia, pero vale la pena mencionarlo: la clasificación de las entradas de los sistemas de IA a menudo está sesgada porque el conjunto de datos de capacitación / prueba también está sesgado. Esto da como resultado que las IA no reconozcan a personas de cierta etnia, por ejemplo más obvio. Sin embargo, hay casos menos obvios que solo se pueden descubrir después de un accidente grave, como que la IA no reconoce ciertos datos y comienza a disparar accidentalmente en una fábrica, rompe equipos o hiere a personas.

Tomáš Zato - Restablece a Monica
fuente
Esta es una buena respuesta contemporánea. La IA de "caja negra", como las redes neuronales, es imposible de probar de manera absoluta, lo que las hace menos del 100% predecibles y, por extensión, menos del 100% confiables. Nunca sabemos cuándo una IA desarrollará una estrategia alternativa para un problema dado, y cómo esta estrategia alternativa nos afectará, y este es un problema realmente enorme si queremos confiar en la IA para tareas importantes como conducir automóviles o administrar recursos.
Lancelot
1

Si un robot es similar a una interfaz hombre-máquina, el dispositivo es el mismo que un automóvil controlado a distancia. Es posible discutir con el operador detrás del joystick y negociar sobre un comportamiento ilusorio. Los robots controlados a distancia son invenciones seguras porque sus acciones se remontan a los humanos y se puede anticipar su motivación. Se pueden usar para mejorar la vida diaria, y es divertido jugar con ellos.

Por el contrario, algunos robots no están controlados por joysticks, sino que funcionan con un generador de dados interno. El juguete de dados es conocido por su papel social en el juego, pero también tiene un significado místico. Por lo general, un generador aleatorio está fuertemente conectado con el comportamiento caótico que está controlado por fuerzas oscuras fuera de la influencia de los humanos. Un dado electrónico integrado en un robot y mejorado con un algoritmo de aprendizaje es lo opuesto a una interfaz hombre-máquina, pero es un problema potencial porque el robot controlado aleatoriamente jugará juegos con humanos que no se pueden anticipar. No es posible predecir el próximo número de dados, por lo tanto, el robot también se comportará abruptamente.

La conexión entre los juegos controlados aleatoriamente y el impacto social negativo se explicó en la siguiente oración.

Cita: “En muchas sociedades tradicionales no occidentales, los jugadores pueden rezar a los dioses por el éxito y explicar las ganancias y pérdidas en términos de voluntad divina. "Binde, Per. "Juegos de azar y religión: historias de concordia y conflicto". Journal of Gambling Issues 20 (2007): 145-165.

Manuel Rodriguez
fuente
1

Los seres humanos existen actualmente en un nicho ecológico-económico de "lo que piensa".

La IA también es algo que piensa, por lo que invadirá nuestro nicho ecológico-económico. Tanto en ecología como en economía, tener algo más que ocupe tu nicho no es un gran plan para la supervivencia continua.

Cómo exactamente la supervivencia humana se ve comprometida por esto va a ser bastante caótico. Habrá un montón de formas plausibles en que la IA podría poner en peligro la supervivencia humana como especie, o incluso como una forma de vida dominante.


Supongamos que hay una IA fuerte sin "súper ética" que es más barata de fabricar que un humano (incluida la fabricación de un "cuerpo" o forma de manipular el mundo), y tan inteligente o más inteligente que un humano.

Este es un caso en el que comenzamos a competir con esa IA por recursos. Sucederá en escalas microeconómicas (¿contratamos a un humano o compramos / construimos / alquilamos / contratamos una IA para resolver este problema?). Dependiendo de la velocidad a la que las IA se vuelven baratas y / o más inteligentes que las personas, esto puede suceder lentamente (tal vez una industria a la vez) o extremadamente rápido.

En una competencia capitalista, aquellos que no se trasladan a las IA más baratas terminan superando a la competencia.

Ahora, a corto plazo, si las ventajas de la IA son solo marginales, el alto costo de educar a los humanos durante 20 años antes de que sean productivas podría hacer que este proceso sea más lento. En este caso, podría valer la pena pagar a un médico por encima del salario de hambre para diagnosticar una enfermedad en lugar de una IA, pero probablemente no valga la pena pagar sus préstamos estudiantiles. Entonces, los nuevos Doctores humanos dejarían de recibir capacitación rápidamente, y los Doctores existentes se empobrecerían. Luego, durante 20-30 años, la IA reemplazaría por completo a los médicos con fines de diagnóstico.

Si las ventajas de la IA son grandes, entonces sería rápido. Los médicos ni siquiera valdrían la pena pagar salarios de nivel de pobreza para hacer diagnósticos humanos. Puedes ver que algo así sucede con la agricultura basada en músculos cuando la agricultura a base de gasolina se hizo cargo.

Durante las revoluciones industriales pasadas, el hecho de que los humanos sean capaces de pensar significa que se puede reutilizar el excedente de trabajadores humanos para realizar otras acciones; líneas de fabricación, trabajos de economía de servicios, programación de computadoras, etc. Pero en este modelo, la IA es más barata de entrenar y construir y tan inteligente o más inteligente que los humanos en ese tipo de trabajo.

Como lo demuestra la primavera árabe inducida por etanol, los cultivos y las tierras de cultivo se pueden usar para alimentar tanto a máquinas como a humanos. Cuando las máquinas son más eficientes en términos de convertir las tierras de cultivo en trabajo útil, comenzará a ver subir el precio de los alimentos. Esto generalmente lleva a disturbios, ya que a la gente realmente no le gusta morir de hambre y está dispuesta a arriesgar sus propias vidas para derrocar al gobierno para evitar esto.

Puede calmar a las personas al proporcionar alimentos subsidiados y similares. Mientras esto no sea económicamente paralizante (es decir, si es lo suficientemente caro, podría resultar en que te superen otros lugares que no lo hacen), esto es simplemente inestable políticamente.

Como alternativa, en el corto plazo, la casta de propietarios que está recibiendo ganancias de la economía cada vez más eficiente dirigida por la IA puede pagar por una casta policial o militar para sofocar dichos disturbios. Esto requiere que las castas policiales / militares sean de clase baja superior a media en niveles de vida, a fin de garantizar la lealtad continua: no desea que se unan a los alborotadores.

Por lo tanto, uno de los centros de ganancias a los que puede recurrir la IA es el servicio militar y policial basado en la inteligencia artificial. Los drones que entregan municiones letales y no letales basadas en el procesamiento de datos visuales y otros datos pueden reducir la cantidad de policías / militares de clase media necesarios para sofocar disturbios provocados por el precio de los alimentos u otra inestabilidad. Como ya supusimos que las IA pueden tener cuerpos y entrenamiento más baratos que un humano biológico, esto también puede aumentar la cantidad de fuerza que puede desplegar por cada dólar gastado.

En este punto, estamos hablando de una policía y un ejército en su mayoría utilizados por la IA para evitar que los humanos hambrientos derroquen la economía de la IA y se apoderen de los medios de producción del uso más eficiente que se le está dando actualmente.

Los humanos vestigiales que "poseen" el sistema en la parte superior están tomando decisiones localmente racionales para optimizar su riqueza y poder. Pueden o no persistir por mucho tiempo; Mientras agoten una cantidad relativamente pequeña de recursos y no arruinen la economía de la IA, no habrá mucha presión de selección para deshacerse de ellos. Por otro lado, como no están aportando nada de valor, se posicionan "en la cima" es políticamente inestable.

Este proceso asumió una IA general "fuerte". Las IA más estrechas pueden hacer esto en pedazos. Una computadora de diagnóstico barata y efectiva podría reducir la pobreza de la mayoría de los médicos en un período sorprendentemente corto de tiempo, por ejemplo. Los autos sin conductor podrían tragarse entre el 5% y el 10% de la economía. La tecnología de la información ya se está tragando al sector minorista con una IA modesta.

Se dice que cada avance tecnológico conduce a más y mejores empleos para los humanos. Y esto ha sido cierto durante los últimos 300 años.

Pero antes de 1900, también era cierto que cada avance tecnológico generaba más y mejores empleos para los caballos. Luego llegaron el ICE y el automóvil, y ahora hay muchos menos caballos de trabajo; los caballos restantes son básicamente el equivalente de los sirvientes personales humanos: guardados para la novedad de "guau, guay, caballo" y la diversión de montar y controlar un enorme animal.

Yakk
fuente
1

Además de las muchas respuestas ya proporcionadas, mencionaría el tema de los ejemplos adversos en el área de los modelos de imágenes.

Los ejemplos adversarios son imágenes que han sido perturbadas con ruido diseñado específicamente que a menudo es imperceptible para un observador humano, pero altera fuertemente la predicción de un modelo.

Ejemplos incluyen:

dthuff
fuente
0

La IA que se usa para resolver un problema del mundo real podría representar un riesgo para la humanidad y no requiere exactamente sensibilidad, también requiere un cierto grado de estupidez humana.

A diferencia de los humanos, una IA encontraría la respuesta más lógica sin la restricción de la emoción, la ética o incluso la codicia ... Solo la lógica. Pregúntele a esta IA cómo resolver un problema que los humanos crearon (por ejemplo, el Cambio Climático) y su solución podría ser eliminar la totalidad de la raza humana para proteger el planeta. Obviamente, esto requeriría darle a la IA la capacidad de actuar sobre su resultado, lo que me lleva a mi punto anterior, la estupidez humana.

Paul
fuente
0

La inteligencia artificial puede dañarnos de cualquiera de las formas de la inteligencia natural (de los humanos). La distinción entre inteligencia natural y artificial desaparecerá cuando los humanos comiencen a aumentar más íntimamente. La inteligencia ya no puede caracterizar la identidad y se convertirá en una posesión ilimitada. El daño causado será tanto como los humanos puedan soportar para preservar su identidad propia en evolución.

tejasvi88
fuente
0

Pocas personas se dan cuenta de que nuestra economía global debe considerarse una IA: - Las transacciones monetarias son las señales a través de una red neuronal. Los nodos en la red neuronal serían las diferentes corporaciones o personas privadas que pagan o reciben dinero. - Está hecho por el hombre, por lo que califica como artificial

Esta red neuronal es mejor en su tarea que los humanos: el capitalismo siempre ha ganado contra la economía planificada por los humanos (economía plan).

¿Es peligrosa esta red neuronal? Puede ser diferente si usted es el CEO que gana mucho frente a un pescador en un río contaminado por los desechos corporativos.

¿Cómo se volvió peligrosa esta IA? Podrías responder es por la codicia humana. Nuestra creación se refleja a nosotros mismos. En otras palabras: no entrenamos nuestra red neuronal para comportarse bien. En lugar de entrenar la red neuronal para mejorar la calidad de vida de todos los humanos, la entrenamos para hacer más ricos los fokes.

¿Sería fácil entrenar a esta IA para que ya no sea peligrosa? Tal vez no, tal vez algunas IA son simplemente más grandes que la vida. Es solo la supervivencia del más apto.

Stuurpiek
fuente