¿Es la inteligencia humana el objetivo inteligente? [cerrado]

9

Parece que siempre ha sido el foco en la literatura aproximarse a los componentes de la mente humana, suponiendo que es el más avanzado. Si otros animales entraron en el paisaje de la IA, fue solo para estudiar a los primates de maneras que no son prácticas para estudiar a los humanos o para simular la actividad neuronal de una babosa porque su sistema nervioso es simple.

Quizás haya una razón más progresista para considerar el uso de formas de vida más bajas como modelo para la inteligencia artificial deseada. He estado leyendo lo que EO Wilson y otros dijeron sobre las habilidades de colaboración de otras especies. Hay cualidades notables en organismos tan simples y adaptativos como las bacterias. Ciertamente, las hormigas son la especie modelo para la colaboración. Las abejas melíferas son posiblemente las más conocedoras de la construcción, llevando la sostenibilidad del estilo de vida y las interrelaciones con otras especies a una forma de arte muy superior a la capacidad de la inteligencia humana.

Utilizando analogías deportivas para caracterizar las opciones, la inteligencia humana se parece más a los deportes de gladiadores previos a la iluminación o al menos al hockey sobre hielo, donde lesionar al oponente se considera la estrategia inteligente. Lo que hacen las abejas es más como escalar montañas, construir con precisión y cuidado.

Lo que hacen las hormigas es muy similar a las carreras de relevos, donde hay poco interés en el equipo contrario porque cada colonia, al igual que cada carril en la pista es independiente y los carriles están marcados. Las hormigas marcan de manera similar su territorio, y los reclamos territoriales se respetan como en la mejor de las estadísticas geopolíticas de Westfalia. No hay celos mezquinos ni competencias únicamente por el orgullo de la primacía. Con las hormigas, al igual que con el entrenador inteligente de atletismo, el objetivo es que cada tramo de la carrera tenga un buen desempeño frente al mejor desempeño previo del corredor de relevos.

Las bacterias son los corredores de larga distancia. Intercambian ADN entre sí e ignoran todas las reglas del dolor y el miedo. Se comportan de una manera sostenible que no da nada por sentado y usa todo para sobrevivir. Y han sobrevivido durante casi toda la vida de la Tierra. Probablemente estarán alrededor de cien mil millones de años después de que la humanidad se haya ido, si el sol no se convierte en supernova primero.

¿Por qué querríamos programar computadoras para que se comporten sin cesar como competidores? ¿Las personas descargan programas de ajedrez inteligentes para que puedan perder repetidamente? No, descargan el sistema operativo Android porque colabora y no cuesta nada. ¿No podemos encontrar juegos que no sean de suma cero para jugar donde los escenarios de ganar-ganar son posibles?

¿Ya no tenemos suficientes agentes mordaces, chismosos e hipercríticos dentro de nuestra propia especie? ¿Por qué no enviar AI en la dirección de la inteligencia colaborativa, como las hormigas? ¿No sería mejor tener nuevos amigos artificiales que quisieran compartir la carga de nuestras tareas diarias?

¿No queremos que nuestros robots del futuro se construyan como una abeja melífera, en hexágonos? ¿O queremos que nuestros robots sigan nuestro ejemplo, desperdiciando el 70% de los materiales en la construcción vertical debido a una insistencia irracional en ángulos de noventa grados, como lo harían solo los humanos?

Douglas Daseeco
fuente
3
Has obtenido una visión muy optimista de la competencia entre las colonias sociales de insectos. La afirmación "no hay interés en el equipo contrario porque cada colonia, al igual que cada carril en la pista es independiente", simplemente no es verdad. Las colonias de hormigas competirán y lucharán contra otros miembros de su propia especie, y definitivamente contra otras especies. Aunque yo (y creo que muchas personas) estaría de acuerdo en valorar otras formas de habilidad / inteligencia tan bien adaptadas como los humanos, todavía hay una competencia viciosa dentro de las especies, entre especies y, a menudo, entre relaciones en todas las especies.
Neil Slater
1
@NeilSlater muy correcto ... Los organismos solo quieren que su ADN se propague y las hormigas y las abejas (trabajador) comparten el 50% de ADN con los otros trabajadores ... Esa es su principal motivación
DuttaA
Como dije, solo comparten genes en su colonia y matan a las hormigas de otras colonias, incluso si son de la misma especie ... Los humanos no comparten genes a menos que sea un miembro de la familia donde ve ayuda desinteresada (en general) ... Pero desde tenemos un cerebro tan grande (cerebro capaz) que acumulamos experiencias que cambian nuestro comportamiento genético y podemos volvernos hostiles hacia la familia ... Quiero responder a su pregunta, pero será bastante grande, así que lo haré cuando llegue hora
DuttaA
Bacterias / hormigas / abejas, no saben que lo que están haciendo es inteligente, no pueden reflexionar sobre lo que están haciendo y encontrar métodos más eficientes. ¿Puedes hacer que estos seres simples logren objetivos distintos a los que ya logran? No
Ankur
1
@Ankur Sin embargo, puede estudiar los principios de cómo funciona su comportamiento exitoso y aplicarlo artificialmente a un nuevo problema. Esto es algo que se hace, y la pregunta del OP plantea algunos puntos interesantes, como si esto es suficiente para cubrir todos los casos de uso deseados para la IA, y si sería un enfoque más seguro / mejor. Creo que "no" y "no" a esas preguntas, pero tomaría algún esfuerzo reunir una respuesta.
Neil Slater

Respuestas:

6

Tengo una visión bastante tenue de los humanos como especie y he propuesto una prueba de Turing inversa mediante la cual los humanos son evaluados para determinar la suficiente humanidad ( ). (es broma, pero no del todo;)

Los seres humanos claramente no son las especies más exitosas en la tierra si usas biomasa:

ingrese la descripción de la imagen aquí

Estoy totalmente de acuerdo en que las formas de vida menos complejas son muy efectivas y vale la pena emularlas para problemas específicos (vea Algoritmos de optimización de colonias de hormigas como ejemplo).

Pero, ¿cómo se ve un mundo cuando lo manejan hormigas? ¿Es ese un mundo en el que queremos vivir?

La competencia en la naturaleza no solo es absolutamente brutal, sino que esta brutalidad es el mecanismo por el cual las especies se optimizan (evolución).

Los humanos son defectuosos, pero también hemos logrado grandes triunfos, y lo que nos puede separar de los animales es que nuestros éxitos también pueden caer en la categoría de "triunfos del espíritu". Donde hay fuerzas del egoísmo y la codicia que conducen a la sociedad en una dirección, también tenemos la fuerza contraria, empujando en direcciones alternativas.

Algunos juegos simplemente son de suma cero y no hay forma de evitar eso, pero eso no significa que tengan que ser "todo o nada" (recomendamos Sudoku partidista sobre Ajedrez precisamente por esta razón).

Hay un concepto que vale la pena considerar conocido como Eficiencia de Pareto . La especulación financiera, en la que ahora se basa gran parte de la economía mundial, depende del principio de "mayor tonto" , donde el beneficio de un agente depende completamente de la pérdida de otro agente. Lo peor de nosotros parece estar centrado en estos mecanismos, excluyendo a todos los demás porque no requiere un compromiso real, simplemente un análisis más fuerte y / o mejor información, y liquidez.

En cambio, lo mejor de nosotros parece ser el Mejoramiento de Pareto, mediante el cual los agentes pueden mejorar sin requerir que otros agentes empeoren.

El punto aquí es que se necesitó inteligencia humana para identificar y definir estas condiciones. (La naturaleza podría importar menos). La optimización de Pareto ha sido controvertida debido a su origen, pero eso fue antes de la industria de la tecnología, que es muy buena para crear nuevas oportunidades, y me parece que también se puede usar para equilibrar la distribución de recursos para intenta y maximiza la estabilidad social. (es decir, a veces puede ser más óptimo estar un poco peor).

Mi visión sombría de nuestra especie no proviene de ser ineficiente o, a menudo, tonto, sino de la idea de que, en esta etapa de la historia, todavía estamos actuando como si hubiéramos bajado de los árboles, retrocediendo al tribalismo y al conflicto partidista. de cooperación

Contrariamente a tu tesis:

  • Creo que no solo es importante alcanzar la inteligencia algorítmica a nivel humano, sino que nos corresponde "humanizar" tales algoritmos en la mayor medida posible.

La superinteligencia y el AGI todavía están en el horizonte y son totalmente teóricos, pero si se logran y estos algoritmos son un mecanismo puro, desprovistos de los valores que los humanos, en el mejor de los casos, apreciamos, podríamos terminar siendo simplemente otra víctima del proceso evolutivo. , anticuadas por las nuevas formas de vida artificial contra las que no tenemos posibilidades de competir.

En cierto sentido, el impulso hacia lo humano puede considerarse como una celebración de la humanidad, más sofisticado, pero no del todo diferente en espíritu que el David de Miguel Ángel.

DukeZhou
fuente
@DouglasDaseeco Realmente me gusta mucho su pregunta b / c Estoy 100% de acuerdo con usted con respecto a la utilidad / beneficio general de las funciones de "bajo nivel". Parte de mi propio proyecto consiste en medir el rendimiento de la heurística generalizada frente a los algoritmos de aprendizaje en ciertos conjuntos de problemas donde el tiempo / los recursos están severamente restringidos y, en particular, donde la topología del problema actual no se conoce de antemano. ¿Cuándo las decisiones económicas acertadas pero menos óptimas alcanzadas más rápidamente producen más beneficios agregados que las decisiones más óptimas que requieren más recursos y tiempo?
DukeZhou
@DouglasDaseeco En el frente de la "mitología de la IA", algunos de los principales autores como Stephenson y Gibson se han interesado más recientemente en el tipo de inteligencia limitada que está describiendo. (Stephenson tiene experiencia en ingeniería y nunca estuvo interesado en AGI, pero Gibson se hizo un nombre escribiendo sobre esto en sus primeros libros).
DukeZhou
@DouglasDaseeco De acuerdo. También vale la pena señalar que el consenso general de nuestra especie parece ser que el genocidio es anatema, y ​​hemos comenzado a pensar en la importancia de la biodiversidad, con cierto esfuerzo por conservar las especies en peligro de extinción. Mi opinión es que si alguna vez caemos de nuestra posición en la parte superior de la cadena alimentaria, sería muy bueno si lo que nos reemplaza compartiera esos objetivos b / c, ¡podríamos ser los que necesitamos protección! (Encuentro a Philip K. Dick más destacado porque su hipótesis es que la empatía es una función natural de una inteligencia suficientemente avanzada.)
DukeZhou
3

Aunque la naturaleza humana tiene muchos defectos, definitivamente ha sido la más exitosa siempre y cuando haya existido, como lo señala @DukeZhou. El éxito se puede aludir por completo al hecho de que tenemos un cerebro capaz y que funciona muy bien. En comparación con otras especies, somos físicamente (destreza física) mucho más incapaces. Entonces, si estamos tratando de crear una IA, ¿no deberíamos intentar modelar nuestro propio cerebro, el mejor sistema inteligente?

Lo único que te perdiste es que los humanos son mucho más pacíficos que todos los demás animales. Los animales están en una guerra constante por la supervivencia, los humanos hemos sido capaces de superar todo eso y hemos estado viviendo en los tiempos más pacíficos de todo el milenio. Pueden surgir conflictos, esto puede atribuirse a nuestros genes. Nuestros genes provienen de nuestros antepasados ​​animales, donde visualizan muchas cosas como amenazas (incluidas las mismas especies animales del sexo opuesto, el proceso de pensamiento opuesto también puede ser percibido como una amenaza). Por lo tanto, está destinado a filtrarse en nuestra mentalidad. ¿Podemos cambiarlo? Posiblemente no (tal vez va en contra de las leyes de la naturaleza y la selección natural).

Veamos 2 casos donde no hubo competencia:

  • Jarawas : esta gente vive aislada en una isla (incluso ahora). Como resultado, todavía viven un estilo de vida de cazadores-recolectores, lo que se puede atribuir al hecho de que no sintieron la necesidad de cambiar, ya que no vieron una amenaza para sus vidas o su posición. Como somos sabios, no invadimos sus territorios sabiendo que no durarían contra la tecnología moderna (también porque no representan una amenaza para nosotros).
  • Nativos americanos : mientras Europa y Asia estaban en guerra, estas personas vivían en una isla (solo con luchas internas). Como resultado, sus tecnologías apenas evolucionaron y casi fueron aniquiladas.

El hecho de que las hormigas y las abejas cooperen es un nombre inapropiado para mí. Se debe totalmente al hecho de que todas las hormigas / abejas en una colonia en particular son hermanos (de lo contrario, masacran brutalmente a otras colonias). También mantienen límites territoriales siempre que haya abundantes recursos en su interior; de lo contrario, hay una guerra (no puedo citar ninguna fuente, pero he oído que muchas hormigas invaden los territorios de otras hormigas).

Las bacterias no tienen dolor ni miedo, pero decir que existieron por mucho tiempo debido a la cooperación no me parece del todo correcto. Probablemente tengan un mecanismo de supervivencia eficiente.

El punto de todo esto es que no hay una imagen rosada del reino animal como dijo @Neil Slater.

¿Llegando a cómo deberíamos crear el comportamiento de una IA? Las IA no tienen genes por ahora, por lo que no tienen ninguna obligación con su progenie y no tendrán celos, lo que significa que carecen de los componentes básicos de un organismo biológico (y, por lo tanto, no tienen obligaciones / intereses). Pero creo que la competencia es buena entre la IA, de lo contrario, ¿cómo van a aprender nuevas estrategias? Entonces, la competencia sin celos es el mejor escenario para los agentes de IA (podría no ser el caso en el reino animal). Si no hay competencia, el conocimiento entre los AI probablemente se estancará.

No soy un experto en teoría de juegos, pero si 2 o más agentes compiten entre sí, deben seguir la teoría de juegos para maximizar sus resultados (probablemente indicando la eficiencia de Pareto como señaló @DukeZhou, o desde el punto de vista de la física, la energía no se crea ni se destruye , solo distribuido de sistema a sistema). Pero hay una trampa aquí, hay múltiples estrategias viables que dependen completamente del medio ambiente . Este fue un tema investigado por los científicos informáticos Axelrod y Hamilton, donde probaron múltiples estrategias. Se puede encontrar una versión simplificada de sus experimentos en The Selfish Genecapítulo 12 del libro. Sus experimentos (simulados en una computadora) aparentemente dan alguna evidencia de que los tipos buenos (tipos que favorecen incondicionalmente) no siempre pierden a los tipos egoístas. Esto debe investigarse más si queremos crear una colonia de IA.

TL; DR : Es injusto comparar la IA con el reino animal ya que carecen de la unidad básica de supervivencia (el gen). Los humanos son, con mucho, los más inteligentes y pacíficos de todo el reino animal. La competencia sin celos es probablemente el mejor curso de acción en cualquier colonia o especie.

DuttaA
fuente
1
En teoría de juegos, el equilibrio de Nash es un punto estable, y la eficiencia de Pareto es una medida de la utilidad total. El dilema del prisionero es un buen ejemplo donde los dos no se maximizan lo mismo; el punto minimax lógico tiene ambos prisioneros que desertan, pero la utilidad total máxima ocurre cuando ambos prisioneros cooperan. Lamentablemente, muchos sistemas competitivos tienen esta diferencia entre los óptimos de Pareto y Nash.
Neil Slater
@NeilSlater axelrod investigó el dilema de los prisioneros en un sentido más amplio ... aparentemente tenía algunos hallazgos interesantes
DuttaA
0

Algunas características de la inteligencia humana son ciertamente parte del objetivo central a largo plazo de la IA. La mayoría de estas características son, obviamente, propiedades de otras especies también. Un tema realmente crucial es ¿cómo podría una computadora percibir no solo de una manera humana, sino percibir en absoluto? Los símbolos emitidos por los sensores digitales no indican lo que se detectó. Todo lo que la computadora obtiene son los símbolos, entonces, ¿cómo podría una computadora percibir algo?

Otra cuestión realmente crucial es que los humanos y, probablemente, la mayoría de los otros animales tienen, en cierta medida, una inteligencia general: pueden aplicar lo aprendido en el pasado a nuevas situaciones. Con los humanos hay una versión del problema de conocimiento general que se aplica al lenguaje, por lo que es un asunto puramente humano. Pero muchos animales claramente tienen algún tipo de conocimiento general. AI aún no ha producido una máquina con conocimiento general. Los efectos desastrosos de los "casos extremos" para el software de IA de vehículos autónomos son una prueba muy preocupante. Cómo obtener una inteligencia general también es un problema absolutamente fundamental.

Para resumir mi respuesta: en la actualidad, una inteligencia humana no es el objetivo inteligente. La IA tiene problemas mucho más fundamentales. El objetivo inteligente en este momento es comprender los principios de percepción y cómo incorporarlos en una computadora (suponiendo que esto sea posible), y comprender los principios de inteligencia general y cómo incorporarlos.

Es decir, determinar cómo los animales conocen su entorno y cómo reaccionan adecuadamente a situaciones novedosas sobre la base de la experiencia pasada.

Roddus
fuente
La visión muy común de roadkill demuestra claramente que muchos animales sufren efectos desastrosos de "casos extremos". La declaración "Los símbolos emitidos por los sensores digitales no indican lo que se detectó". es interesante y presenta algunos argumentos centrales que son IA pro o anti-fuertes. Un neurobiólogo puede decir igualmente "las señales emitidas por los conos y bastones oculares, y las neuronas motoras que controlan los músculos no indican lo que se detectó". Es principalmente nuestra experiencia consciente personal la que da una pista de que algo está sucediendo. Sin embargo, no entendemos qué es eso.
Neil Slater
@Neil Slater Exactamente, por lo que tampoco conocemos los principios de cómo un cerebro orgánico obtiene estructuras semánticas. Y hay notas en los pulsos neurales que indican lo que se detectó. Pero cerebros orgánicos hacen conseguir una semántica. Uno pensaría que este hecho inspiraría a los gurús a resolver lo que está mal en la habitación china de Searle y su premisa de que los símbolos están semánticamente vacíos. Claro que lo son. Pero también lo son los pulsos neurales.
Roddus