¿El efecto AI es causado por malas pruebas de inteligencia?

8

Según Wikipedia ...

El efecto de IA ocurre cuando los espectadores descuentan el comportamiento de un programa de inteligencia artificial argumentando que no es inteligencia real.

Pamela McCorduck escribe: "Es parte de la historia del campo de la inteligencia artificial que cada vez que alguien descubrió cómo hacer que una computadora haga algo, jugar buenas fichas, resolver problemas simples pero relativamente informales, hubo un coro de críticos que decir:" eso no es pensar "." [1] El investigador de IA Rodney Brooks se queja "Cada vez que descubrimos un fragmento, deja de ser mágico; decimos: 'Oh, eso es solo un cálculo'". [2]

La página de Wikipedia propone varias razones diferentes que podrían explicar por qué los espectadores podrían "descontar" los programas de IA. Sin embargo, esas razones parecen implicar que los humanos están cometiendo un error al "descontar" el comportamiento de los programas de IA ... y que estos programas de IA podrían ser realmente inteligentes. Quiero hacer un argumento alternativo, donde los humanos están cometiendo un error, pero no "descontando" el comportamiento de los programas de IA.

Considere la siguiente situación. Quiero construir una máquina que pueda hacer X (donde X es un rasgo, como la inteligencia). Puedo evaluar intuitivamente si una máquina tiene ese criterio X. Pero no tengo una buena definición de lo que X realmente es . Todo lo que puedo hacer es identificar si algo tiene X o no.

Sin embargo, creo que las personas que tienen X pueden hacer Y. Entonces, si construyo una máquina que puede hacer Y, entonces seguramente, construí una máquina que tiene X.

Después de construir la máquina que puede hacer Y, la examino para ver si mi máquina tiene X. Y no la tiene. Entonces mi máquina carece de X. Y aunque una máquina que puede hacer Y es genial, lo que realmente quiero es una máquina que tenga X. Vuelvo a la mesa de dibujo y pienso en una nueva idea para llegar a X.

Después de escribir en la pizarra durante un par de horas, me doy cuenta de que las personas que tienen X pueden hacer Z. ¡Por supuesto! Intento construir una nueva máquina que pueda hacer Z, sí, si puede hacer Z, entonces debe tener X.

Después de construir la máquina que puede hacer Z, verifico si tiene X. No la tiene. Y así regreso a la mesa de dibujo, y el ciclo se repite y se repite ...

Esencialmente, los humanos intentan determinar si una entidad tiene inteligencia a través de mediciones proxy, pero esas mediciones proxy son potencialmente defectuosas (ya que es posible cumplir con esas mediciones proxy sin tener realmente inteligencia). Hasta que sepamos cómo definir la inteligencia y diseñar una prueba que pueda medirla con precisión, es muy poco probable que construyamos una máquina que tenga inteligencia. Entonces, el efecto AI ocurre porque los humanos no saben cómo definir "inteligencia", no porque las personas descarten los programas por no ser "inteligentes".

¿Es este argumento válido o correcto? Y si no, ¿Pórque no?

Izquierda SE en 10_6_19
fuente

Respuestas:

7

Creo que es mayormente correcto. Pero no es que la inteligencia sea difícil de definir. En mi opinión, es simple: A es más inteligente que B si A logra algún propósito en menos pasos que B. Es la eficiencia funcional / algorítmica.

Lo que es difícil de definir es humano inteligencia .

Pero cuando alguien dice: "No, X no es inteligencia real ", lo que quieren decir es que no satisface lo que consideraríamos inteligencia humana real .

Entonces, cuando las personas descartan nuevos y sorprendentes descubrimientos en inteligencia artificial, no es porque no sean sorprendentes a su manera, sino porque esos descubrimientos, aunque exhiben inteligencia, en realidad no están replicando la inteligencia humana, que es lo que muchas personas realmente quieren decir cuando diga "esa cosa no es realmente inteligente".

En verdad, estamos muy lejos, en la ciencia de la inteligencia artificial, algorítmicamente hablando, de una inteligencia humana artificial (IAH).

Nota adicional: Lo gracioso es que no llamamos a la ciencia de la inteligencia artificial simplemente 'la ciencia de la inteligencia'. Que agreguemos el calificador "artificial" por necesidad vincula la ciencia a lo que la artificialidad emula implícitamente: la inteligencia humana. En otras palabras, la "inteligencia artificial" debe ser, por definición, más específica a lo que supuestamente artificializa que una ciencia más general de "inteligencia".

Doxosophoi
fuente