Según Wikipedia ...
El efecto de IA ocurre cuando los espectadores descuentan el comportamiento de un programa de inteligencia artificial argumentando que no es inteligencia real.
Pamela McCorduck escribe: "Es parte de la historia del campo de la inteligencia artificial que cada vez que alguien descubrió cómo hacer que una computadora haga algo, jugar buenas fichas, resolver problemas simples pero relativamente informales, hubo un coro de críticos que decir:" eso no es pensar "." [1] El investigador de IA Rodney Brooks se queja "Cada vez que descubrimos un fragmento, deja de ser mágico; decimos: 'Oh, eso es solo un cálculo'". [2]
La página de Wikipedia propone varias razones diferentes que podrían explicar por qué los espectadores podrían "descontar" los programas de IA. Sin embargo, esas razones parecen implicar que los humanos están cometiendo un error al "descontar" el comportamiento de los programas de IA ... y que estos programas de IA podrían ser realmente inteligentes. Quiero hacer un argumento alternativo, donde los humanos están cometiendo un error, pero no "descontando" el comportamiento de los programas de IA.
Considere la siguiente situación. Quiero construir una máquina que pueda hacer X (donde X es un rasgo, como la inteligencia). Puedo evaluar intuitivamente si una máquina tiene ese criterio X. Pero no tengo una buena definición de lo que X realmente es . Todo lo que puedo hacer es identificar si algo tiene X o no.
Sin embargo, creo que las personas que tienen X pueden hacer Y. Entonces, si construyo una máquina que puede hacer Y, entonces seguramente, construí una máquina que tiene X.
Después de construir la máquina que puede hacer Y, la examino para ver si mi máquina tiene X. Y no la tiene. Entonces mi máquina carece de X. Y aunque una máquina que puede hacer Y es genial, lo que realmente quiero es una máquina que tenga X. Vuelvo a la mesa de dibujo y pienso en una nueva idea para llegar a X.
Después de escribir en la pizarra durante un par de horas, me doy cuenta de que las personas que tienen X pueden hacer Z. ¡Por supuesto! Intento construir una nueva máquina que pueda hacer Z, sí, si puede hacer Z, entonces debe tener X.
Después de construir la máquina que puede hacer Z, verifico si tiene X. No la tiene. Y así regreso a la mesa de dibujo, y el ciclo se repite y se repite ...
Esencialmente, los humanos intentan determinar si una entidad tiene inteligencia a través de mediciones proxy, pero esas mediciones proxy son potencialmente defectuosas (ya que es posible cumplir con esas mediciones proxy sin tener realmente inteligencia). Hasta que sepamos cómo definir la inteligencia y diseñar una prueba que pueda medirla con precisión, es muy poco probable que construyamos una máquina que tenga inteligencia. Entonces, el efecto AI ocurre porque los humanos no saben cómo definir "inteligencia", no porque las personas descarten los programas por no ser "inteligentes".
¿Es este argumento válido o correcto? Y si no, ¿Pórque no?
fuente