¿Hay alguna razón para el exceso de confianza inicial de los científicos e ingenieros que trabajan en inteligencia artificial en la década de 1960?

21

Acabo de comenzar una clase de AI y minería de datos, y el libro. La Programación de aplicaciones de IA comienza con una descripción general de la historia de la IA. El primer capítulo trata sobre la historia de la IA desde la década de 1940 hasta la actualidad. Una declaración en particular me llamó la atención:

[En los años 60] Los ingenieros de IA sobreprometieron y entregaron mal ...

¿Cuál fue la razón del exceso de confianza? ¿Se debió a los modelos de predicción matemática que mostraban que había un gran avance a la vuelta de la esquina, o debido a la capacidad de hardware cada vez mayor para aprovechar?

Jason
fuente
44
El problema de Hubris es universal. Lea 'Engañado por la aleatoriedad' para más detalles. en.wikipedia.org/wiki/Fooled_by_Randomness
Job
1
Si su biblioteca tiene una copia, el documento de Doug Lenat, "Por qué AM y EURISKO parecen funcionar". Inteligencia artificial 23 (3): págs. 269–294. Puede valer la pena leerlo. (AM y EURISKO fueron los propios programas de Doug Lenat). Esto, sin embargo, es mucho después de los años 60. Personalmente, creo que fue porque algunos de los primeros proyectos tuvieron mucho éxito, por lo que parecía que muchos problemas serían solubles utilizando algunas técnicas simples. Por desgracia, este no resultó ser el caso.
MZB
77
El problema fue más difícil de lo esperado. Mucho más duro.
8
@ Thorbjørn No sé por qué, pero me imagino que garabateado en los márgenes de una libreta de un científico de ingeniería justo antes de que abandone la oficina y llegue al punto de inflexión, perdiendo toda cordura.
Thomas Owens
3
No vale la pena dar una respuesta, pero también debe mirar el contexto social de aquellos tiempos. El mundo occidental, especialmente Estados Unidos, había pasado por la Segunda Guerra Mundial y había desarrollado una gran cantidad de tecnología que resolvió muchos problemas difíciles. Había una sensación general de que podíamos superar cualquier problema que nos propusiéramos resolver. Llamarlo arrogancia o arrogancia es probablemente un poco exagerado; Me gustaría más por algo como el optimismo desenfrenado.
Blrfl

Respuestas:

30

Mi opinión personal es que se debió a la arrogancia . Hubo algunos grandes egos poderosos caminando por los pasillos del MIT, Stanford, etc. en los años 60 y 70 y simplemente sabían que habían resuelto este problema. Correcto.

Aunque no era parte de ese universo en aquellos días, a mediados y finales de los 80 estaba trabajando con búsquedas de similitudes. Nuestro trabajo se basó inicialmente en una investigación realizada por Gerard Salton en Cornell en los años 60, que utilizaba vectores de atributos ponderados para representar documentos y consultas. En realidad, era un enfoque utilizable, pero cuando las redes neuronales se incendiaron (al menos hasta que descubrieron la propagación posterior ), el trabajo de Salton se incluyó debido a las similitudes (juego de palabras) con las redes neuronales. Intentaba hacer algo diferente, pero pasaron varios años en los que fue agrupado con el resto.

Cada vez que a alguien se le ocurre una solución para el Current Brick Wall ™, se emociona mucho y declara que la IA es un problema resuelto. Solo que no lo es. Porque detrás de esa pared de ladrillos hay otra. Este ciclo se ha repetido una y otra vez, y no solo en IA. Creo firmemente que se debe exigir a todos los futuros científicos e ingenieros informáticos que tomen una clase de un semestre en Historia de la Computación, con especial énfasis en el número de Next Big Things ™ que se dispararon como cohetes ... y luego hicieron un gran Gran cráter en el fondo del valle.

Anexo: Pasé el fin de semana del Día del Trabajo con un viejo amigo y hablamos un poco sobre esto. El contexto , descubrir qué significa eso, cómo representarlo y luego cómo usarlo, surgió como posiblemente el obstáculo más grande que se debe eliminar. Y cuanto más lo miras, más grande se vuelve un obstáculo. Los humanos son capaces de una sorprendente coincidencia de patrones parciales casi instantáneos de "lo que está sucediendo" contra una gran cantidad de "lo que sucedió antes", y luego combinar ese conocimiento del pasado con la situación actual para crear un contexto en el que la comprensión puede conducir a la acción. Por ejemplo, podemos usarlo como un poderoso filtro de "cosas que podemos / no podemos ignorar" a medida que avanzamos por el Grado Waldo a 60 MPH con tráfico de 4 carriles en línea y separados por solo 3 o 4 pies (¡o menos!).

En el espectro de stuff > data > information > knowledge > understanding > judgementtodavía estamos esforzándonos por llegar a los pasos de información / conocimiento, e incluso eso se limita a dominios de discurso altamente restringidos .

Peter Rowell
fuente
1
La IA es como una cordillera. Estamos en algún lugar en las estribaciones y podemos ver el pico que queremos escalar, pero no tenemos idea de qué hay sobre la próxima colina o cuántas colinas más nos quedan por escalar para alcanzar nuestra meta.
CdMnky
1
En mi opinión, no puede suceder sin un reconocimiento de patrones realmente sofisticado y altamente generalizado. Solo leer sobre muchas de las cosas que han intentado me pareció una especie de ingenuo o tal vez demasiado cerebro izquierdo, lo que me da la sensación de que la programación está dominada en general, al menos cuando me di cuenta de ello en los años 80.
Erik Reppen
17

En pocas palabras, subestimaron masivamente la magnitud del problema en cuestión, especialmente en lo que respecta a la explosión combinatoria. Muchas soluciones de IA funcionan bien para muestras de "juguetes", pero fallan cuando escalan a problemas de nivel humano.

Posiblemente, también eran simplemente inexpertos. La IA como campo solo (relativamente) se acaba de inventar en términos de aplicaciones prácticas, por lo que nadie tenía una experiencia significativa aplicando la teoría a nada.

DeadMG
fuente
No sé mucho de esto, pero siempre pensé que muchas de las características de Google se basan en la inteligencia artificial, ¿o no entiendo esto?
user10326
@ user10326: lo son. Pero no veo qué tiene que ver eso con el tema en cuestión: Google no existió durante 30 años después del período en cuestión.
DeadMG
Ok, pero lo que estoy diciendo es que ellos (Google) han usado IA de una manera práctica, ¿verdad? Quiero decir que puede que no sea lo que "imaginaban" en ese momento, pero aún así se pueden ofrecer las características de Google usando Lenguaje AI?
user10326
44
@ user10326, según tengo entendido, Google está utilizando un sistema de adivinanzas muy avanzado. Básicamente, analiza montañas de actividad del usuario e intenta extrapolar patrones. La visión original de la IA era crear una verdadera mente digital que funcionara como un cerebro humano. De hecho, la falta de acuerdo sobre lo que constituye la IA es una de las desventajas del campo.
Jiggy
@ user10326: Todavía no entiendo la relevancia.
DeadMG
15

Puedo pensar en un par de razones.

AI experimentó un éxito tan rápido con algunos de los problemas con los juguetes abordados a fines de los años 50 y principios de los 60, que sobreestimaron lo que habían logrado. ELIZA y SHRDLU sorprendieron a la gente a pesar de ser programas relativamente simples. Desafortunadamente, una gran parte de lo que hizo que esos programas fueran impresionantes fue realmente una novedad. Nadie está muy impresionado por una conversación con ELIZA hoy, pero en ese momento la gente pensó que era casi milagroso.

Además, a medida que los problemas se "resuelven" o al menos se vuelven manejables, la gente ya no los considera IA. La optimización del código solía ser un problema de IA. El aprendizaje estadístico surgió de la IA en su propia especialidad, y se llevó el reconocimiento de voz. A medida que la minería de datos se generalice, perderá su asociación con la IA. Con el tiempo, AI olvida sus éxitos y se atasca aferrándose a los problemas insolubles e insolubles, y termina pareciendo un fracaso.

Charles E. Grant
fuente
55
Buen punto sobre "si ya no es magia (3), ya no es IA".
Piskvor
Pero, ¿no es el aprendizaje estadístico y la IA de minería de datos en principio?
user10326
@ user10326, ciertamente la mayoría de las referencias todavía clasifican Machine Learning como una rama de la IA, pero tengo la impresión de que mucha gente que trabaja en ML te frunciría el ceño si les dijeras que trabajaron en IA. Creo que le dirían que, pragmáticamente, ML es una rama de las estadísticas y no proporciona ninguna visión particular de la inteligencia, artificial o de otro tipo.
Charles E. Grant
12

Creo que las personas en los años 60 usaron su propia experiencia humana para dividir los problemas en "problemas difíciles" y "problemas fáciles": cosas como ganar ajedrez, resolver acertijos lógicos, resolver ecuaciones matemáticas nos parecen difíciles a los humanos. Cosas como comprender los lenguajes naturales o encontrar los contornos de los objetos en una imagen parecen fáciles, porque nuestro cerebro hace todo el trabajo sin un esfuerzo consciente. Cuando intentamos explicar cómo hacemos esas cosas, se nos ocurren explicaciones simples como "las oraciones en inglés siempre tienen la estructura sujeto-predicado-objeto donde sujeto puede ser un término simple o una frase ...", o "Estoy buscando bordes y conectarlos a los límites del objeto ". Hoy sabemos que las cosas no son tan simples, sino solo porque todas las soluciones simples (y muchas no tan simples) se han probado y no se han probado

Además, esta falacia no comenzó en los años 60: hay siglos de investigación sobre cómo resolver esos "problemas difíciles" (heurística, teoría de juegos, teoría de decisiones, matemática, lógica, etc.) pero no estoy seguro de que nadie jamás se molestó en investigar cómo los lenguajes naturales podrían analizarse antes de la década de 1950.

E incluso hoy, puede encontrar regularmente preguntas en stackoverflow, donde las personas preguntan cómo pueden analizar oraciones en inglés, estimar la edad de una persona en una imagen, juzgar si una imagen es "segura para el trabajo" o si dos imágenes muestran lo mismo . No creo que las personas que hacen estas preguntas sufren de un exceso de arrogancia o soberbia: Estos problemas parecen tan sencilla, es increíble que no es ningún algoritmo simple para resolverlos.

nikie
fuente
3
Creo que esta es la respuesta correcta en lugar de la teoría de la arrogancia, que parece estar fuertemente respaldada en este sitio. Las cosas que pensamos que eran increíblemente difíciles para los humanos resultaron ser relativamente fáciles para las máquinas, por otro lado, las cosas increíblemente simples para los humanos son muy difíciles para las máquinas.
AlexC
11

La IA tiene una larga historia de decepciones, pero creo que muchos críticos a menudo simplifican demasiado lo que sucedió, como por ejemplo con su cita "los ingenieros de los años sesenta se comprometieron de forma exagerada".

En los años 60, la IA era el dominio de un puñado relativo de investigadores (el campo aún no estaba lo suficientemente desarrollado como para llamarlo ingeniería), principalmente en las universidades, y muy pocos de ellos eran programadores consumados.

La repentina disponibilidad de máquinas informáticas en la década de 1950 había generado grandes expectativas de automatización, particularmente en la traducción automática de lenguaje natural, jugar ajedrez y problemas similares. Es posible que encuentre algunas predicciones reales de éxito de esos días, pero las promesas inevitablemente llegaron ANTES de que alguien abordara uno de esos problemas en profundidad. (O, asumieron erróneamente que un éxito garantizaba otro, como esperar poder implementar un buen juego de ajedrez después de que Samuel tuviera tanto éxito con las damas).

Además, tenga cuidado con cualquier reclamo de "dijeron", "sintieron", "pensaron", etc .; Las opiniones retrospectivas (¡como esta!) son fáciles de descartar, mientras que la evidencia documentada de las predicciones reales de los "expertos" (aquellos que realmente intentaron resolver un problema dado) puede ser mucho más difícil de encontrar.

El exceso de promesas y la falta de entrega siempre ha sido un síntoma del desarrollo de software, independientemente del campo específico donde se aplique la programación. Una gran dificultad con la IA es que los problemas no triviales están más allá de las capacidades de la mayoría de los ingenieros. Por ejemplo, aunque la respuesta de Charles E. Grant clasifica a ELIZA y SHRDLU como "relativamente simples", diría que eso es cierto solo para ELIZA (que la mayoría de los estudiantes de programación de primer año probablemente podrían implementar sin mucha dificultad). Por otro lado, SHRDLU es un programa grande y extremadamente sofisticado que a la mayoría de los programadores les resultaría muy difícil inventar, incluso implementar. De hecho, dos equipos de estudiantes universitarios ni siquiera pudieron volver a ejecutar completamente el código fuente, y las habilidades similares a SHRDLU siguen siendo difíciles de encontrar hoy en día, más de 40 años después.

Dado que la inteligencia artificial es probablemente uno de los problemas menos comprensibles y menos manejables en los que se pueden aplicar las computadoras, en general, diría que el progreso en inteligencia artificial ha estado a la par en el curso. Todavía hay altas expectativas , y nuestra velocidad y capacidades de hardware han aumentado enormemente desde los años 60, pero diría que las habilidades de los ingenieros y la comprensión de la IA no están mejorando tanto, por lo que un santo grial como pasar la prueba de Turing todavía está probablemente muy lejos, y el exceso de promesas y el bajo rendimiento probablemente continuarán por algún tiempo.

ID de protección de testigos 44583292
fuente
Re: Prueba de Turing: Leí acerca de un programa de asistente de enseñanza de Georgia Tech que la mayoría de los estudiantes no pueden decir que es una "IA". Es posible que no hayan estado buscando eso, pero ciertamente no saltó sobre ellos. Creo que la conversación general será un problema resuelto muy pronto. Vi a alguien jugar con una nueva cosa de Google Echo (como se llame) recientemente. Lamentable, pero ¿cuánto tiempo se quedará así, con millones de monos alimentándolo con muestras de conversación?
5

Creo que la razón fue la arrogancia. Si hubiera sido ingeniero en los años 60 trabajando en IA, habría sido bastante arrogante.

Creo que para lograr grandes cosas, tienes que alcanzar grandes cosas. Por lo tanto, la promesa excesiva no es necesariamente algo malo siempre que no se supere el límite. Los científicos de hoy prometen cosas que no creo que sean posibles, pero si no alcanzan eso, nos perderemos de lo que se logrará como resultado.

AJC
fuente
4

Puede ser muy difícil llegar a algún lugar cuando no sabes a dónde vas.

Si tuviéramos algún tipo de explicación razonable de qué es la inteligencia y cómo funciona, tal vez tendríamos una oportunidad para imitarla de manera efectiva. La prueba de Turing es fascinante y útil, pero probablemente no sea suficiente para ayudarnos a modelar la verdadera inteligencia. Por lo que sabemos, un "modelo" de inteligencia podría no ser suficiente para la verdadera inteligencia tampoco.

Caleb
fuente
3
+1 para la primera oración.
Mason Wheeler
Tal vez no somos lo suficientemente inteligentes como para poder comprender la inteligencia, o incluso un modelo de ella. Sin embargo, podríamos construir un modelo de mala muerte, a continuación, hacer que trabaje sobre sí mismo ...
2

Bueno, diría que es más o menos lo mismo que está sucediendo con OWL en este momento. Mire a su alrededor e intente dibujar paralelos.

Suena bien en papel, parece funcionar bien en problemas de juguetes, se vuelve increíblemente complicado en la mayoría de los datos reales.

Descifrador
fuente
¿Qué es el búho? Ostwestfalen-Lippe?
sleske
2

Además de las buenas respuestas dadas, dos observaciones:

Algunas citas del día parecen implicar que muchos de los investigadores pensaban que las soluciones triviales podrían ampliarse una vez que se diseñaron las computadoras más rápidas. Para algunos tipos de sistemas de aprendizaje esto era muy cierto, pero para el tipo de cosas que creo que el OP se refiere, realmente no mejoró a escala.

Los investigadores en ese momento tenían una estimación muy baja de la complejidad de la mente humana (se centran en ideas como la prueba de Turing, la idea de que las personas solo usan un pequeño porcentaje de su cerebro, etc.). La IA al nivel de un animal simple se ha logrado mediante algunas medidas a medida que las cosas se ampliaron, pero el salto a un nivel humano AI fue mucho mayor de lo esperado. Esto ha llevado a algunos investigadores a intentar aprender sistemas para bebés y otras simulaciones basadas en el crecimiento / evolución como un intento de cerrar esa brecha.

Cuenta
fuente
Un cerebro simple (insecto, pez, reptil) puede manejar bien el comportamiento , pero manejar el razonamiento es un problema diferente. Así que creo que la IA pronto podrá conversar sobre un dominio problemático, pero no tendrá nada significativo para contribuir o poder resolver problemas nuevos. El área interesante es donde los cerebros pequeños (pájaros) pueden hacer cosas complejas, como responder a la conversación e inventar cosas divertidas para hacer (loro que imitaba el timbre de la puerta para ver a la gente ir a la puerta y luego emitir un sonido de risa).
1

Una de las razones fue el éxito que estábamos teniendo EN OTRA PARTE en la década de 1960. Acabábamos de lanzarnos al espacio y pronto aterrizaríamos un hombre en la luna. Acabábamos de descubrir curas para la poliomielitis y otras enfermedades importantes.

Pero la "inteligencia artificial" era un animal diferente de los problemas de "ingeniería" que enfrentamos entonces. Era un problema de "razonamiento", más que "mecánico".

En resumen, la IA (en la década de 1960) fue una idea "cuyo momento aún no había llegado". Tomó más desarrollo, en las décadas siguientes, antes de que fuera tan accesible como los otros problemas.

Tom Au
fuente
0

Otra razón puede ser que dominar una computadora / escribir programas de computadora nos da poco control y enloquece la sensación de omnipotencia; de hecho, uno crea pequeños universos, aunque cerrados.

Esto más la falta de educación filosófica / epistemológica y la ingenua confianza en explicaciones simples como "La inteligencia no es más que ..." puede conducir a la arrogancia.

Ingo
fuente