Acabo de comenzar una clase de AI y minería de datos, y el libro. La Programación de aplicaciones de IA comienza con una descripción general de la historia de la IA. El primer capítulo trata sobre la historia de la IA desde la década de 1940 hasta la actualidad. Una declaración en particular me llamó la atención:
[En los años 60] Los ingenieros de IA sobreprometieron y entregaron mal ...
¿Cuál fue la razón del exceso de confianza? ¿Se debió a los modelos de predicción matemática que mostraban que había un gran avance a la vuelta de la esquina, o debido a la capacidad de hardware cada vez mayor para aprovechar?
Respuestas:
Mi opinión personal es que se debió a la arrogancia . Hubo algunos grandes egos poderosos caminando por los pasillos del MIT, Stanford, etc. en los años 60 y 70 y simplemente sabían que habían resuelto este problema. Correcto.
Aunque no era parte de ese universo en aquellos días, a mediados y finales de los 80 estaba trabajando con búsquedas de similitudes. Nuestro trabajo se basó inicialmente en una investigación realizada por Gerard Salton en Cornell en los años 60, que utilizaba vectores de atributos ponderados para representar documentos y consultas. En realidad, era un enfoque utilizable, pero cuando las redes neuronales se incendiaron (al menos hasta que descubrieron la propagación posterior ), el trabajo de Salton se incluyó debido a las similitudes (juego de palabras) con las redes neuronales. Intentaba hacer algo diferente, pero pasaron varios años en los que fue agrupado con el resto.
Cada vez que a alguien se le ocurre una solución para el Current Brick Wall ™, se emociona mucho y declara que la IA es un problema resuelto. Solo que no lo es. Porque detrás de esa pared de ladrillos hay otra. Este ciclo se ha repetido una y otra vez, y no solo en IA. Creo firmemente que se debe exigir a todos los futuros científicos e ingenieros informáticos que tomen una clase de un semestre en Historia de la Computación, con especial énfasis en el número de Next Big Things ™ que se dispararon como cohetes ... y luego hicieron un gran Gran cráter en el fondo del valle.
Anexo: Pasé el fin de semana del Día del Trabajo con un viejo amigo y hablamos un poco sobre esto. El contexto , descubrir qué significa eso, cómo representarlo y luego cómo usarlo, surgió como posiblemente el obstáculo más grande que se debe eliminar. Y cuanto más lo miras, más grande se vuelve un obstáculo. Los humanos son capaces de una sorprendente coincidencia de patrones parciales casi instantáneos de "lo que está sucediendo" contra una gran cantidad de "lo que sucedió antes", y luego combinar ese conocimiento del pasado con la situación actual para crear un contexto en el que la comprensión puede conducir a la acción. Por ejemplo, podemos usarlo como un poderoso filtro de "cosas que podemos / no podemos ignorar" a medida que avanzamos por el Grado Waldo a 60 MPH con tráfico de 4 carriles en línea y separados por solo 3 o 4 pies (¡o menos!).
En el espectro de
stuff > data > information > knowledge > understanding > judgement
todavía estamos esforzándonos por llegar a los pasos de información / conocimiento, e incluso eso se limita a dominios de discurso altamente restringidos .fuente
En pocas palabras, subestimaron masivamente la magnitud del problema en cuestión, especialmente en lo que respecta a la explosión combinatoria. Muchas soluciones de IA funcionan bien para muestras de "juguetes", pero fallan cuando escalan a problemas de nivel humano.
Posiblemente, también eran simplemente inexpertos. La IA como campo solo (relativamente) se acaba de inventar en términos de aplicaciones prácticas, por lo que nadie tenía una experiencia significativa aplicando la teoría a nada.
fuente
Puedo pensar en un par de razones.
AI experimentó un éxito tan rápido con algunos de los problemas con los juguetes abordados a fines de los años 50 y principios de los 60, que sobreestimaron lo que habían logrado. ELIZA y SHRDLU sorprendieron a la gente a pesar de ser programas relativamente simples. Desafortunadamente, una gran parte de lo que hizo que esos programas fueran impresionantes fue realmente una novedad. Nadie está muy impresionado por una conversación con ELIZA hoy, pero en ese momento la gente pensó que era casi milagroso.
Además, a medida que los problemas se "resuelven" o al menos se vuelven manejables, la gente ya no los considera IA. La optimización del código solía ser un problema de IA. El aprendizaje estadístico surgió de la IA en su propia especialidad, y se llevó el reconocimiento de voz. A medida que la minería de datos se generalice, perderá su asociación con la IA. Con el tiempo, AI olvida sus éxitos y se atasca aferrándose a los problemas insolubles e insolubles, y termina pareciendo un fracaso.
fuente
Creo que las personas en los años 60 usaron su propia experiencia humana para dividir los problemas en "problemas difíciles" y "problemas fáciles": cosas como ganar ajedrez, resolver acertijos lógicos, resolver ecuaciones matemáticas nos parecen difíciles a los humanos. Cosas como comprender los lenguajes naturales o encontrar los contornos de los objetos en una imagen parecen fáciles, porque nuestro cerebro hace todo el trabajo sin un esfuerzo consciente. Cuando intentamos explicar cómo hacemos esas cosas, se nos ocurren explicaciones simples como "las oraciones en inglés siempre tienen la estructura sujeto-predicado-objeto donde sujeto puede ser un término simple o una frase ...", o "Estoy buscando bordes y conectarlos a los límites del objeto ". Hoy sabemos que las cosas no son tan simples, sino solo porque todas las soluciones simples (y muchas no tan simples) se han probado y no se han probado
Además, esta falacia no comenzó en los años 60: hay siglos de investigación sobre cómo resolver esos "problemas difíciles" (heurística, teoría de juegos, teoría de decisiones, matemática, lógica, etc.) pero no estoy seguro de que nadie jamás se molestó en investigar cómo los lenguajes naturales podrían analizarse antes de la década de 1950.
E incluso hoy, puede encontrar regularmente preguntas en stackoverflow, donde las personas preguntan cómo pueden analizar oraciones en inglés, estimar la edad de una persona en una imagen, juzgar si una imagen es "segura para el trabajo" o si dos imágenes muestran lo mismo . No creo que las personas que hacen estas preguntas sufren de un exceso de arrogancia o soberbia: Estos problemas parecen tan sencilla, es increíble que no es ningún algoritmo simple para resolverlos.
fuente
La IA tiene una larga historia de decepciones, pero creo que muchos críticos a menudo simplifican demasiado lo que sucedió, como por ejemplo con su cita "los ingenieros de los años sesenta se comprometieron de forma exagerada".
En los años 60, la IA era el dominio de un puñado relativo de investigadores (el campo aún no estaba lo suficientemente desarrollado como para llamarlo ingeniería), principalmente en las universidades, y muy pocos de ellos eran programadores consumados.
La repentina disponibilidad de máquinas informáticas en la década de 1950 había generado grandes expectativas de automatización, particularmente en la traducción automática de lenguaje natural, jugar ajedrez y problemas similares. Es posible que encuentre algunas predicciones reales de éxito de esos días, pero las promesas inevitablemente llegaron ANTES de que alguien abordara uno de esos problemas en profundidad. (O, asumieron erróneamente que un éxito garantizaba otro, como esperar poder implementar un buen juego de ajedrez después de que Samuel tuviera tanto éxito con las damas).
Además, tenga cuidado con cualquier reclamo de "dijeron", "sintieron", "pensaron", etc .; Las opiniones retrospectivas (¡como esta!) son fáciles de descartar, mientras que la evidencia documentada de las predicciones reales de los "expertos" (aquellos que realmente intentaron resolver un problema dado) puede ser mucho más difícil de encontrar.
El exceso de promesas y la falta de entrega siempre ha sido un síntoma del desarrollo de software, independientemente del campo específico donde se aplique la programación. Una gran dificultad con la IA es que los problemas no triviales están más allá de las capacidades de la mayoría de los ingenieros. Por ejemplo, aunque la respuesta de Charles E. Grant clasifica a ELIZA y SHRDLU como "relativamente simples", diría que eso es cierto solo para ELIZA (que la mayoría de los estudiantes de programación de primer año probablemente podrían implementar sin mucha dificultad). Por otro lado, SHRDLU es un programa grande y extremadamente sofisticado que a la mayoría de los programadores les resultaría muy difícil inventar, incluso implementar. De hecho, dos equipos de estudiantes universitarios ni siquiera pudieron volver a ejecutar completamente el código fuente, y las habilidades similares a SHRDLU siguen siendo difíciles de encontrar hoy en día, más de 40 años después.
Dado que la inteligencia artificial es probablemente uno de los problemas menos comprensibles y menos manejables en los que se pueden aplicar las computadoras, en general, diría que el progreso en inteligencia artificial ha estado a la par en el curso. Todavía hay altas expectativas , y nuestra velocidad y capacidades de hardware han aumentado enormemente desde los años 60, pero diría que las habilidades de los ingenieros y la comprensión de la IA no están mejorando tanto, por lo que un santo grial como pasar la prueba de Turing todavía está probablemente muy lejos, y el exceso de promesas y el bajo rendimiento probablemente continuarán por algún tiempo.
fuente
Creo que la razón fue la arrogancia. Si hubiera sido ingeniero en los años 60 trabajando en IA, habría sido bastante arrogante.
Creo que para lograr grandes cosas, tienes que alcanzar grandes cosas. Por lo tanto, la promesa excesiva no es necesariamente algo malo siempre que no se supere el límite. Los científicos de hoy prometen cosas que no creo que sean posibles, pero si no alcanzan eso, nos perderemos de lo que se logrará como resultado.
fuente
Puede ser muy difícil llegar a algún lugar cuando no sabes a dónde vas.
Si tuviéramos algún tipo de explicación razonable de qué es la inteligencia y cómo funciona, tal vez tendríamos una oportunidad para imitarla de manera efectiva. La prueba de Turing es fascinante y útil, pero probablemente no sea suficiente para ayudarnos a modelar la verdadera inteligencia. Por lo que sabemos, un "modelo" de inteligencia podría no ser suficiente para la verdadera inteligencia tampoco.
fuente
Bueno, diría que es más o menos lo mismo que está sucediendo con OWL en este momento. Mire a su alrededor e intente dibujar paralelos.
Suena bien en papel, parece funcionar bien en problemas de juguetes, se vuelve increíblemente complicado en la mayoría de los datos reales.
fuente
Además de las buenas respuestas dadas, dos observaciones:
Algunas citas del día parecen implicar que muchos de los investigadores pensaban que las soluciones triviales podrían ampliarse una vez que se diseñaron las computadoras más rápidas. Para algunos tipos de sistemas de aprendizaje esto era muy cierto, pero para el tipo de cosas que creo que el OP se refiere, realmente no mejoró a escala.
Los investigadores en ese momento tenían una estimación muy baja de la complejidad de la mente humana (se centran en ideas como la prueba de Turing, la idea de que las personas solo usan un pequeño porcentaje de su cerebro, etc.). La IA al nivel de un animal simple se ha logrado mediante algunas medidas a medida que las cosas se ampliaron, pero el salto a un nivel humano AI fue mucho mayor de lo esperado. Esto ha llevado a algunos investigadores a intentar aprender sistemas para bebés y otras simulaciones basadas en el crecimiento / evolución como un intento de cerrar esa brecha.
fuente
Una de las razones fue el éxito que estábamos teniendo EN OTRA PARTE en la década de 1960. Acabábamos de lanzarnos al espacio y pronto aterrizaríamos un hombre en la luna. Acabábamos de descubrir curas para la poliomielitis y otras enfermedades importantes.
Pero la "inteligencia artificial" era un animal diferente de los problemas de "ingeniería" que enfrentamos entonces. Era un problema de "razonamiento", más que "mecánico".
En resumen, la IA (en la década de 1960) fue una idea "cuyo momento aún no había llegado". Tomó más desarrollo, en las décadas siguientes, antes de que fuera tan accesible como los otros problemas.
fuente
Otra razón puede ser que dominar una computadora / escribir programas de computadora nos da poco control y enloquece la sensación de omnipotencia; de hecho, uno crea pequeños universos, aunque cerrados.
Esto más la falta de educación filosófica / epistemológica y la ingenua confianza en explicaciones simples como "La inteligencia no es más que ..." puede conducir a la arrogancia.
fuente