Escuché una charla por panel compuesta por dos científicos chinos influyentes: Wang Gang y Yu Kai y otros.
Cuando se le preguntó sobre el mayor cuello de botella del desarrollo de la inteligencia artificial en el futuro cercano (3 a 5 años), Yu Kai, que tiene experiencia en la industria del hardware, dijo que el hardware sería el problema esencial y que deberíamos pagar la mayor parte nuestra atención a eso. Nos dio dos ejemplos:
- En el desarrollo temprano de la computadora, comparamos nuestras máquinas por sus chips;
- La inteligencia artificial, que es muy popular en estos años, sería casi imposible si no estuviera potenciada por la GPU de Nvidia.
Los algoritmos fundamentales ya existían en las décadas de 1980 y 1990, pero la inteligencia artificial pasó por 3 inviernos de IA y no fue empírica hasta que podamos entrenar modelos con mega servidores con GPU.
Luego, el Dr. Wang comentó sus opiniones de que también deberíamos desarrollar sistemas de software porque no podemos construir un automóvil automático, incluso si hemos combinado todas las GPU y la computación en el mundo juntas.
Luego, como de costumbre, mi mente se desvió y comencé a pensar que si aquellos que pueden operar supercomputadoras en los años ochenta y noventa utilizaron los algoritmos de red neuronal existentes en ese momento y los entrenaron con toneladas de datos científicos. Algunas personas en ese momento obviamente pueden intentar construir los sistemas de IA que estamos construyendo ahora. Pero, ¿por qué la IA se convirtió en un tema candente y empírico hasta décadas después? ¿Es solo una cuestión de hardware, software y datos?
fuente
Respuestas:
Hay muchos factores para el auge de la industria de IA. Sin embargo, lo que mucha gente echa de menos es que el auge ha estado principalmente en la parte de aprendizaje automático de la IA. Esto puede atribuirse a varias razones simples junto con sus comparaciones en épocas anteriores:
Otro aspecto importante es que hoy en día todos tienen acceso a computadoras potentes. Por lo tanto, cualquiera puede construir nuevos modelos ML, volver a entrenar modelos preexistentes, modificar modelos, etc. Esto no fue posible en épocas anteriores,
Todos estos factores han llevado a un gran aumento en el interés en el aprendizaje automático y ha causado el auge que estamos viendo hoy. Consulte también esta pregunta sobre cómo nos estamos moviendo más allá de los procesadores digitales.
fuente
Las GPU eran ideales para el boom de la IA porque
La IA ha sido investigada por MUCHO tiempo. Casi medio siglo. Sin embargo, eso fue todo exploración de cómo funcionarían y se verían los algoritmos. Cuando NV vio que la IA estaba a punto de convertirse en una corriente principal, observaron sus GPU y se dieron cuenta de que la enorme potencia de procesamiento en paralelo, con relativa facilidad de programación, es ideal para la era futura. Muchas otras personas se dieron cuenta de eso también.
GPGPU es un concepto de uso del procesamiento paralelo de GPU para tareas generales. Puede acelerar los gráficos o hacer que su algoritmo utalice miles de núcleos disponibles en la GPU. Eso hace que GPU sea un objetivo increíble para todo tipo de casos de uso, incluida la IA. Dado que ya están disponibles y no son demasiado difíciles de programar, es la opción ideal para acelerar los algoritmos de IA.
fuente