Esta pregunta surgió de los comentarios sobre diferentes tipos de progreso en la informática en los últimos 50 años más o menos.
Algunos de los otros participantes me pidieron que lo planteara como una pregunta a todo el foro.
La idea básica aquí no es criticar el estado actual de las cosas, sino tratar de comprender algo sobre el progreso de proponer nuevas ideas y principios fundamentales.
Afirmo que necesitamos ideas realmente nuevas en la mayoría de las áreas de la informática, y me gustaría saber cuáles son importantes y poderosas que se hayan hecho recientemente. Si realmente no podemos encontrarlos, entonces deberíamos preguntar "¿Por qué?" y "¿Qué deberíamos estar haciendo?"
innovation
Alan Kay
fuente
fuente
Respuestas:
La Internet misma es anterior a 1980, pero la World Wide Web ("hipertexto distribuido a través de mecanismos simples") tal como lo propuso e implementó Tim Berners-Lee comenzó en 1989/90.
Si bien la idea del hipertexto había existido antes ( Nelson Xanadu había intentado implementar un esquema distribuido), la WWW era un nuevo enfoque para implementar un sistema distribuido de hipertexto. Berners-Lee combinó un protocolo simple de cliente-servidor, lenguaje de marcado y esquema de direccionamiento de una manera poderosa y fácil de implementar.
Creo que la mayoría de las innovaciones se crean para volver a combinar las piezas existentes de una manera original. Cada una de las piezas de la WWW había existido de alguna forma antes, pero la combinación era obvia solo en retrospectiva.
Y sé con certeza que lo está utilizando en este momento.
fuente
Free Software Foundation (establecida en 1985)
Incluso si no es un defensor incondicional de su filosofía, las ideas que han estado impulsando, de software libre, de código abierto, han tenido una influencia sorprendente en la industria del software y el contenido en general (por ejemplo, Wikipedia).
fuente
Creo que es justo decir que en 1980, si usabas una computadora, o te pagaban por eso o eras un geek ... entonces, ¿qué ha cambiado?
Impresoras y autoedición a nivel de consumidor . Significaba que no necesitaba una imprenta para hacer material impreso de gran volumen y alta calidad. Eso fue grande , por supuesto, hoy en día lo damos por sentado por completo, y en su mayoría ni siquiera nos molestamos con la parte de impresión porque todos están en línea de todos modos.
Color . Seriamente. Las pantallas a color marcaron una gran diferencia en la percepción de los no geeks de juegos y aplicaciones. De repente, los juegos parecían menos trabajo duro y más como mirar televisión, lo que abrió las puertas a Sega, Nintendo, Atari y otros para llevar los juegos de consumo al hogar.
Compresión de medios (MP3 y archivos de video). Y un montón de cosas, como TiVO e iPod, que ya no consideramos computadoras porque son muy ubicuas y fáciles de usar. Pero son.
El hilo conductor aquí, creo, es algo que alguna vez fue imposible (hacer documentos impresos; reproducir imágenes en color con precisión; enviar mensajes a todo el mundo en tiempo real; distribuir material de audio y video), y luego era costoso debido al equipo y la logística involucrado, y ahora es de nivel de consumidor. Entonces, ¿qué están haciendo las grandes corporaciones ahora que solía ser imposible pero que podría ser genial si podemos encontrar la manera de hacerlo pequeño y barato?
Cualquier cosa que todavía implique transporte físico es interesante de ver. La videoconferencia no ha reemplazado las reuniones reales (todavía), pero con la tecnología adecuada, aún podría hacerlo. Algunos viajes recreativos podrían eliminarse mediante un entorno inmersivo sensorial completo: el cine en casa es un ejemplo trivial; otro es el "campo de golf virtual" en un edificio de oficinas en Soho, donde juegas 18 hoyos de golf real en un campo simulado.
Sin embargo, para mí, la próxima gran cosa será la fabricación. Haciendo cosas. Cucharas, guitarras, sillas, ropa, autos, azulejos y demás. Cosas que aún dependen de una infraestructura de fabricación y distribución. Ya no tengo que ir a una tienda a comprar una película o un álbum, ¿cuánto tiempo hasta que no tenga que ir a la tienda por ropa y utensilios de cocina?
Claro, están ocurriendo desarrollos interesantes con pantallas OLED y GPS y contenedores de banda ancha móvil e IoC y secuencias de comandos y "la nube", pero todavía son formas nuevas y novedosas de poner imágenes en una pantalla. Puedo imprimir mis propias fotos y escribir mis propias páginas web, pero quiero poder fabricar una canasta de lino que encaje exactamente en ese rincón al lado de mi escritorio, y un soporte de montaje para pegar mi unidad FX de guitarra a mi escritorio, y algo por sujetar mi teléfono celular al manillar de mi bicicleta.
¿No está relacionado con la programación? No ... pero en 1980, tampoco lo fue la producción de sonido. O distribución de video. O enviando mensajes a sus familiares en Zambia. Piensa en grande, gente ... :)
fuente
Gestión de paquetes y control de revisiones distribuidas.
Estos patrones en la forma en que se desarrolla y distribuye el software son bastante recientes y todavía están comenzando a tener un impacto.
Ian Murdock ha llamado a la gestión de paquetes "el mayor avance individual que Linux ha traído a la industria". Bueno, lo haría, pero tiene un punto. La forma en que se instala el software ha cambiado significativamente desde 1980, pero la mayoría de los usuarios de computadoras aún no han experimentado este cambio.
Joel y Jeff han estado hablando sobre el control de revisión (o control de versiones, o control de fuente) con Eric Sink en el Podcast # 36 . Parece que la mayoría de los desarrolladores aún no se han puesto al día con los sistemas centralizados , y DVCS es ampliamente visto como misterioso e innecesario.
De la transcripción del Podcast 36 :
fuente
With distributed version control, the distributed part is actually not the most interesting part.
BitTorrent . Cambia por completo lo que antes parecía una regla obviamente inmutable: el tiempo que le toma a una sola persona descargar un archivo a través de Internet aumenta en proporción al número de personas que lo descargan. También aborda las fallas de las soluciones anteriores de igual a igual, particularmente en torno a las "sanguijuelas", de una manera que es orgánica para la solución misma.
BitTorrent convierte elegantemente lo que normalmente es una desventaja, muchos usuarios que intentan descargar un solo archivo simultáneamente, en una ventaja, distribuyendo el archivo geográficamente como una parte natural del proceso de descarga. Su estrategia para optimizar el uso del ancho de banda entre dos pares desalienta las sanguijuelas como un efecto secundario: es en el mejor interés de todos los participantes forzar la limitación.
Es una de esas ideas que, una vez que alguien más la inventa, parece simple, si no obvio.
fuente
La inferencia tipo Damas-Milner (a menudo llamada inferencia tipo Hindley-Milner) se publicó en 1983 y desde entonces ha sido la base de todos los sofisticados sistemas de tipo estático. Era una idea genuinamente nueva en lenguajes de programación (admitida en base a ideas publicadas en la década de 1970, pero no se hizo práctica hasta después de 1980). En términos de importancia, lo planteé con Self y las técnicas utilizadas para implementar Self; en términos de influencia no tiene igual. (El resto del mundo OO todavía está haciendo variaciones en Smalltalk o Simula).
Las variaciones en la inferencia de tipos todavía se están desarrollando; la variación que más destacaría es el mecanismo de clase de tipo de Wadler y Blott para resolver la sobrecarga, que luego se descubrió que ofrece mecanismos muy potentes para la programación a nivel de tipo. El final de esta historia aún se está escribiendo.
fuente
Aquí hay un complemento para la reducción de mapas de Google , no solo para sí mismo, sino como un proxy para el logro de Google de ejecutar servicios rápidos y confiables en la parte superior de granjas de máquinas de productos no confiables. Definitivamente un invento importante y totalmente diferente de los enfoques de mainframe de hierro grande para la computación de peso pesado que gobernó el gallinero en 1980.
fuente
Etiquetado , la forma en que se clasifica la información. Sí, los pequeños cuadros de texto debajo de cada pregunta.
Es sorprendente que tardó unos 30 años en inventar el etiquetado. Utilizamos listas y tablas de contenido; Utilizamos cosas que están optimizadas para libros impresos.
Sin embargo, 30 años es mucho más corto que el tiempo que la gente necesitaba para darse cuenta de que los libros impresos pueden estar en un formato más pequeño. La gente puede tener libros en las manos.
Creo que el concepto de etiquetado está subestimado entre los chicos principales de CS. Toda la investigación se centra en el procesamiento del lenguaje natural (enfoque de arriba hacia abajo). Pero el etiquetado es el primer idioma en que las computadoras y las personas pueden entender bien. Es un enfoque ascendente que hace que las computadoras usen lenguajes naturales.
fuente
Creo que estamos viendo esto de manera incorrecta y sacando conclusiones equivocadas. Si hago esto bien, el ciclo continúa:
Idea -> primera implementación -> adopción minoritaria -> masa crítica -> producto básico
Desde la primera idea hasta la mercancía, a menudo tiene siglos, suponiendo que la idea llegue a esa etapa. Puede que Da Vinci haya dibujado algún tipo de helicóptero en 1493, pero tardó unos 400 años en conseguir una máquina real capaz de levantarse del suelo.
Desde la primera descripción de William Bourne de un submarino en 1580 hasta la primera implementación en 1800, tiene 220 años y los submarinos actuales todavía están en una etapa de infancia: casi no sabemos nada de viajes bajo el agua (con 2/3 del planeta bajo el mar, piense en el potencial inmobiliario;).
Y no se sabe que no hubo ideas anteriores, mucho más antiguas de las que nunca habíamos oído hablar. Según algunas leyendas, parece que Alejandro Magno usó algún tipo de campana de buceo en 332 aC (que es la idea básica de un submarino: un dispositivo para transportar personas y suministro de aire debajo del mar). Contando eso, estamos viendo 2000 años desde la idea (incluso con un prototipo básico) hasta el producto.
Lo que digo es que buscar hoy implementaciones, y mucho menos productos, que ni siquiera eran ideas anteriores a 1980 es ... apuesto a que el algoritmo de "clasificación rápida" fue utilizado por algún empleado de archivos sin nombre en la antigua China. ¿Y qué?
Hubo computadoras conectadas en red hace 40 años, claro, pero eso no se compara con Internet de hoy. La idea / tecnología básica estaba allí, pero independientemente de que no pudieras jugar un juego de Warcraft en línea.
Históricamente, nunca hemos podido "encontrarlos" tan cerca de la idea, tan rápido. Creo que el ciclo se está acelerando, pero la informática aún es muy joven.
Actualmente, estoy tratando de descubrir cómo hacer un holograma (del tipo Star Wars, sin ningún tipo de soporte físico). Creo que sé cómo hacerlo funcionar. Ni siquiera he reunido las herramientas, los materiales, la financiación y, sin embargo, incluso si tuviera éxito en algún grado, la idea real ya tendría varias décadas, como mínimo, y las implementaciones / tecnologías relacionadas se han utilizado durante el mismo tiempo. .
Tan pronto como comience a enumerar productos reales, puede estar bastante seguro de que los conceptos y las primeras implementaciones existieron hace un tiempo. No importa
Podría argumentar con alguna razón que nada es nuevo, nunca, o que todo es nuevo, siempre. Esa es la filosofía y ambos puntos de vista se pueden defender.
Desde un punto de vista práctico, la verdad se encuentra en algún punto intermedio. La verdad no es un concepto binario, maldita sea la lógica booleana.
Los chinos pueden haber ideado la imprenta hace un tiempo, pero solo han pasado unos 10 años que la mayoría de las personas pueden imprimir fotos en color decentes en casa por un precio razonable.
La invención no está en ninguna parte ni en todas partes, según sus criterios y marco de referencia.
fuente
Algoritmo de Page Rank de Google . Si bien podría verse como solo un refinamiento de los motores de búsqueda que rastrean la web, quisiera señalar que también fueron desarrollados después de 1980.
fuente
DNS, 1983, y avances dependientes como la resolución de host de correo electrónico a través de registros MX en lugar de bang-path *estremecimiento*
Zeroconf funciona sobre DNS, 2000. Conecto mi impresora a la red y mi computadora portátil lo ve. Comienzo un servidor web en la red y mi navegador lo ve. (Suponiendo que transmitan su disponibilidad).
NTP (1985) basado en el algoritmo de Marzullo (1984). Tiempo preciso sobre redes nerviosas.
La rueda de desplazamiento del ratón, 1995. Usar ratones sin él se siente tan primitivo. Y no, no es algo que el equipo de Engelbart pensó y olvidó mencionar. Al menos no cuando le pregunté a alguien que estaba en el equipo en ese momento. (Fue en algún evento de Engelbart en 1998 más o menos. Pude manejar uno de los primeros ratones).
Unicode, 1987, y sus avances dependientes para diferentes tipos de codificación, normalización, texto bidireccional, etc.
Sí, es bastante común que las personas usen los 5 de estos todos los días.
¿Son estas "ideas realmente nuevas"? Después de todo, había ratones, había codificaciones de caracteres, había un cronometraje de la red. Dígame cómo puedo distinguir entre "nuevo" y "realmente nuevo" y responderé esa pregunta por usted. Mi intuición dice que estos son lo suficientemente nuevos.
En dominios más pequeños hay avances más recientes fácilmente. En bioinformática, por ejemplo, Smith-Waterman (1981) y más especialmente BLAST (1990) efectivamente hacen posible el campo. Pero parece que está pidiendo ideas que son muy amplias en todo el campo de la informática, y la fruta de bajo perfil se recoge primero. Así es siempre con un nuevo campo.
fuente
¿Qué pasa con las cámaras digitales?
Según Wikipedia, la primera cámara digital verdadera apareció en 1988, y las cámaras digitales del mercado masivo se hicieron asequibles a fines de la década de 1990.
fuente
Lenguajes de sombreado modernos y la prevalencia de las GPU modernas.
La GPU también es una supercomputadora paralela de bajo costo con herramientas como CUDA y OpenCL para un código paralelo rápido de alto nivel . Gracias a todos los jugadores que están bajando los precios de estas maravillas de hardware cada vez más impresionantes. En los próximos cinco años, espero que cada computadora nueva vendida (y los iPhones también) tengan la capacidad de ejecutar código masivamente paralelo como una suposición básica, muy similar al color de 24 bits o al modo protegido de 32 bits.
fuente
La compilación JIT se inventó a fines de la década de 1980.
fuente
Para abordar las dos preguntas sobre "¿Por qué la muerte de nuevas ideas" y "qué hacer al respecto"?
Sospecho que gran parte de la falta de progreso se debe a la afluencia masiva de capital y la riqueza arraigada en la industria. Suena contradictorio, pero creo que se ha convertido en una sabiduría convencional que cualquier idea nueva tiene una oportunidad; Si no lo logra al primer intento, no puede volver. Lo compra alguien con intereses arraigados, o simplemente FALLOS, y la energía se va. Un par de ejemplos son las tabletas y el software de oficina integrado. Newton y varios otros tenían un potencial real, pero terminaron (por desgaste competitivo y mal juicio) despilfarrando sus derechos de nacimiento, matando categorías enteras. (Me gustaba especialmente el Marco de Ashton Tate; pero todavía estoy atascado con Word y Excel).
¿Qué hacer? Lo primero que viene a la mente es Wm. El consejo de Shakespeare: "matemos a todos los abogados". Pero ahora están demasiado bien armados, me temo. De hecho, creo que la mejor alternativa es encontrar una iniciativa de código abierto de algún tipo. Parecen mantener la accesibilidad y la mejora incremental mejor que las alternativas. Pero la industria se ha vuelto lo suficientemente grande como para que sea necesario algún tipo de mecanismo de colaboración orgánica para obtener tracción.
También creo que hay una dinámica que dice que los intereses arraigados (especialmente las plataformas) requieren una cantidad sustancial de cambio (abandono) para justificar las continuas fuentes de ingresos; y esto absorbe mucha energía creativa que podría haberse gastado de mejor manera. Mire cuánto tiempo pasamos pisando agua con la última versión de Microsoft o Sun o Linux o Firefox, haciendo cambios en los sistemas que en su mayor parte ya funcionan bien. No es porque sean malvados, solo está integrado en la industria. No existe el equilibrio estable; Todos los mecanismos de retroalimentación son positivos, favoreciendo el cambio sobre la estabilidad. (¿Alguna vez vio una función retirada o un cambio retraído?)
La otra pista que se ha discutido sobre SO es el Síndrome de Skunkworks (ref: Geoffrey Moore): la innovación real en grandes organizaciones casi siempre (90% +) aparece en proyectos no autorizados que surgen espontáneamente, impulsados exclusivamente por iniciativas individuales o de grupos pequeños ( y la mayoría de las veces se oponen las jerarquías formales de gestión). Entonces: Pregunta Autoridad, Buck the System.
fuente
Una cosa que me sorprende es la humilde hoja de cálculo. Las personas que no son programadores crean soluciones salvajes y maravillosas para problemas del mundo real con una simple cuadrícula de fórmulas. La replicación de sus esfuerzos en la aplicación de escritorio a menudo lleva de 10 a 100 veces más de lo que tomó escribir la hoja de cálculo y la aplicación resultante es a menudo más difícil de usar y está llena de errores.
Creo que la clave del éxito de la hoja de cálculo es el análisis de dependencia automático. Si el usuario de la hoja de cálculo se viera obligado a usar el patrón de observación, no tendría ninguna posibilidad de hacerlo bien.
Entonces, el gran avance es el análisis de dependencia automático. Ahora, ¿por qué ninguna plataforma moderna (Java, .Net, Servicios web) ha incorporado esto en el núcleo del sistema? Especialmente en un día y una época de escalado a través de la paralelización: un gráfico de dependencias conduce a la recalculación paralela trivialmente.
Editar: Dang, solo comprobado. VisiCalc se lanzó en 1979, supongamos que es una invención posterior a 1980.
Edit2: Parece que Alan ya anotó la hoja de cálculo, ¡si la pregunta que lo compró a este foro es correcta!
fuente
Software:
Virtualización y emulación.
Transferencias de datos P2P
proyectos impulsados por la comunidad como Wikipedia, SETI @ home ...
rastreo web y motores de búsqueda web, es decir, indexar información que se extiende por todo el mundo
Hardware:
la PC modular
Papel electrónico
fuente
El redescubrimiento de la mónada por los investigadores de programación funcional. La mónada fue instrumental al permitir que un lenguaje puro y vago (Haskell) se convirtiera en una herramienta práctica; También ha influido en el diseño de las bibliotecas de combinador (los combinadores de analizadores monádicos incluso han llegado a Python).
"Una descripción teórica de categoría de los módulos de programa" de Moggi (1989) se atribuye generalmente a la presentación de mónadas para un cómputo efectivo; El trabajo de Wadler (por ejemplo, "Programación funcional imperativa" (1993)) presentó a las mónadas como una herramienta práctica.
fuente
Software Shrinkwrap
Antes de 1980, el software estaba principalmente escrito especialmente. Si dirigía un negocio y quería informatizar, normalmente obtendría una computadora, un compilador y una base de datos, y escribiría sus propias cosas. El software empresarial generalmente se escribió para adaptarse a las prácticas comerciales. Esto no quiere decir que no había software enlatado (trabajé con SPSS antes de 1980), pero no era la norma, y lo que vi tendía a ser infraestructura y software de investigación.
Hoy en día, puede ir a una tienda de computadoras y encontrar, en el estante, todo lo que necesita para administrar una pequeña empresa. No está diseñado para adaptarse sin problemas a las prácticas que solía tener, pero funcionará bien una vez que aprenda a trabajar más o menos de acuerdo con su flujo de trabajo. Las grandes empresas están mucho más cerca de la envoltura retráctil de lo que solían estar, con cosas como SAP y PeopleSoft.
No es un descanso limpio, pero después de 1980 hubo un cambio definitivo de software personalizado costoso a software comercial de bajo costo, y la flexibilidad cambió de software a procedimientos comerciales.
También afectó la economía del software. Las soluciones de software personalizadas pueden ser rentables, pero no escalan. Solo puede cobrar tanto a un cliente, y no puede vender lo mismo a varios clientes. Con el software retráctil, puede vender lotes y lotes de lo mismo, amortizando los costos de desarrollo en una base de ventas muy grande. (Debe proporcionar soporte, pero eso se escala. Solo considérelo como un costo marginal de vender el software).
Teóricamente, donde hay grandes ganadores de un cambio, habrá perdedores. Hasta ahora, el negocio del software ha seguido expandiéndose, de modo que a medida que las áreas se convierten en productos básicos, se abren otras áreas. Es probable que esto llegue a su fin en algún momento, y los desarrolladores moderadamente talentosos se encontrarán en una crisis real, incapaces de trabajar para los grandes y desplazados del mercado. (Esto presumiblemente ocurre para otros campos; sospecho que la demanda de contadores es mucho menor de lo que sería sin QuickBooks y similares).
fuente
Fuera de las innovaciones de hardware, tiendo a encontrar que hay poco o nada nuevo bajo el sol. La mayoría de las grandes ideas se remontan a personas como von Neumann y Alan Turing.
En la actualidad, muchas cosas que se etiquetan como 'tecnología' son solo un programa o biblioteca que alguien escribió, o un recauchutado de una vieja idea con una nueva metáfora, acrónimo o nombre de marca.
fuente
Los gusanos informáticos fueron investigados a principios de los años ochenta del siglo pasado en el Centro de Investigación Xerox Palo Alto.
De los programas "El gusano" de John Shoch y Jon Hupp - Experiencia temprana con una computación distribuida "(Comunicaciones de la ACM, marzo de 1982, Volumen 25, número 3, pp.172-180, marzo de 1982):
Citando a Alan Kay: "La mejor manera de predecir el futuro es inventarlo".
fuente
Mejores interfaces de usuario.
Las interfaces de usuario de hoy todavía apestan. Y no me refiero en pequeñas formas sino en grandes y fundamentales. No puedo evitar notar que incluso los mejores programas todavía tienen interfaces que son extremadamente complejas o que requieren mucho pensamiento abstracto de otras maneras, y que simplemente no se acercan a la facilidad de las herramientas convencionales que no son de software.
De acuerdo, esto se debe al hecho de que el software permite hacer mucho más que las herramientas convencionales. Sin embargo, esa no es razón para aceptar el status quo. Además, la mayoría del software simplemente no está bien hecho.
En general, las aplicaciones aún carecen de un cierto sentimiento de "simplemente funciona", están demasiado orientadas por lo que se puede hacer, en lugar de lo que se debe hacer. Un punto que se ha planteado una y otra vez, y que aún no se ha resuelto, es el punto de guardar. Las aplicaciones se bloquean, destruyendo horas de trabajo. Tengo la costumbre de presionar Ctrl + S cada pocos segundos (por supuesto, esto ya no funciona en aplicaciones web). ¿Por qué tengo que hacer esto? Es tremendamente estúpido. Esta es claramente una tarea de automatización. Por supuesto, la aplicación también tiene que guardar un diff para cada modificación que realice (básicamente una lista de deshacer infinita) en caso de que cometa un error.
Resolver este probem ni siquiera es realmente difícil. Sería difícil implementarlo en todas las aplicaciones, ya que no hay una buena API para hacerlo. Las herramientas de programación y las bibliotecas tienen que mejorar significativamente antes de permitir una implementación sin esfuerzo de tales esfuerzos en todas las plataformas y programas, para todos los formatos de archivo con almacenamiento de respaldo arbitrario y sin la interacción requerida del usuario. Pero es un paso necesario antes de que finalmente comencemos a escribir aplicaciones "buenas" en lugar de simplemente aplicaciones adecuadas.
Creo que Apple actualmente se aproxima a la sensación de "simplemente funciona" en algunos aspectos. Tomemos, por ejemplo, su versión más reciente de iPhoto, que presenta un reconocimiento facial que agrupa automáticamente las fotos de las personas que aparecen en ellas. Esa es una tarea clásica que el usuario no quiere hacer manualmente y no entiende por qué la computadora no lo hace automáticamente. E incluso iPhoto todavía está muy lejos de una buena interfaz de usuario, ya que dicha función aún requiere la confirmación final del usuario (¡para cada foto!), Ya que el motor de reconocimiento facial no es perfecto.
fuente
Sistemas HTM ( memoria temporal jerárquica ).
Un nuevo enfoque de la Inteligencia Artificial, iniciado por Jeff Hawkins a través del libro " Sobre Inteligencia ".
Ahora activa como una compañía llamada Numenta, donde estas ideas se ponen a prueba a través del desarrollo de IA "verdadera", con una invitación a la comunidad a participar mediante el uso del sistema a través de SDK.
Se trata más de construir inteligencia de máquina desde cero, en lugar de tratar de emular el razonamiento humano.
fuente
El uso de la física en la interacción computadora humana para proporcionar una metáfora alternativa y comprensible. Esto, combinado con gestos y hápticos, probablemente resultará en un reemplazo de la metáfora de la GUI común actual inventada en los años 70 y de uso común desde mediados hasta finales de los 80.
La potencia informática no estaba presente en 1980 para hacer eso posible. Creo que los juegos probablemente lideraron el camino aquí. Un ejemplo se puede ver fácilmente en la interacción del desplazamiento de la lista en el iPod Touch / iPhone. El mecanismo de interacción se basa en la intuición de cómo funcionan el impulso y la fricción en el mundo real para proporcionar una manera simple de desplazar una lista de elementos, y la usabilidad se basa en el gesto físico que causa el desplazamiento.
fuente
Creo que Unit Testing, TDD e Continuous Integration son inventos importantes después de 1980.
fuente
Teléfonos móviles.
Mientras que la primera patente de "teléfono inalámbrico" fue en 1908, y estuvieron cocinando durante mucho tiempo (0G en 1945, 1G lanzado en Japón en 1979), los teléfonos celulares digitales 2G modernos no aparecieron hasta 1991. Los SMS no existían hasta 1993, y el acceso a Internet apareció en 1999.
fuente
Comencé a programar el 2 de enero de 1980. He tratado de pensar en nuevos inventos significativos a lo largo de mi carrera. Me cuesta pensar en alguna. La mayor parte de lo que considero significativo se inventó en realidad antes de 1980, pero luego no fue ampliamente adoptado o mejorado hasta después.
Si bien el hardware ha mejorado enormemente, la industria del software ha luchado por mantenerse al día. Estamos a años luz de 1980, pero la mayoría de las mejoras han sido refinamientos en lugar de inventos. Desde 1980, hemos estado demasiado ocupados aplicando lo que los avances nos permiten hacer en lugar de inventar. Por sí solos, la mayoría de estos inventos incrementales no son importantes ni poderosos, pero cuando miras hacia atrás en los últimos 29 años, son bastante poderosos.
Probablemente necesitemos aceptar las mejoras incrementales y dirigirlas. Creo que las ideas realmente originales probablemente vendrán de personas con poca exposición a las computadoras y cada vez son más difíciles de encontrar.
fuente
Nada.
Creo que es porque la gente ha cambiado sus actitudes. La gente solía creer que si solo encontraban esa "gran idea", entonces se harían ricos. Hoy, la gente cree que es la ejecución y no el descubrimiento lo que más paga. Tienes mantras como "las ideas son una moneda de diez centavos por docena" y "el segundo ratón recibe el queso". Por lo tanto, las personas se centran en explotar las ideas existentes en lugar de idear otras nuevas.
fuente
Desarrollo comunitario de código abierto.
fuente
El iPad (lanzado en abril de 2010): ¡seguramente este concepto es absolutamente revolucionario!
texto alternativo http://www.ubergizmo.com/photos/2010/1/apple-ipad//apple-ipad-05.JPG
¡De ninguna manera Alan Kay vio eso desde los años 70!
Imagine un "manipulador de información personal y portátil" ...
...
¿Espere? ¿¡Qué!? ¿El Dynabook que dices?
¿Pensado por Alan Kay ya en 1968, y descrito con gran detalle en este artículo de 1972 ?
NOOOooo ooooo ....
Oh bien, ya no importa.
fuente