Capítulo 1: Breve historia digital

Capítulo 1: Breve historia digital

Es cosa de sentarse y aprovecharla. Porque la tecnología lleva tiempo viva, aunque no tan disponible como quisiéramos. Este es un viaje de regreso al presente, de lo que alguna vez fue ciencia ficción y hoy llamamos realidad. El futuro es hoy, y está aquí. Esto es Cerebro de Silicio, la Inteligencia Artificial hoy en tus manos.

Capítulo 1: Breve historia digital

¿De dónde venimos?

Colosus y ENIAC -Electronic Numerical Integrator and Computer, fueron las primeras computadoras digitales programables multiprósito, construidas durante la segunda guerra mundial. La primera en Inglaterra, la segunda en Estados Unidos, indica Británica. Bell Laboratories crea la primera red de computadoras entre 1940 y 1946. Para 1956, ya le habían encontrado un propósito bélico a las computadoras. la SAGE -Semi-Automatic Ground Environment- fue diseñada para ayudar a la fuerza área a rastrear información de radar en tiempo real, indica Time Magazine. El bebé pesaba 300 toneladas. En 1960, NEC -Nippon Electronic Company- crea una para negocios, ingeniería y ciencia (y hoy nos preguntamos porque Japón está a años luz de nosotros). Es difícil definir cuándo comienza la Revolución Digital. En realidad muchos esfuerzos, pequeños y grandes, son los que crean una revolución, no necesariamente uno sólo. Tal vez pensar en la aportación de Gottfried Leibniz en 1689 publicada en Explication de l'Arithmétique Binaire (Explicación de la aritmética binaria), pudiera ser el detonante inicial. Aquí, Leibniz explica el uso del sistema binario o base 2 utilizando solamente “ceros” y “unos”.

http://content.time.com/time/photogallery/0,29307,1956593_2029015,00.html

https://www.britannica.com/technology/computer/The-Turing-machine

En 1958 en México, indica el CINVESTAV, se inaugura el CCE -el Centro de Cálculo Electrónico de la UNAM, ubicado en el sótano de la antigua Facultad de Ciencias con una computadora IBM-650 de bulbos, rentada a la compañía por $25,000 pesos mensuales. Efectuaba 1,300 operaciones de suma y resta por segundo y funcionaba con lectora y perforadora de tarjetas.

https://www.cs.cinvestav.mx/SemanaComputoCINVESTAV/Computo.html

A inicios de los 70’s comienza un desarrollo tecnológico importante: la inclusión en la banca de las primeras computadoras y archivos guardados en cintas para eliminar las aún comunes cartulinas firmadas de los clientes, y para finales de la misma década se instala el primer sistema online. Éste lograba un registro en el momento en que se daba la operación. A principios de los 80’s se había implementado un sistema capaz de transmitir directo entre un banco central y las sucursales, indica Fortune.

https://www.forbes.com.mx/brand-voice/historia-banca-perfeccionamiento-las-sucursales-desde-siglo-xix-al-xxi/

Sin embargo la computación sucedía en laboratorios, universidades, bancos, procesos gubernamentales hasta que, se volvió accesible… digamos, una especie de “electrodoméstico casero”. Yo pertenezco a la afortunada generación que vivió ese cambio.

De niño marque un teléfono de ruedita. Me sabía de memoria, los números telefónicos de mi casa, de la oficina de mi papá, de mis tías y de mis amigos. Las tareas tenían que entregarse en máquina de escribir, en una cosa que se llamaba “papel martillado”. Mis papás me regalaron un reloj con una funcionalidad extraña: “Data Bank”. Era tan avanzado que te permitía guardar 30 números telefónicos. ¡WOW! Era una base de datos completa.

Apple IIe

Apple IIe

Mi primera computadora fue una Apple IIe, el mítico diseño de Wozniak y la mercadotecnia infalible de Jobs. La dominé de punta a punta. Al terminar el día, había que dejarla enfriar porque se calentaba de tanto uso. Preocupados porque se fuera a quemar, compramos un pequeño ventilador especial. Años más tarde, compré una IBM con mi primer modem. ¿Comunicar dos computadoras por teléfono? ¡Era una locura! 

Estudié ingeniería electrónica y telecomunicaciones y trabajé en la transición del mundo analógico al mundo digital: en la transmisión de datos, primero por cables y luego por fibra óptica, cuando los volúmenes de información fueron creciendo y creciendo. Más datos, más ancho de banda, más ancho de banda más cables, más cables que se convirtieron en fibra óptica. 

Gordon E. Moore y Robert Noyce fundaron Intel 1968, pero eso no es lo más relevante de su vida, -bueno, si a nivel ingresos, fortuna y capitalización. Moore es el autor de la Leyenda más importante de la tecnología. El 19 de abril de 1965, observó que el número de transistores por pulgada cuadrada de un microprocesador se duplicará cada año, durante más de 50 años, así ha sido.   

https://www.investopedia.com/terms/m/mooreslaw.asp 

Para el año 2020, tendremos procesadores de 7 nanómetros, el tamaño mínimo alcanzable. “Estamos cerca de los límites físicos y químicos posibles”. 

http://www.expansion.com/economia-digital/innovacion/2017/07/05/5953a11c268e3e1d718b4873.html 

Esa era la época de los datos desechables. Sí, escuchaste bien. Dije datos desechables. Los datos se generaban, se transmisión, se usaban y se desechaban. Se iban directo al drenaje -un drenaje digital-. El almacenamiento era caro, a demás de que no tenía mucho sentido guardarlos, sí a caso, por un periodo corto para conciliaciones o validaciones, pero no habría necesidad de hacer mayor análisis o consulta.

La cantidad de datos creció. La capacidad de procesamiento se multiplicó exponencialmente y la tecnología de guardado en cinta se hizo más importante. Robots que intercambiaban cintas y cassettes con información aparecieron y llenaron centros de datos. Almacenes de “ceros” y “unos”. Por supuesto las cintas se transformaron en discos magnéticos gigantes.

Los más visionarios, fueron tras los datos. Los procesaron. Primero una muestra, luego todos los datos. Los sistemas se volvieron más inteligentes y rápidos. Ahora era posible procesar toda la información disponible. ¡Y cuándo digo toda me refiero a toda! Lograron identificar tendencias, encontrar patrones, predecir comportamientos y definir estrategias de negocios -o hallazgos científicos nunca antes vistos como el análisis del genoma humano. Tirar datos, era una locura. Se convirtieron en un activo de la empresa y pronto se comenzó a almacenar más y más y más información. Los almacenes se convirtieron en bunquers completos… interminables. El Data se convirtió en Big Data. Software sofisticado de modelado invadió las computadoras. Primero controlado por científicos en los computadoras centrales. Después, por científicos de datos en computadoras personales. Hoy, cualquiera es capaz de hacer un análisis en su computadora de negocio, incluso, crear modelos de inteligencia artificial para sustituir la "obsoleta experiencia” o el denominado “olfato” por modelos inteligentes capaces de contemplar años o décadas de información. Hoy, todos colaboramos para desarrollar inteligencia en los negocios en donde sea, cuando sea, donde sea. La nube se comió al big data y lo puso a disposición del usuario.

¿Cuándo comenzó todo? No sé si los pictogramas y las pinturas rupestres de Altamira eran más bien sistemas sofisticados de inventarios de bisontes que hoy ya no existen. Tal vez fue el primer búnquer de datos. La denominada Capilla Sixtina del Paleolítico fue, tal vez, el primer paso a la revolución digital.

https://elpais.com/cultura/2018/09/24/actualidad/1537769625_914876.html

 Referencias Adicionales:

Crecimiento del mercado del Big Data según forbes https://www.forbes.com/sites/louiscolumbus/2018/05/23/10-charts-that-will-change-your-perspective-of-big-datas-growth/#684da7912926 

https://www.mckinsey.com/~/media/McKinsey/Business%20Functions/McKinsey%20Analytics/Our%20Insights/Analytics%20comes%20of%20age/Analytics-comes-of-age.ashx 

https://datafloq.com/read/where-moores-law-is-headed-with-big-data/4536

Moore’s Law, Wikipedia

Moore’s Law, Wikipedia

Capítulo 2: It's all about [ANALYTICS] business

Capítulo 2: It's all about [ANALYTICS] business

Introducción

Introducción