Pasado y presente del cómputo científico

Dra. Suemi Rodríguez Romo y Dr. Ricardo Paramont Hernández García –
Facultad de Estudios Superiores Cuautitlán UNAM
Desde la Antigüedad, los seres humanos se percataron de la importancia de realizar cálculos para resolver determinados problemas que requerían de una secuencia de estos para ser resueltos, y muchas veces esas secuencias variaban según el caso. Por ejemplo, determinar el porcentaje de una herencia para el hijo primogénito en que ésta fuera mayor que para el hijo más joven. Aquí se pueden identificar dos problemas: la realización de las operaciones aritméticas de suma, resta, multiplicación y división, y la secuencia en la que se debían aplicar las operaciones.
Pasos iniciales
Los primeros ingenios para hacer de manera mecánica las operaciones de suma y resta (Schickard y Pascal), y las de multiplicación y división mediante sumas y restas sucesivas (Leibniz), fueron creados en el siglo XVII. Fue hasta finales del siglo XIX que se construyó una máquina para realizar directamente la operación de multiplicación (Bollée) y hasta principios del siglo XX, otra que hacía la multiplicación y la división de manera directa (Monroe).
En el siglo XIX, Charles Babagge diseñó una máquina que no acabó nunca de construir; el aparato se basaba en tecnología mecánica, usaba mecanismos de relojería y telares franceses. Este ingenio mecánico era digital y estaba diseñado para usar números de base diez.
A principios del siglo XX, Leonardo Torres y Que-vedo fue el primero en notar que la máquina diseñada por Babagge podía ser desarrollada con componentes electromecánicos. Más avanzado el siglo XX, se demostraría que la electromecánica era la siguiente tecnología que haría avanzar la construcción de los autómatas de cálculo. Un par de años antes del inicio de la Segunda Guerra Mundial, George Stibitz, quien trabajaba para los Laboratorios Bell, inició la elaboración de calculadores, usando tecnología electromecánica. Trabajaban con números binarios para números complejos.
Tiempos modernos
En 1944, como resultado de cinco años de colaboración entre la empresa IBM (Clair D. Lake) y la Universidad de Harvard (Howard Aiken), se construyó el Calculador Automático de Secuencia Controlada (ASCC) o MARK I.
La siguiente etapa en el desarrollo de las máquinas de cálculo se dio en la Escuela Moore, de la Universidad de Pensilvania, por encargo del Laboratorio de Investigación en Balística, donde se diseñó una máquina de cálculo por Eckert, Mauchly y Goldstine, quienes trabajaban para esta escuela. Se trataba de la computadora electrónica llamada Integrador Numérico Electrónico y Computadora (ENIAC). La memoria principal y los dispositivos de cálculo eran circuitos electrónicos. Esta máquina trabajaba con números digitales base diez. La coordinación del funcionamiento de sus componentes se diseñó para que operara con un reloj. Fue entregada en 1946.
Fue en la compañía IBM donde se construyó la máquina que almacenaría sus programas en la memoria principal, de la misma forma que se apilaban los datos; se trataba del IBM Calculador Electrónico Seleccionador de Secuencias Con-troladas (IBM SSEC). Este dispositivo ya tenía las principales bases de la arquitectura de las computadoras modernas. El encargado de su desarrollo fue Frank Hamilton, que en 1948 concluyó su construcción.
Desde finales de la década de los años cuarenta del siglo XX, quienes podían programar las computadoras eran los expertos que conocían su arquitectura y su lenguaje de máquina exclusivamente.
A mediados de la década de los sesenta, Gordon Moore, un experto en la elaboración de los circuitos integrados para computadoras, publicaba una predicción: el número de componentes que se colocaría en uno de estos circuitos se duplicaría cada año. Esto resultó cierto hasta 1975. Para los siguientes 10 años predijo que la duplicación de los componentes ocurriría cada dos años; después de medio siglo, esa predicción sigue vigente. Esto nos habla de los vertiginosos avances en la miniaturización de componentes. Acompañando a esa miniaturización, viene un aumento en su desempeño, de manera que operan también más rápidamente.
Con el advenimiento de los lenguajes de alto nivel, la programación se democratizó. En 1981 salió a la venta al público la primera computadora personal de IBM profundizando la ampliación del cómputo. A partir de entonces, la interacción de las personas con las computadoras fue directa.
Usos
En la relación de la computadora y el individuo se proponen modelos de lo que nos interesa y se simula lo que pasaría con estos modelos en distintas circunstancias. Más aún, el hecho de tener una gran cantidad de información que aparentemente no es útil, también genera la necesidad de usar la ciencia e ingeniería de lo computable. Algunos ejemplos sencillos de entender son los siguientes.
No podemos hacer experimentos con el ciclo de vida de las galaxias o de las estrellas, pero sí podemos proponer un modelo y simular lo que arrojaría como datos para compararlo con la realidad. También podemos obtener datos de observaciones y tendríamos una base de datos muy amplia que, sin la necesidad de modelo alguno, nos pueda proporcionar información directa del fenómeno en cuestión. Exactamente lo mismo ocurre con los fenómenos climáticos, comportamiento de bolsas de valores y efectos económicos, entre otras aplicaciones. En otras ocasiones el problema al que nos enfrentamos es de seguridad, como es el caso de las plantas nucleares, estabilidad de grandes construcciones, diseño de carros, aviones, materiales y moléculas con actividad biomédica, entre otros.
El cómputo científico es un pilar transdisciplinario indispensable de (casi) todas las investigaciones científicas y el desarrollo tecnológico en las universidades, instituciones gubernamentales y el sector privado.
Un equipo de investigación moderno debe incluir a varias personas expertas en diversos campos como las matemáticas, las ciencias, estadística, ingeniería y con conocimientos en ciencia e ingeniería de la computación en campos como la visualización, los paradigmas de la programación, la ciencia de datos y el cómputo de alto rendimiento, entre otras áreas. Estos equipos serán capaces de resolver problemas fundamentales de la ciencia, la ingeniería, la tecnología, ciencias sociales y humanidades gracias a numerosas herramientas computacionales; el reconocimiento de patrones, los fundamentos de los algoritmos, la inteligencia artificial y el aprendizaje supervisado o no supervisado, entre otras.
Algunas ciencias, como la Quími-ca, podrían sufrir cambios drásticos. ¿Quieres sintetizar una molécula en particular para alguna explicación específica? Como diría Pablo Carbonell, de la Universidad de Manchester, en Inglaterra, usa tu nuevo asistente de laboratorio: la inteligencia artificial. Para eso el equipo de Marwin Segler, de la Universidad de Münster, en Alemania, ya usó exitosamente redes neuronales para evitar la retrosíntesis, el procedimiento normalmente usado y que se caracteriza por ser muy lento. No en vano el presidente francés Emmanuel Macron está dispuesto a invertir 1,500 millones de euros en el área de inteligencia artificial en su país.
Cuando los estudiantes, aun los de doctorado, tienen tiempo libre, pueden descubrir cosas interesantes. Alberto Martín-Martín, estudiante de bibliometría y ciencias de la comunicación de la Universidad de Granada, dedicó su verano a obtener artículos gratis del motor de búsqueda de Google Scholar, burlando su sistema de verificación para detectar humanos ‘CAPTCHAs’ cientos de veces, acción nada fácil; su éxito fue rotundo.
La ciencia e ingeniería de la computación no tienen un carácter ético intrínseco. Es quien las usa el que asume esta condición. Muchas voces claman con alarma sobre el destino, en nuestra opinión ineludible, de la humanidad en un contexto pleno de avances en cómputo. La respuesta es simple: será el que la humanidad misma decida. Esto debido a las inquietudes éticas derivadas de lo hecho por Martín-Martín, Cambridge Analytica o Facebook, y lo poco que nosotros sabemos del manejo que se da a nuestros datos ya que estos ejemplos solamente son la punta del iceberg.
México y la UNAM
Se preguntarán el estado de la investigación e innovación en cómputo en México, y aun cuando abordamos varios temas mencionados, necesitamos avanzar mucho y más rápido solamente para estar a la altura de lo que se hace ahora en el resto del mundo.
En cuanto a lo que hacemos en la UNAM, seguimos siendo uno de los principales actores a 60 años del cómputo en nuestra alma mater, como lo evidencia nuestra historia. Sin embargo, y debido a que se necesita la formación de grupos transdisciplinarios para lograr avances significativos, nuestra estructura académico-administrativa no ha ayudado mucho.
Ante este panorama, el rector Enrique Graue Wiechers creó el Centro Virtual de Computación (CViCom) (https://cvicom.unam.mx/), el 25 de febrero de 2017, que organiza su primer coloquio del 8 al 10 de agosto del año en curso, donde conoceremos y debatiremos sobre las distintas líneas de investigación abordadas por nuestra comunidad actualmente.



