Cielo y tierra se dan la mano en la capilla de la Torre Girona, en el Campus Norte de la Universidad Politécnica de Barcelona. En esa ubicación apartada, agradable y singular se localiza una de las supercomputadoras más avanzadas y potentes del mundo con la que se intenta encontrar respuestas a muchas de las grandes cuestiones de nuestro tiempo.
Si antes se miraba al cielo para buscar soluciones, ahora se gira la vista a la pantalla de los ordenadores y superestructuras de procesadores, chips, discos duros y kilómetros de cables para que la Ciencia y la Tecnología nos ilumunen de verdad. La comparación entre el MareNostrum, el gran superordenador ubicado en la capital catalana, y los dioses de tiempos pasados, la encontramos en una crónica de la periodista Olga Merino en El Periódico de febrero de 2014, cuando escribió: “Parece un matrimonio contranatural, pero tal vez no lo sea tanto: desde los orígenes de la Humanidad, el hombre va buscando porqués para poner orden en el caos. Y si en el invierno de los tiempos buscó respuestas en los cielos, ahora, en el siglo XXI, trata de obtenerlas a través de la tecnología”.
El MareNostrum –supercomputadora, entendida como la conexión de cientos o miles de procesadores y discos duros (además, de tareas de programación) para la ejecución de complejas operaciones y el dispositivo más llamativo del Barcelona Supercomputing Center– va ya por su enésima versión (la primera versión de esta superestructura computacional se puso en funcionamiento en 2004 y la segunda en 2006, aunque el proyecto -bajo otro nombre, Centro de Paralelismo de Barcelona, CEPBA- empezó a gestarse en los años noventa, coincidiendo con el desarrollo a nivel internacional de esta tecnología). El superordenador actual (2016), el más potente de España y uno de los más avanzados de Europa, lo conforman casi 50.000 procesadores (48.896), conectados por casi 100 kilómetros de cable de alta velocidad, con capacidad para realizar 1.100 billones de operaciones por segundo (1,1 Petaflops), desarrollado por IBM y con sistema operativo de Linux.
Si inicialmente se preveía, según destaca la responsable de comunicación, Gemma Ribas, que en este centro trabajaran unas 50 personas, por entonces esa cifra se había disparado –dando muestra de su éxito- hasta 450 (400 de ellas, como investigadores). Y si el objetivo era que en un origen el grueso de la actividad se dedicara a servicios, en la práctica el mayor volumen se ha destinado a investigación. En estos más de diez años de trabajo desde su apertura (el décimo aniversario se celebró en abril de 2014), en el Barcelona Supercomputing Center han desarrollado o participado en cerca de 3.000 proyectos -en algunos casos, muy destacados, que han salido en las primeras páginas de grandes medios y publicaciones especializadas y de gran prestigio-. Su trabajo se ha estructurado, básicamente, en cuatro grandes áreas: Ciencias de la Computación (la que emplea a más personal), Ciencias de la Tierra, Ciencias de la Vida, y Aplicaciones Computacionales para la Ciencia y la Ingeniería.
La primera es la que sirve a las otras tres áreas, ya que su objetivo principal de investigación se centra precisamente en cómo construir y programar superordenadores. En la segunda encontramos poyectos desarrollados en esta década larga de trabajo bastante populares en este tiempo. Han elaborado simulaciones para anticipar níveles de contaminación en determinadas ciudades –entre las que se encuentra la propia Barcelona- o proyectos todavía más complejos y ambicioses como simular los efectos sobre el cambio climático de aquí a finales de siglo si los niveles de gases de efecto invernadero crecen o, por el contrario, se reducen. En el área de Ciencias de la Vida han sido noticia por avances efectuados en los campos de la medicina y farmacología personalizada, dos ámbitos que el propio director del centro, el catedrático Mateo Valero, sitúa como “uno de los grandes retos de futuro en este campo”.
En este sentido, el Barcelona Supercomputing Center alberga una copia del Archivo Europeo del Genoma y el Fenoma Humano y participa en numerosos proyectos basados en la genómica, algunos de los cuales han supuesto avances en la comprensión de determinados cánceres y en el tratamiento de enfermedades complejas, a partir de la gestión de ingentes cantidades de datos.
Para hacerse una idea sólo la secuenciación de la cadena de ADN de una persona genera 120.000 millones de letras (distribuidas en piezas de 100) o, lo que es lo mismo, 120 Gbytes de datos. Estos datos tienen que compararse con los de muchos otros pacientes para detectar qué variaciones comparten y poder, de esta forma y a partir de estos datos, extraer informaciones de utilidad.
En el terreno de las Aplicaciones Computacionales a la Ingeniería y la Ciencia han colaborado, entre otros, con empresas como Repsol o Iberdrola. Con la primera, para anticipar escenarios complicados de extracción de hidrocarburos, como puede ser en el Golfo de México debido a su gran profundidad y la naturaleza del terreno; y en el caso de Iberdrola, para proyectar la producción de energía de un campo de generadores eólicos en un determinado terreno con su particular singularidad y a corto plazo. La lista de éxitos podría seguir –son muchos en este tiempo-, algunos tan llamativos y de eco mundial como el uso del MareNostrum por parte del equipo internacional y multidisciplinar, en la detección de las ondas gravitacionales en el Universo.
“Hacer posible lo imposible”
A colación de todo esto, explica Gemma Ribas que la razón de ser de este tipo de tecnología se debe precisamente a tres aspectos clave: uno es “el ahorro de costes”, abaratar inversiones. El segundo, porque gracias a ella “se reducen niveles de riesgo y peligrosidad”. Y el tercer factor, porque si no fuera por ella, algunas investigaciones en la actualidad sencillamente serían “imposibles” de llevar a cabo. Algunos de los casos citados previamente ya ejemplifican los casos correspondientes a los aspectos primero y tercero. Sobre el segundo, peligrosidad (aunque también tiene que ver con reducción de costes), esta tecnología sirve para, por ejemplo en el campo de la industria del automóvil, desarrollar simulaciones de impactos de vehículos. Se introducen todos los datos correspondientes a los materiales y las leyes físicas que actúan en el momento de la colisión y se determinan los diseños que mejores resultados de seguridad obtienen. Éstos se trasladan después a un laboratorio para testarlos físicamente.

Hoy, todavía, los superordenadores utilizan materiales y componentes utilizados en las computadoras personales pero no siempre fue así. De hecho, en los inicios, en los años noventa, existía una tecnología diseñada y producida específicamente pare este tipo de equipos. Evidentemente era caro y poco práctico, dada la poca cantidad de unidades de estas características que había en todo el mundo. Fue entonces cuando a comienzos del siglo XXI cambiaron el enfoque y optaron por sacar provecho de la informática doméstica, que se había popularizado y extendido de forma espectacular. Así se conseguía que los costes fueran menores pero, también, podían introducirse las innovaciones aportadas por la industria del sector.
El futuro pasa por los smartphones
En la actualidad, en el Barcelona Supercomputing Center cuentan con un prototipo cuyo propósito no es ya adoptar la tecnología de los PC’s sino hacerlo de la de tablets y móviles. El futuro y, “a corto plazo”, asegura Ribas, pasa por “adoptar esta tecnología”, cada vez más avanzada. Todo se basa sobre todo en dos grandes leyes: por un lado, la de Moore, que estableció a grandes rasgos el crecimiento exponencial de la potencia de los dispositivos informáticos, de manera que hoy los móviles más avanzados pueden realizar operaciones que hace veinte años sólo las supercomputadoras podían realizar. Y, la segunda es el principio de Escalabilidad, que dice –de forma esquemática- que si un ordenador con un sólo procesador tarda 1000 horas en ejecutar una operación, 1000 procesadores trabajando de forma simultánea tardarán una hora en realizar esa misma operación. Por supuesto, a la práctica, no es tan sencillo como la simple suma de hardware; aunque sí, en buena medida, si se añade al planteamiento el concepto de Programación Paralela, que asigna a cada unidad una determinada función para que todas juntas trabajen conjuntamente de la forma más eficiente posible.
La supercomputación no es el futuro sino que es el presente. La suma de cientos o miles de procesadores sumados al concepto de ‘big data’ están haciendo tangibles realidades que antes parecían indescifrables. Algunos misterios, gracias a esta tecnología, son cada vez menos oscuros y aparecen, aunque complejos, al alcance de la capacidad suma del hombre y la técnica. Fe y Dios, por supuesto, al margen. //
Leave a Reply