Te quedan 0 artículos gratuitos este mes.

Accede sin límites desde 55 €/año

Suscríbete  o  Inicia sesión

El turboacelerador de la ciencia

Las redes neuronales artificiales impregnan ya la investigación científica en la mayoría de disciplinas

Comparte
Pertenece a la revista
Febrero 2024 / 121
IA espacio astronauta

Ilustración
Midjourney

Audioplayer Icon
Escucha el artículo

“La inteligencia artificial podría marcar el comienzo de un nuevo renacimiento del descubrimiento científico”, proclamó en noviembre pasado Demis Hassabis, cofundador de DeepMind, la empresa británica de inteligencia artificial (IA) que Google adquirió hace ya 10 años. En su opinión, estamos entrando en una nueva era de “ciencia a velocidad digital” en la que la IA actúa como “un multiplicador del ingenio humano”, de forma similar a como el telescopio y el microscopio impulsaron la ciencia tras el fin de la Edad Media. “Será una de las tecnologías más transformadoras y beneficiosas que jamás se haya inventado”, agregó.

Yann LeCun, otro de los grandes impulsores del aprendizaje automático, que trabaja para Facebook desde 2013, abunda en la misma idea: ”Al amplificar la inteligencia humana, la IA puede propiciar un nuevo Renacimiento, tal vez una nueva fase de la Ilustración”.

Aunque las redes neuronales artificiales, sobre las que se basa el aprendizaje automático y el auge actual de la inteligencia artificial, empezaron a utilizarse en las dos últimas décadas del siglo pasado, su uso fue en un principio limitado, en parte, por la complejidad de programación que comportaban y, en parte, por la desconfianza que generaba que no se conozca con exactitud cómo el programa ofrece los resultados que ofrece.

En un programa clásico, el programador establece una serie de reglas que pueden ser revisadas y corregidas y que determinan unos resultados, mientras que las redes neuronales artificiales, diseñadas a imitación de las conexiones cerebrales, no siguen esta pauta lineal, sino que se automodulan al cotejar, de forma reiterada, datos de entrada en la red que se corresponden a otros de salida ya conocidos. De ahí que se hable de entrenar el sistema hasta que es capaz de aprender y ofrecer unos resultados a partir de unos datos de entrada.

Más fácil

Con el paso del tiempo este tipo de programación ha mejorado mucho y ha quedado ampliamente demostrado que es un enfoque útil porque proporciona buenos resultados con un esfuerzo de computación sustancialmente menor. Además, las dificultades de programación de hace unas décadas han pasado a la historia. Lo que antes requería un título en informática y miles de líneas de complejos lenguajes de programación ahora se puede hacer con herramientas fáciles de usar, lo que ha llevado a innumerables científicos a integrar la inteligencia artificial en sus investigaciones. "La democratización [de este tipo de programación] es lo que está provocando esta explosión", afirmaba Mark Girolami, científico jefe del Instituto Alan Turing de Londres, en unas recientes declaraciones a The Economist. 

Un ejemplo sencillo da idea de la utilidad de la inteligencia artificial generativa en la investigación. Se utiliza para mejorar imágenes obtenidas con microscopio electrónico. Lograrlas con alta resolución es muy caro. Para reducir tiempo y el trabajo se puede obtener en un nivel alto de calidad solo una parte de lo que se pretende estudiar y cotejarla con otra de baja resolución de la misma muestra. Se entrena así al sistema para que sea capaz de transformar las muestras en baja resolución en sus correspondientes en alta. En este caso el símil con los microscopios de la etapa de la Ilustración es casi exacta.

Otro ejemplo sencillo es la utilización de la IA para extraer nuevo conocimiento de investigaciones ya efectuadas. Cotejar artículos científicos de distintas épocas o distintas disciplinas permite hallar conexiones que habían pasado inadvertidas porque el sistema automático puede leer y comparar en un tiempo mínimo lo que un humano tardaría años.

Una segunda muestra de que la IA puede extraer nuevo conocimiento de información que estaba al alcance de todos es un estudio sobre huellas dactilares recién publicado por un grupo de la Universidad de Columbia en la revista Science Advances. Hasta ahora se consideraba un hecho cierto que no es posible saber si dos huellas de distinto dedo pertenecen a la misma persona, pero trabajando sobre una base pública del Gobierno de EE UU de 60.000 muestras los investigadores observaron que sí es posible determinarlo. El sistema detectó patrones de similitud en áreas de las huellas no utilizados hasta ahora por los investigadores policiales. Si el sistema acaba siendo validado, supondrá un gran avance en las ciencias forenses.

Hasta aquí, logros aparentemente sencillos que multiplicados en miles de ideas acelerarán la investigación científica. Pero también hay grandes avances, entre los que cabe destacar el que supuso AlphaFold. Creado por Google DeepMind se dio a conocer hace poco más de tres años y resolvió uno de los grandes retos de la biología: determinar qué forma tendrá una proteína a partir del gen que la codifica. El código genético (cuál de los 20 aminoácidos que existen se corresponde con cada uno de los 64 tripletes de letras del ADN) se conoce desde hace seis décadas, pero resolver el problema de cómo esa ristra de aminoácidos de propiedades distintas entre sí va a plegarse y formar la estructura tridimensional que permitirá su función suponía una tarea muy compleja y tediosa.

En la citada conferencia de noviembre, Hassabis precisó que AlphaFold había predicho las estructuras de 200 millones de proteínas, lo que supone un recurso de gran valor para la investigación biológica utilizado ya por 1,2 millones de investigadores. Con anterioridad, un estudiante podía necesitar todos los años de su doctorado para determinar una sola estructura de proteína.

Detector de metales

La inteligencia artificial está ya ayudando a la investigación biomédica y el desarrollo de nuevos medicamentos, un área que se da por hecho que se transformará profundamente. Aunque la validación final en el laboratorio y los ensayos clínicos siguen siendo partes determinantes del proceso de creación de un medicamento, la IA empieza a acelerar dos fases previas importantes: la búsqueda y caracterización del objetivo concreto del organismo humano sobre el que intervenir y el diseño de la molécula adecuada para interactuar con el objetivo. Se pueden probar virtualmente miles y miles de interacciones hasta dar con unas pocas moléculas que pasarán a ensayarse en el mundo real. “Si encontrar nuevos medicamentos es como buscar una aguja en un pajar, la IA actúa como un detector de metales”, comentaba Regina Barzilay, científica informática del MIT, en un reciente artículo publicado en la revista del instituto tecnológico.

Gracias a ese detector de metales, la ampliación del campo de juego en el diseño de fármacos es enorme. Adityo Prakash, director ejecutivo de la empresa farmacéutica Verseon, con sede en California, explicaba en el mismo artículo el cambio de dimensión. Según sus cálculos, “el producto total de los últimos 100 años de trabajo de muchos químicos” son unos 10 millones de moléculas (un uno seguido de siete ceros) sobre las que se ha centrado hasta ahora el trabajo de todas las farmacéuticas del mundo. Sin embargo, continúa, el número de posibles moléculas susceptibles de convertirse en fármacos según las leyes de la física y la química es de 10 elevado a 33 (un uno seguido de 33 ceros). “No estamos pescando en un charco de marea junto al océano", concluye, “estamos pescando en una gota”.

La última gran victoria de las redes de aprendizaje automático se ha dado en el ámbito de la predicción meteorológica. GraphCast, otra creación de la omnipresente Google DeepMind, ha logrado mejores resultados que el Centro Europeo de Previsiones Meteorológicas a Medio Plazo (ECMWF por sus siglas en inglés) según la comparativa publicada por la revista Science en noviembre pasado. No es una victoria menor porque las predicciones del ECMWF a 10 días, con una resolución de nueve kilómetros, las utilizan los meteorólogos de todo el mundo. 

De alguna manera, es la victoria de David contra Goliat. El ECMWF utiliza para sus predicciones un potentísimo superordenador que realiza 30.000 billones de operaciones por segundo, mientras que GraphCast utiliza un ordenador con una potencia equiparable a la de un PC normal, aunque dotado de una unidad de procesamiento distinta, diseñada para optimizar el producto de matrices.

La forma en que ambos sistemas plantean la predicción del tiempo es radicalmente distinta. El centro europeo utiliza como único punto de partida los datos meteorológicos de todo el mundo en el momento de iniciar el cálculo y sobre ellos aplica una serie de ecuaciones basadas en las leyes de la física que, procesadas por el superordenador, ofrecen la previsión. La red neuronal de GraphCast no aplica las leyes de la física. Ha sido entrenada durante semanas con datos acumulados desde 1979, proporcionados por el mismo centro europeo, y sobre esa experiencia integrada en sus conexiones efectúa la predicción.

El de DeepMind no es el único sistema de predicción basado en redes neuronales artificiales. Huawei hace meses que puso en marcha su sistema Pangu-Weather y el propio ECMWF está desarrollando el suyo. No ve la inteligencia artificial como una competencia, sino que prevé que ambos sistemas se potencien entre sí para ofrecer mejores previsiones.

Es muy significativo que el Mare Nostrum 5, el superordenador inaugurado en Barcelona el pasado diciembre, se haya concebido con una función dual. De hecho, son dos superordenadores que se sitúan por separado entre los 20 más potentes del mundo. Uno está diseñado con una arquitectura tradicional que puede alcanzar los 45.400 billones de cálculos por segundo y el otro, capaz de efectuar 260.000 billones de cálculos por segundo, está dotado de procesadores más eficientes para las tareas de inteligencia artificial. Con este último se prevé entrenar grandes redes neuronales con centenares de miles de millones de parámetros.

Esa suma de supercomputación más redes neuronales artificiales “abre posibilidades hasta ahora impensables”, según la nota difundida tras la inauguración por el Barcelona Supercomputing Center, la entidad que ha concebido la nueva máquina.