La fuerza motriz de nuestra era es la ley de Moore, una famosa predicción formulada en 1965 por Gordon Moore, uno de los fundadores de Intel, que anticipó el ritmo al que se iban a miniaturizar los dispositivos electrónicos en los chips de silicio. Desde entonces, cada dos años aproximadamente, se ha doblado la potencia de cálculo de los ordenadores. Esa dinámica exponencial está hoy sometida a importantes intereses geopolíticos. Quien tenga los chips más rápidos tendrá la mejor inteligencia digital, las comunicaciones más veloces, los dispositivos médicos más precisos o las redes energéticas más eficientes. Pero también tendrá la mejor ciberseguridad y los sistemas de armamento más sofisticados.

El despliegue de centros de datos es exponencial
Estamos llegando al límite físico de esa ley (el llamado muro de Moore ). Empresas líderes, como TSMC (Taiwan Semiconductores) dibujan ya la superficie del silicio a escala nanométrica (100 veces más pequeña que un virus). Por debajo está el átomo, y no se puede dibujar nada en el vacío atómico. Nada hasta que irrumpa una nueva tecnología como la computación cuántica, que desafía las fronteras del sentido común al utilizar algunos de los fenómenos más fascinantes de la naturaleza, que rigen a nivel subatómico. En particular, la superposición (la posibilidad de que una partícula –un bit– esté en dos estados a la vez), o el entrelazado (según el cual dos partículas separadas –no importa la distancia– están misteriosamente sincronizadas sin ningún retardo, lo que abre nuevas posibilidades en transmisión instantánea de la información). La computación cuántica parecía muy alejada del mercado, pero Microsoft presentó recientemente Majorana, un nuevo chip que promete ser la base de futuros computadores cuánticos escalables y sin errores. Esta arquitectura podría ubicar hasta un millón de qbits (bits cuánticos) en la palma de una mano, lo que sería más que toda la capacidad computacional instalada hoy en la Tierra.
Impacto incalculable
EE.UU. va a necesitar el equivalente a 50 nuevas plantas nucleares para dar servicio al despliegue de centros de datos y supercomputadores, según el ex consejero delegado de Google
A caballo de la ley de Moore, y con la perspectiva de la futura tecnología cuántica, se está produciendo una carrera geopolítica global por la supercomputación, en cuya cima se encuentra hoy El Capitán, una gran máquina del Departamento de Energía de EE.UU. instalada en California. Ese superordenador es capaz de procesar datos a exovelocidad (más de un trillón de operaciones matemáticas por segundo). Inicialmente, esas grandes computadoras se utilizaban para realizar simulaciones de fenómenos muy complejos, con gran cantidad de datos. Análisis de síntesis químicas, reacciones nucleares, cambio climático, evolución de enfermedades o movilidad urbana. La manera convencional de operar es introducir las ecuaciones (las normas) que rigen esos procesos (conocidas por la ciencia), y dejar que la máquina, a gran velocidad y con datos masivos, obtenga las soluciones. Pero últimamente se ha añadido otra utilidad: ¿qué pasaría si en esos superordenadores se introdujeran estructuras digitales que imitan el cerebro humano y que aprendieran por sí mismas? (redes neuronales artificiales). Esa idea es la que origina el despegue de la actual inteligencia artificial (IA), el aprendizaje profundo en su expresión más disruptiva.
Cuando le preguntaron a Ilya Sutskever, exdirector científico de Open AI (empresa que desarrolló ChatGPT) qué era la IA, contestó: “Cerebros digitales corriendo en supercomputadores”. No pudo encontrar una definición más precisa. Al conectarnos a ChatGPT, lo estamos haciendo a grandes superordenadores ubicados en EE.UU. (inicialmente, en Iowa). La aparición de ese sistema fue una disrupción sin precedentes. En ese momento pasaron dos cosas trascendentes: se inauguró un nuevo e inmenso océano azul de potenciales aplicaciones (los grandes modelos de lenguaje, o LLM), y se inició una nueva ciencia (entender cómo demonios funcionan estos sistemas). Por primera vez en la historia disponemos de cantidades masivas de datos para entrenar grandes redes neuronales artificiales y supercomputadores para hacerlas correr. ChatGPT, en su versión inicial, era una gigantesca red neuronal de 175.000 millones de nodos. De hecho, una gran matriz matemática que aprendió leyendo virtualmente todo lo que hay en internet y es capaz de interactuar con los humanos en lenguaje natural. La complejidad del sistema es tal que ni siquiera sus diseñadores comprenden su dinámica interna (cómo razona ). Ante esos LLM, los científicos están como los físicos del siglo XVIII cuando estudiaban los fenómenos de la naturaleza: intentando comprender sus leyes fundamentales. Eric Schmidt, ex consejero delegado de Google, afirma que no existe una sobreexpectativa en la IA ( hype ), sino una infraexpectativa. Dice que el impacto de la IA va a ser muy superior que el que ahora podemos imaginar. Yo también creo que esta IA tiene un profundísimo poder transformador y que vamos a ver cosas sorprendentes. Schmidt afirma que EE.UU. va a necesitar en breve el equivalente a 50 nuevas plantas nucleares para dar servicio al despliegue de supercomputadores y centros de datos.
Según Stanford
La IA está superando a la inteligencia humana en todas las dimensiones cognitivas que se están midiendo
¿Son inteligentes estas máquinas? Según el último AI Index Report de Stanford, informe de referencia en el campo, la IA está alcanzando y superando a la inteligencia humana en todas las dimensiones cognitivas que se están midiendo (clasificación de imágenes, comprensión lectora, razonamiento visual y matemático…) ¿De dónde surge la inteligencia? ¿Es algo exclusivo de los humanos? Un pulpo, un molusco que se separó de nuestro árbol evolutivo hace 700 millones de años, es inteligente. Muestra aprendizaje y memoria. Usa herramientas. Puede resolver problemas. Y solo tiene 500 millones de neuronas. La naturaleza, por un camino divergente, ha llegado a una solución similar para alumbrar otra inteligencia: el cerebro de un pulpo también es una red neuronal. ¿Es inteligente la IA? ¿Puede razonar una red neuronal de billones de neuronas no formada por materia viva sino por una estructura de silicio? ¿Puede pensar una máquina? El tiempo lo dirá, pero yo creo que esa no es la pregunta. La verdadera pregunta es si nuestro cerebro es una máquina. Porque, si lo es, entonces ya tenemos la respuesta: todos llevamos en nuestro interior una máquina que piensa.