Que México anuncie un centro de supercómputo no es solo un hito técnico: es una apuesta narrativa sobre las buenas relaciones que se van reconstruyendo poco a poco con España.
En la conferencia presidencial del 19 de noviembre, se anunciaron las intenciones de construir “una máquina muy rápida” con Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS) que, según su página de internet, es el centro nacional de supercomputación en España y creadores de la primera computadora cuántica española desarrollada con el cien por ciento de tecnología europea. Dicen estar especializados en computación de altas prestaciones (HPC) y gestionar el MareNostrum, uno de los supercomputadores más potentes de Europa.
La apuesta es ambiciosa. Incluye la creación del Centro Mexicano de Supercómputo que arrancará –temporalmente– en el Barcelona Supercomputing Center (BSC), una institución con prestigio y experiencia. Esa colaboración le da músculo inmediato a México, mientras se construye una supercomputadora nacional que, según el gobierno, pretende convertirse en la más grande de América Latina en menos de tres años.
Aquí hay dos lecturas posibles, ambas legítimas: una optimista y otra escéptica.
Una lectura optimista: hacia la soberanía tecnológica
La apuesta implica reconciliación con España desde la comunidad científica a la que pertenece la presidenta al tiempo que evita dos conflictos, pues entre los países con mayor desarrollo de este tipo de tecnologías se encuentran Estados Unidos, China y Rusia. Desde este punto de vista, el anuncio representa una victoria estructural por la apuesta de liderar en América Latina la introducción de este tipo de tecnologías sin abrir las puertas de control tecnológico a EU ni levantar sospechas o tensiones frente a la revisión del tratado comercial con el vecino del norte que serían consecuencia irremediable de acordar una colaboración del mismo nivel con sus adversarios económicos, tecnológicos y de guerra. A su vez para México, tener acceso a supercómputo significa poder modelar el futuro con más precisión, anticipar riesgos y diseñar políticas más informadas.
Los proyectos piloto incluyen modelos climáticos para prever desastres naturales, lo que podría salvar vidas; análisis aduanero para trazar patrones de corrupción; acuñar inteligencia artificial para mejorar procesos públicos; y procesamiento de imágenes agrícolas para optimizar cosechas. Que todos esos datos estén bajo resguardo de investigadores nacionales suena bien: una supercomputadora “mexicana” no solo debe ser de uso técnico, sino también de uso ético y estratégico.
Además, la capacitación está en el centro del proyecto. Tener expertos mexicanos que se formen en el BSC es una forma de sembrar capacidades que, en el largo plazo, podrían disparar una nueva generación de científicos, desarrolladores e innovadores que no dependan tanto del exterior para tareas críticas.
La expectativa es que en 36 meses aquella supercomputadora exista físicamente en nuestro país.
Una lectura escéptica: ¿y el ambiente y los límites éticos en el uso del mega procesamiento de datos?
Se ha presumido que mientras que una computadora convencional tarda hasta 30 días en procesar grandes volúmenes de información, una supercomputadora puede realizar 314 billones de operaciones por segundo. El contexto es que en 2026 será obligatoria la CURP biométrica y prácticamente la cantidad de datos para procesar y almacenar será inmensa.
Más tomando en cuenta que los proyectos prioritarios incluyen:
El mega procesamiento de datos del Servicio de Administración Tributaria (SAT) y de la Aduana para optimizar el sistema de inspección aduanera y la recaudación.
Inteligencia Artificial, con modelos multitarea masivos para asistencia virtual
Está el riesgo de que esta iniciativa se convierta en una promesa reluciente para las mañaneras, pero en un compromiso blandito cuando se trate de ejecución porque pocos proyectos públicos de alta tecnología han logrado atravesar la burocracia mexicana sin diluir parte de su potencial y la inversión en ciberseguridad continúa poniendo en jaque a las autoridades que parecen vulnerables ante ataques virtuales.
La ejecución de la supercomputadora nacional dependerá de muchos factores: financiamiento sostenido, talento entrenado, infraestructura energética, mantenimiento, políticas de acceso y transparencia. Si estos no están bien planteados, el anuncio podría quedarse en un “power point futurista”. También hay que pensar en el tiempo real: usar la infraestructura catalana es útil para comenzar, pero no reemplaza el desarrollo local. En el lapso de 24 a 36 meses, según las autoridades, ese equipo será solo temporal. ¿Qué pasa después? Surge una duda sobre el impacto ambiental y la evaluación del mismo que parece aún no tenerse a la mano pues recordemos que el uso de este tipo de tecnologías se traduce también en uso de agua masivo para mantener la capacidad de procesamiento y en recursos.
Por último, hay un riesgo de derechos: sin obligaciones de transparencia algorítmica ni una certeza sobre privacidad... ¿Qué limite habrá para saber el uso de los datos y el tipo de datos que se recopilan? No hay dudas de que esto es un paso hacia adelante. México necesita dar un salto cualitativo en su capacidad de innovación y su infraestructura científica. Pero para que este anuncio no sea solo un pixel brillante en la presentación de un plan de gobierno, debe ir acompañado de protección a derechos y trazabilidad.



