México atraviesa un momento decisivo. Mientras el Congreso ha aprobado reformas profundas que serán obligatorias en 2026—como la creación de la CURP biométrica, la expansión de tecnologías de vigilancia y las primeras regulaciones de inteligencia artificial orientadas a seguridad pública— el nuevo Global AI Readiness Index 2025 de Salesforce revela una realidad incómoda: el país no tiene el personal, la infraestructura institucional ni la capacidad de innovación necesarias para operar, supervisar y garantizar el uso ético de estas tecnologías.
La paradoja es que legislamos como si fuéramos líderes en IA, pero somos uno de los países menos preparados para implementarla. En la semana que termina se anunció una colaboración para desarrollar la supercomputadora con capacidad de procesamiento masivo de datos, pero un día después fue reportada la página del Registro Nacional de Profesiones como caída al tiempo que se reportaron ventas de bases de datos mediante foros de hackers. Esto se refleja en nuestras “calificaciones” sobre la capacidad de sostener y desarrollar sistemas de IA como gobierno.
El índice, que evalúa a 16 mercados mediante 31 indicadores en infraestructura digital, regulación, adopción, innovación, inversión y fuerza laboral, ubicó a México con 15.3 puntos, por debajo de Brasil (18.0), Argentina (14.1) y muy lejos del promedio global (22.1). Estados Unidos encabeza con 39.7 puntos. Los números hablan de un país que quiere brincar al futuro sin haber construido el suelo mínimo para pisarlo, en el momento crítico para reforzar e invertir en estas prioridades.
Regulamos sin capacidad de regular
México obtuvo 8.3 puntos en regulación, una cifra engañosamente “aceptable”. No basta con tener normas; hay que tener instituciones que sepan implementarlas y vigilarlas, e inclusive, que tengan obligaciones básicas como trazabilidad, transparencia algorítmica y vigilancia humana. Aquí está la primera grieta: las reformas en se construyeron sin garantizar que exista capacidad técnica para auditar algoritmos, supervisar sistemas de reconocimiento facial, evaluar impactos en derechos fundamentales o asegurar interoperabilidad, capacidad de almacenamiento de datos, ciberseguridad y transparencia.
Es imposible hablar de CURP biométrica o de Inteligencia Artificial aplicada a seguridad sin preguntarnos quién revisa, quién audita, quién garantiza que esos sistemas no reproducen sesgos —raciales, de género, socioeconómicos— o violaciones a la privacidad. El Congreso avanza con la lógica del “cómo modernizamos”, pero casi nunca con la del “cómo protegemos”.
Donde México presenta su mayor rezago es en adopción, con solo 3.3 puntos frente al promedio global de 5.8. No hay articulación entre la estrategia nacional y los usos reales. No hay proyectos piloto sólidos, no hay mecanismos de evaluación, no hay líneas de base ni estándares de transparencia.
La administración pública quiere automatizar, interconectar, predecir. Pero las instituciones carecen de personal especializado para entender cómo funcionan los modelos de IA, qué riesgos generan o qué medidas de corrección requieren. Estamos creando sistemas que nadie puede supervisar y que son ejecutados por las empresas desarrolladoras originales extranjeras.
La dimensión más crítica es la del talento humano, donde México obtiene solo 2.9 puntos. Las cifras de Salesforce, Page Group, WeWork y Google Cloud apuntan en la misma dirección:
- No hay suficiente formación en IA aplicada.
- No existen programas nacionales de reconversión laboral.
- No hay trayectorias profesionales para auditoría algorítmica.
- La demanda empresarial supera por mucho la oferta.
Esta falta de talento no es solo un problema económico. Es un riesgo para los derechos humanos. Sin analistas, ingenieras y abogadas formadas en ética, derechos digitales y perspectiva de género, los sistemas de IA utilizados por el Estado —particularmente en seguridad, control poblacional o identificación biométrica— reproducirán las mismas violencias estructurales que ya conocemos.
En innovación e inversión, de plano, el motor está apagado. México obtiene un preocupante 0.2 puntos en innovación y 0.2 en inversión, frente a los promedios globales de 1.7 y 1.4. Esto revela un país que consume tecnología, pero no la crea; que adopta marcos regulatorios, pero no desarrolla capacidades locales; que compra soluciones importadas sin dominio técnico para evaluarlas o adaptarlas.
El riesgo es que avanzar sin personal capacitado genera más desigualdad.
Este vacío técnico y ético tiene consecuencias graves:
- Sistemas biométricos que pueden fallar más en mujeres, personas morenas o poblaciones rurales.
- Algoritmos de riesgo que etiquetan injustamente a personas pobres como “sospechosas”.
- Identidades digitales vulnerables a filtraciones o usos indebidos.
- Herramientas de seguridad sin controles democráticos suficientes.
Las novedades legales avanzan con una premisa falsa: que basta con legislar para que la tecnología funcione. La realidad es otra, pues sin personal especializado, ético, con perspectiva de género y formación en derechos humanos, cualquier infraestructura tecnológica se transforma en un instrumento de exclusión, vigilancia o violencia institucional.
México necesita talento, no solo leyes. El país requiere una estrategia nacional de talento en IA, un marco de profesionalización pública obligatorio, protocolos de auditoría algorítmica y órganos reguladores con equipos multidisciplinarios: juristas, ingenieras, sociólogas, expertas en género, especialistas en privacidad y seguridad digital. Sin esto, la CURP biométrica, los sistemas de vigilancia y cualquier reforma en IA se convertirán en riesgos de Estado. Modernizar con humanismo. Hacerlo con ética, con técnica y con inclusión.



