La Inteligencia Artificial cada vez se encuentra más cerca de tener total poder de influencia sobre los próximos resultados electorales en los países que la han adoptado como parte de su estilo de vida cotidiano. Dos datos intersectan de manera preocupante: el primero es que las personas están dialogando con modelos de IA sobre cuáles deberían ser sus opciones de voto, mientras que un estudio de la Universidad de Cornell en colaboración con Microsoft coloca a historiadores, analistas políticos, periodistas y reporteros, editores y asistentes estadísticos como parte de los profesionales que al día de hoy, ya son sustituibles o con alta dependencia a modelos de IA para realizar su trabajo.

Eso implica que en próximas elecciones, la ciudadanía recibirá influencia por dos vías sobre cómo votar directamente de la Inteligencia Artificial: una para los que consulten con su modelo de preferencia sobre por quién hacerlo y otra por quienes intenten tener más información leyendo prensa digital o impresa para tratar de formar un criterio, sin saber tal vez que aquello que leen fue producido también por Inteligencia Artificial.

El problema es que ninguna Inteligencia Artificial es neutral y sus propios puntos de partida internos se relacionan más bien con sesgos de programación. Y es que a menos que existan acuerdos comerciales oscuros entre grupos políticos y desarrolladores, la tendencia de algunos modelos occidentales de Inteligencia Artificial es favorecer a los partidos de derecha.

El mejor caso de estudio en tiempo real es Países Bajos, donde se celebrarán elecciones este 29 de octubre. Con más de quince partidos activos y en pleno auge de los modelos de lenguaje autogenerativos, la ciudadanía, especialmente los votantes más jóvenes han optado por preguntarle a la Inteligencia Artificial por quién deberían votar. La tendencia es viral y aquello ya ha encendido las alarmas del propio Estado al punto de lanzar una advertencia para dejar claro que no es confiable asesorarse con IA sobre cómo votar pues los chatbots no solo están dando respuestas imprecisas, sino que, una vez más, están arrastrando a los usuarios hacia la desinformación y la manipulación política. Un bulo magnificado que definirá quien tendrá el poder.

El mensaje proviene de la Autoridad de Protección de Datos (AP) de los Países Bajos, que descubrió que más de la mitad de las sugerencias generadas por los chatbots se inclinan hacia dos bloques políticos dominantes: el derechista Partido por la Libertad (PVV) y la alianza de centro GroenLinks-PvdA. En conjunto, representan el 56% de las respuestas. Una concentración que resulta inquietante pues en ese país hay un sistema parlamentario y el Parlamento se caracteriza por su pluralidad —quince partidos representados—, donde cada voto suele reflejar una diversidad ideológica que va desde el liberalismo verde hasta el conservadurismo religioso.

Las columnas más leídas de hoy

Según las encuestas, esos dos bloques podrían alcanzar poco más de un tercio de los votos en las elecciones del 29 de octubre. Sin embargo, la IA parece querer anticiparse al resultado, empujando a la ciudadanía hacia los polos más visibles del espectro político, en lugar de ofrecer información equilibrada o contextual.

El informe del regulador señala además que partidos como el CDA (democristiano de centro) casi nunca son mencionados, incluso cuando las posturas de quienes consultan coinciden directamente con su programa.

Monique Verdier, vicepresidenta de la AP ya advierte que lo que debería ser una ayuda neutra para decidir el voto se ha convertido en un espejo distorsionado: uno que proyecta la lógica algorítmica de las grandes plataformas sobre la vida democrática.

El asunto de cómo funcionan los algoritmos de la IA podría resolverse con que quienes tienen mayor cantidad de resultados en Internet con un rango de posicionamientos relevantes logran introducirse en las búsquedas de los modelos de IA y en vez de responder por la postura ideológica, esos modelos podrían estar respondiendo conforme a la presencia digital.

Verdier advierte que la tecnología corre el riesgo de llevar a los votantes hacia partidos que no reflejan sus verdaderas convicciones políticas. En palabras de la funcionaria, el funcionamiento de estos sistemas es “poco claro y difícil de verificar”, lo que impide saber bajo qué criterios ofrecen ciertas recomendaciones. La agencia probó cuatro chatbots de uso general —sin revelar sus nombres— y comprobó que incluso cuando se les proporcionaban datos alineados con un partido pequeño, la respuesta terminaba favoreciendo a uno de los dos grandes bloques.

Pero hay algo más perverso que eso: Además de que la IA no es neutral, los dueños de las empresas tecnológicas tienen posturas políticas definidas y hasta públicas como Elon Musk, que es dueño de la tecnología de IA llamada Grok, un asistente virtual incorporado a la plataforma X donde por cierto, en el caso de México, se debaten los asuntos políticos de relevancia.

El contexto no ayuda. En el caso de Países Bajos, estas elecciones fueron convocadas tras el colapso de la coalición de derecha, provocado por la salida del PVV, encabezado por Geert Wilders, conocido por su discurso antimigrante y euroescéptico. La contienda actual se perfila entre la posibilidad de un gobierno de corte conservador y una coalición más centrista. Pero la irrupción de la Inteligencia Artificial ha añadido una nueva sombra: ¿quién influye realmente en el voto cuando el consejo viene de un algoritmo entrenado con sesgos globales?

El fenómeno no es exclusivo de Holanda. Un estudio internacional coordinado por la Unión Europea de Radiodifusión y la BBC reveló que los principales asistentes de IA —incluidos ChatGPT y Gemini de Googledistorsionan el contenido informativo en casi la mitad de sus respuestas. De más de tres mil pruebas en 14 idiomas, el 45% presentó errores significativos en la interpretación de noticias. Si a ello le sumamos el uso de estas plataformas en analistas y periodistas, el resultado es un amplificador involuntario de magnates tecnológicos que estarán definiendo la política de varios países.

Tanto OpenAI como Microsoft han reconocido que las llamadas alucinaciones —cuando un sistema inventa o tergiversa datos— siguen siendo un problema latente. Pero es ingenuo llamarle falla técnica a lo que tendrá consecuencias políticas del tamaño que si un ciudadano consulta a la IA sobre su voto y esta responde de forma sesgada, en realidad se trata de una nueva forma de manipulación digital.

El caso holandés debería servir de advertencia global. La democracia no puede subcontratar su conciencia a un algoritmo.

Lo curioso en el caso de México es que este tipo de temas ha sido hervidero de protestas como cuando el movimiento “Yo soy 132″ integrado por los jóvenes de su tiempo llenaron las calles contra Enrique Peña Nieto como producto televisivo y contra la televisora que por décadas fue la más vista. En las marchas se acusaba a Televisa por la manipulación electoral, por “idiotizar” a sus audiencias y recibir dinero a cambio de lavar la cara a gobernantes mediante campañas tendenciosas.

Hoy, la ilusión de objetividad que acompaña a la tecnología suele beneficiar a quienes más poder tienen para programarla y no hay un movimiento en algún punto del mundo que le reclame esto hacia las grandes tecnológicas. Lo más que hay es un capitulo de Black Mirror.