Ante la desinformación y abuso de herramientas de inteligencia artificial utilizadas en contextos electorales, surge un acuerdo tecnológico que podría advertir a los usuarios si el tipo de contenido que observa es real o ficticio.

La inteligencia artificial (IA) está en el centro de la atención respecto al proceso electoral en México, ya que desde el inicio de las precampañas, el equipo de la candidata por la alianza opositora, Xóchitl Gálvez, presentó una vocería creada con esta tecnología que utiliza su imagen, voz, vestimenta y ademanes con la única diferencia de pronunciar distinto algunas palabras. A pesar de que dicho avatar no se ha vuelto a utilizar, la realidad es que se han documentado cientos de ataques y noticias falsas utilizando inteligencia artificial, desde audios con supuestas críticas y rupturas al interior de Morena hasta imágenes alteradas y procesos de automatización de cuentas falsas para sostener conversaciones falsas en la red.

Todo esto podría llegar a su fin, ya que además de ser un instrumento de manipulación, representa una amenaza a la gobernabilidad, estabilidad, derecho a la información y derechos de propiedad intelectual de diversos actores. Esto debido a que las empresas dominantes de la tecnología como Google, Microsoft, TikTok, X, Meta, OpenAI y otras 17 líderes anunciaron un acuerdo para contrarrestar su potencial interferencia. Este pacto, denominado ‘Acuerdo Tecnológico para combatir el uso engañoso de la IA en las elecciones de 2024′, surge en un contexto donde el 51% de la población mundial participará en procesos democráticos este año.

El convenio, presentado durante la Conferencia de Seguridad de Múnich (MSC por sus siglas en inglés), busca neutralizar la difusión de contenidos producidos con sistemas de IA que podrían comprometer la integridad de los procesos electorales. Esto incluye la manipulación de audios, imágenes, tendencias y videos de candidatos, políticos y funcionarios electorales. Aunque no prohíbe explícitamente los deepfakes, se compromete a desarrollar tecnologías para detectar, monitorear y etiquetar este tipo de contenidos. El objetivo concreto es identificar todo tipo de contenido generado con herramientas que utilizan inteligencia artificial para etiquetar a aquellos no son auténticos e invitar a que los usuarios verifiquen y duden del contenido de los mismos, esto a través de la verificación de autenticidad lograda con el análisis de metadatos e imponiendo marcas de agua en los términos que establece la Coalición para la Procedencia y Autenticidad de Contenido (por sus siglas en inglés, C2PA).

Dentro de los compromisos específicos se incluyen el desarrollo de tecnologías para mitigar los riesgos asociados con la IA en el contenido electoral, la evaluación de modelos de IA para comprender sus riesgos, la detección y abordaje de la distribución de contenido engañoso, entre otros. Estas medidas son consideradas cruciales dado el impacto histórico que tendrán los procesos políticos de este año, con alrededor de 4,000 millones de personas participando en elecciones en todo el mundo.

Sin embargo, aunque las grandes empresas tecnológicas han anunciado su compromiso para evitar el uso malicioso de la IA, cabe recalcar que no hay fechas concretas para la implementación de estas medidas. Aunque el acuerdo se presenta como un paso importante para salvaguardar la integridad electoral, su carácter voluntario y la ausencia de requisitos vinculantes generan escepticismo sobre su efectividad real. Es por ello que México puede y debe ser proactivo para buscar que el pacto ‘AI Elections Accord’ sea obligatorio para las empresas tecnológicas que operan en nuestro país.

Las gigantes tecnológicas que incluyen también a LinkedIn, Amazon, Anthropic y otras acordaron, en resumen:

  1. Desarrollar e implementar tecnología para mitigar los riesgos relacionados con el contenido electoral engañoso, falso o poco confiable creado con sistemas de IA, contemplando los desarrollados con código abierto.
  2. Evaluar los modelos de IA dentro del alcance del Acuerdo para comprender los riesgos que pueden representar con respecto a la producción de contenido electoral engañoso, priorizando los desafíos de la manipulación.
  3. Buscar detectar la distribución de este tipo de materiales en sus plataformas e implementar tecnologías para que puedan advertirlo automáticamente.
  4. Buscar abordar adecuadamente este contenido detectado en sus plataformas sin llegar a la censura o eliminación, advirtiendo que la información es engañosa con leyendas, explicaciones y advertencias respecto al tipo de contenido mostrado.
  5. Fomentar la resiliencia intersectorial frente al contenido electoral engañoso generado por IA, así como avanzar en la adaptación entre las industrias que son sensibles al contenido electoral engañoso.
  6. Brindar al público información que transparente las acciones de mitigación, en donde los medios de comunicación guardan un papel clave.
  7. Continuar interactuando con una amplia gama de organizaciones globales de la sociedad civil, académicos y especialistas.
  8. Apoyar esfuerzos para fomentar la conciencia pública, la alfabetización mediática y la resiliencia de toda la sociedad.

El contexto es el siguiente: se estima que 43 naciones tendrán elecciones en este 2024, entre ellos, nuestro país.

El Foro Económico Mundial calificó la desinformación provocada por la utilización de sistemas de inteligencia artificial y la polarización política como riesgos a enfrentar durante este año. Sin embargo, en el clima político que se percibe, en el caso de México, es la derecha de la mano con grandes capitales empresariales los que han invertido en la utilización maliciosa de estos recursos, por lo que inclusive, el presidente Andrés Manuel López Obrador, a través de la cancillería, debería presionar que tales acuerdos operen lo más pronto posible, ofreciendo el apoyo institucional para lograrlo. A esto se suma el uso de inteligencia artificial con toques machistas de quienes utilizan los “deepfakes” para recrear escenas humillantes en contra de las mujeres en política.

Más información: https://securityconference.org/en/aielectionsaccord/

X: @ifridaita