La institución del Banco de México (Banxico) informó que fue víctima de la inteligencia artificial (IA), en donde también se vio involucrada su gobernadora central, Victoria Rodríguez Ceja.

En tiempos recientes, la inteligencia artificial ha servido no solamente para recrear imágenes o realizar predicciones, sino también para caer en fraudes y estafas, así como otros delitos.

Igualmente, la inteligencia artificial ha provocado la preocupación en magnates, de tecnología como Elon Musk por la falta de control que podría surgir, o en cuestión de desempleo, al sustituir distintos trabajos.

La inteligencia artificial es usada para atacar al Banco de México

El Banco de México emitió una alerta debido a que fue víctima de la inteligencia artificial utilizada en la creación de un vídeo que recrea su imagen y falsea la voz de su gobernadora, Victoria Rodríguez Ceja.

Mediante comunicado el Banco de México declaró que el video es falso, negando ser responsable de la información que la inteligencia artificial recreó con voz de varias personalidades públicas.

Por lo mismo, instó a la población que ignoren el video presuntamente creado con inteligencia artificial, ya que podrían ser víctimas de engaños y fraudes.

A su vez, el Banco de México aclaró que dentro de sus facultades no están el pedir transacciones u otras operaciones financieras, así como tampoco pide entrega de documentos.

Al finalizar su comunicado, el Banco de México recordó que su única página oficial es https://www.banxico.org.mx, añadiendo que tampoco ofrecen créditos, inversiones o productos financieros.

La Condusef (Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros) alertó anteriormente que las transferencias presuntamente realizadas por instituciones, vendiendo o solicitando dinero son un fraude.

Estafas y fraudes con inteligencia artificial tienen potencial de crecimiento según expertos

No solamente el Banco de México y artistas han sido víctimas del uso de su imagen recreadas con inteligencia artificial, también hay reportes de personas que han caído en dichos fraudes.

Como por ejemplo, la clonación de voz de un ser querido en presuntos problemas ha hecho que consultores de seguridad informática aseguran que el fraude con inteligencia artificial tiene potencial de crecimiento.

Igualmente, expertos en robo de identidad y estafas explican que los estafadores solamente necesitan unos segundos de la voz de una persona para recrear un audio con inteligencia artificial convincente.

Esta capacidad de la inteligencia artificial provoca que expertos estén preocupados, ya que “es como descargar cualquier otra aplicación”, destacó el profesor Steve Weisman de la Universidad Bentley.

Robot con inteligencia artificial