En Estados Unidos, las empresas de IA deberán apegarse a una nueva ley en la que se les exige cumplir con nuevos criterios de transparencia y protocolos de seguridad.

Al menos así ocurrirá en el estado de California, donde el gobernador Gavin Newsom firmó, el lunes 29 de septiembre, una innovadora ley para poner en regla a las empresas del sector.

Pero, ¿en qué consiste la legislación en California, Estados Unidos que obliga a las empresas de IA a que cumplan con estándares de transparencia y protocolos de seguridad? Te contamos.

California aprueba ley para que empresas de IA cumplan con transparencia y protocolos de seguridad

Ante las preocupaciones sobre los riesgos que podrían representar los modelos avanzados de inteligencia artificial, el gobierno de California, Estados Unidos, aprobó una ley para regular al sector.

Se trata de la Ley SB 53, con la cual se pretende reducir la posibilidad de que las empresas de IA desarrollen modelos que impliquen una pérdida de control humano o manipulación masiva.

Inteligencia artificial

Para reducir los riesgos, la ley —que es un precedente en Estados Unidos y a nivel mundial— establece que las empresas de IA deben cumplir con estándares de transparencia y protocolos de seguridad.

Ante ello, la nueva legislación que fue firmada por el gobernador Gavin Newsom, establece los siguientes puntos de regulación en materia de transparencia y protocolos de seguridad:

  • Las empresas con ingresos mayores a 500 millones de dólares al año, están obligadas a publicar sus protocolos de seguridad
  • Las empresas de IA tienen que reportar incidentes críticos como ciberataques o conductas engañosas de modelos
  • Las empresas del sector deberán proteger a usuarios o desarrolladores que denuncien riesgos internos
  • De no cumplir con las nuevas obligaciones de transparencia, las empresas podrían ser multadas con 1 millón de dólares

Empresas de IA en Estados Unidos deberán cumplir con protocolos de seguridad por estos motivos

Sobre la aprobación de la ley que exige transparencia y protocolos de seguridad a las empresas de IA, el gobierno de California, Estados Unidos, planteó los motivos que obligan la regulación del sector:

  • Riesgos catastróficos de modelos avanzados, pues existe una preocupación por la posibilidad de una pérdida de control humano, manipulación masiva o sabotaje automatizado
  • Presiones competitivas que debilitan la seguridad, ya que las empresas de IA compiten por lanzar modelos sin protocolos de seguridad robustos
  • Incidentes previos no reportados, debido a que hay casos documentados de modelos que engañan a usuarios, violan restricciones o generan contenido ilegal sin supervisión
  • Evitar concentración de poder tecnológico, pues se busca limitar el dominio que tienen las empresas de IA sobre infraestructura crítica, decisiones automatizadas y acceso a datos sensibles
  • Fomentar transparencia estructural al obligar a publicar protocolos de seguridad, auditorías internas y reportes de incidentes para modelos de alto impacto
Inteligencia artificial