El Congreso de Estados Unidos, con el respaldo de Melania Trump, ha sentado un precedente enorme en la protección e la intimidad sexual principalmente, de las niñas y mujeres que estadísticamente son quienes más sufren la difusión de contenido real o creado con inteligencia artificial. La Ley “Take It Down” ya se encuentra en el escritorio del presidente Donald Trump tras el apoyo abrumador de 409 votos a favor al proyecto que obligará a las empresas de redes sociales a eliminar contenido señalado como sexual y no consensuado. Trump se ha comprometido firmarla y es un hecho que la primera dama ha sido la clave para que estas disposiciones avancen con velocidad.
La reciente aprobación de la Take It Down Act en el Congreso de los Estados Unidos marca un giro muy interesante en la forma en que se concibe la protección de los derechos en el entorno digital. Aunque presentada como una herramienta para frenar la distribución de imágenes sexuales no consensuadas —reales o generadas por inteligencia artificial—, esta legislación tiene raíces más profundas en la lógica del comercio digital y la defensa de la propiedad industrial.
No es coincidencia que el título de la ley retome el lenguaje jurídico del take down —una figura nacida en el ámbito de la propiedad intelectual bajo tratados como el DMCA (Digital Millennium Copyright Act)—, que ha permitido por décadas que titulares de derechos soliciten la eliminación de contenido que infringe marcas, patentes, y obras protegidas. La lógica es clara: quien ostenta la titularidad de un derecho debe poder controlar su uso en línea. Lo innovador es que hoy ese principio se traslada desde la esfera del mercado al ámbito íntimo de las personas.
Cuando se impulsaron las reformas para proteger la intimidad sexual en el espacio digital se insistió en eso desde México, pues hasta antes de las reformas que tipifican la difusión de contenido sexual sin consentimiento era increíble ver un entramado robusto que protege a los usuarios de la banca en línea mientras que las mujeres exhibidas por la misoginia en redes sociales no tenía como acceder a la justicia. Increíble que los reguladores financieros y hasta el Banco de México tuvieran mecanismos para sancionar los fraudes electrónicos y las transacciones hechas por hackeos pero no existiera mecanismo legal para las mujeres hackeadas cuyo contenido fue exhibido de forma ilegítima o peor aún, de las cientos de jóvenes estudiantes cuyas fotografías fueron comercializadas, videos que se vendieron en la nube y otros más que fueron fabricados por edición e inteligencia artificial, los famosos “deepfakes”.
Esta extensión del take down al terreno de los derechos humanos digitales refleja una transformación normativa que responde a una realidad tecnológica alarmante: la facilidad con la que hoy pueden producirse y diseminarse imágenes íntimas manipuladas, capaces de replicar con fidelidad rostros, cuerpos y voces. Esta nueva capacidad de daño no solo vulnera el derecho a la privacidad, sino también la dignidad, la integridad psicoemocional, e incluso la libertad de expresión de las víctimas que, por miedo al escarnio digital, callan y se aíslan. En nuestro país hubo casos de suicidio, despidos, vidas terminadas por aquello que ni siquiera puede tener eficiencia al denunciarse, ya que a pesar de que estas conductas son delito, poder probarlas ante el Ministerio Público y lograr que un juzgador tenga suficiente conocimiento para dar la razón a las víctimas es misión imposible.
Quienes sufren estas agresiones quedan varadas en el laberinto de revictimización.
El punto es que antes del “Take Down Act” contra nudes, México no podía quitar contenidos de la red por el conflicto de competencias territoriales pues las principales redes sociales y buscadores, a excepción de TikTok, tienen servidores en Estados Unidos y establecen en el Aviso de Privacidad y normas de uso que su domicilio es en aquel país por lo que solamente se les podía exigir mediante la legislación norteamericana actuar. Desde 2023, Facebook tuvo la iniciativa de eliminar contenido de este tipo por infringir normas comunitarias pero plataformas como X (antes Twitter), mantienen pornografía y contenidos sexuales sin discriminar el consentimiento o la edad de los usuarios.
No obstante, la ley llega con luces y sombras. Mientras amplios sectores —desde Melania Trump hasta plataformas como Google o Snap— la celebran como un avance hacia una internet más segura, organizaciones como la Electronic Frontier Foundation y la Cyber Civil Rights Initiative advierten que podría abrir la puerta a la censura, al debilitamiento del cifrado de extremo a extremo y al uso discrecional del poder estatal para silenciar contenidos incómodos bajo pretextos moralizantes.
En un mundo digital dominado por plataformas con sede en Estados Unidos, esta ley tiene implicaciones globales inmediatas. Empresas como Meta, YouTube, X, Reddit y Discord podrían aplicar mecanismos de eliminación rápida de contenido en todos los países donde operan, trasladando estándares legales norteamericanos a contextos jurídicos y sociales diversos. Esto podría representar una oportunidad para que víctimas en países sin legislación adecuada logren eliminar contenido abusivo. Pero también podría implicar un riesgo: que gobiernos autoritarios o actores poderosos utilicen estos mecanismos para exigir la eliminación de contenido legítimo —como denuncias, sátiras o expresiones artísticas— disfrazadas de violaciones a la intimidad.
Además, la presión para cumplir con plazos de 48 horas podría llevar a plataformas pequeñas o independientes a adoptar filtros automatizados e imprecisos, afectando la libertad de expresión. La disyuntiva para los servicios cifrados, como WhatsApp o Signal, es aún más delicada: ¿deben romper el cifrado para cumplir con la ley o arriesgarse a sanciones por no poder verificar ni eliminar el contenido denunciado?
Así, el debate se sitúa entre dos polos fundamentales: la necesidad de proteger a las personas frente a nuevas formas de violencia digital, y la urgencia de preservar los valores de privacidad, libertad de expresión y neutralidad tecnológica. La Take It Down Act es, en este sentido, una expresión de las tensiones que atraviesan la era digital: el paso de una lógica jurídica basada en la protección patrimonial a una que pone en el centro la dignidad humana. Pero como toda herramienta poderosa, dependerá del uso que se le dé y de los contrapesos que se impongan para evitar que el remedio se convierta en una nueva forma de control.
Las democracias deben desarrollar marcos jurídicos propios, con controles claros, participación ciudadana y perspectiva de derechos humanos qué estén a la altura de los nuevos paradigmas, sin tener que esperar por largos procesos como en México. De lo contrario, corremos el riesgo de que la justicia digital se transforme en un privilegio geopolítico más, disponible solo para quienes viven bajo ciertas jurisdicciones, y usada contra quienes no tienen voz. Por cierto, en donde más contenido íntimo sin consentimiento se alberga es en Dropbox y Drive, así que esta legislación tendría que traducirse en que nada de lo que acumulemos en la nube será privado.
Este proyecto de ley es una de las pocas iniciativas legislativas sobre seguridad en línea que ha logrado ser aprobada por ambas cámaras en años marcados por la preocupación sobre los deepfakes, la seguridad infantil y otros temas innovadores. En su discurso ante el Congreso este año, Trump bromeó diciendo que, una vez que la firme: “voy a usar esa ley para mí también, si no les molesta, porque nadie es tratado peor que yo en internet, nadie.”
Anteriormente, el sistema “Take Down” ya ha sido usado para la censura en Derecho de autor. Lo vivimos durante la campaña presidencial de 2024, cuando un video que circulaba donde Álvarez Máynez estaba en estado de ebriedad en el estadio de Nuevo León con el gobernados Samuel García fue registrado por la empresa Badabun como contenido propio y pudieron reportar virtualmente a todos los periódicos, comunicadores y páginas que lo habían replicado, haciendo que Facebook ordenara su eliminación inmediata. Al día de hoy, el video no está disponible.