La aprobación de la ley “Take It Down Act” en Estados Unidos ha generado un debate intenso entre defensores de la privacidad y activistas por los derechos digitales. Esta legislación, destinada a combatir la pornografía de venganza y los deepfakes generados por inteligencia artificial, impone a las plataformas digitales la obligación de retirar contenido explícito no consentido en un plazo de 48 horas, so pena de enfrentar responsabilidades legales. Si bien la ley es aplaudida por muchos como una victoria para las víctimas, su ambigüedad, la falta de rigor en la verificación de reclamaciones y el breve plazo de cumplimiento han desatado la preocupación de expertos que temen una posible censura, vigilancia excesiva y restricción de la libertad de expresión.
El debate se centra en el equilibrio entre la protección de las víctimas y la preservación de los derechos fundamentales en un entorno digital cada vez más complejo. ¿Cómo se puede garantizar que la ley no sea utilizada para silenciar voces legítimas o para restringir el acceso a información relevante? Exploraremos los argumentos a favor y en contra de esta legislación, analizando sus posibles implicaciones para la libertad de expresión, la privacidad y la moderación de contenidos en línea.
Los Riesgos de la Moderación de Contenidos a Gran Escala
La moderación de contenidos a gran escala es inherentemente problemática, según India McKinney, directora de asuntos federales de la Electronic Frontier Foundation. La experta advierte que la implementación de la “Take It Down Act” podría conducir a la censura de contenido legítimo y necesario, debido a la presión sobre las plataformas para eliminar rápidamente las imágenes explícitas no consentidas (NCII, por sus siglas en inglés). La ley otorga a las plataformas un año para establecer un proceso de eliminación de este tipo de contenido, pero solo exige una firma física o electrónica para las solicitudes de eliminación, sin necesidad de identificación con foto u otra forma de verificación. Esta flexibilidad, pensada para facilitar el proceso a las víctimas, podría ser aprovechada para fines maliciosos.
McKinney anticipa un aumento en las solicitudes de eliminación de imágenes que representen a personas queer y trans en relaciones, e incluso de pornografía consentida. La senadora Marsha Blackburn, co-patrocinadora de la ley, también ha expresado su preocupación por el contenido relacionado con personas transgénero, sugiriendo que podría ser perjudicial para los niños. Esta postura, compartida por organizaciones como la Heritage Foundation, genera inquietud sobre la posibilidad de que la ley se utilice para censurar contenido relacionado con la comunidad LGBTQ+.
El Impacto en las Plataformas y la Libertad de Expresión
La responsabilidad que enfrentan las plataformas, obligadas a eliminar las imágenes en un plazo de 48 horas, podría llevar a una eliminación indiscriminada sin una investigación exhaustiva. “El valor por defecto será simplemente eliminarlo sin realizar ninguna investigación para ver si realmente se trata de NCII o si es otro tipo de discurso protegido, o incluso si es relevante para la persona que realiza la solicitud”, explica McKinney. Este escenario podría tener un efecto escalofriante en la libertad de expresión, especialmente en plataformas descentralizadas como Mastodon, Bluesky o Pixelfed, que dependen de servidores operados por organizaciones sin fines de lucro o individuos.
La FTC (Comisión Federal de Comercio) puede considerar una práctica “desleal o engañosa” el incumplimiento de las demandas de eliminación, incluso si el anfitrión no es una entidad comercial. La Cyber Civil Rights Initiative, una organización dedicada a erradicar la pornografía de venganza, ha expresado su preocupación por la politización de la agencia y el posible uso de su poder para castigar a las plataformas por motivos ideológicos, en lugar de principios.
Monitoreo Proactivo y Cifrado
McKinney predice que las plataformas adoptarán un monitoreo proactivo del contenido antes de su difusión, para reducir la cantidad de publicaciones problemáticas que deban eliminar en el futuro. Las plataformas ya están utilizando inteligencia artificial para este fin. Kevin Guo, CEO de Hive, una startup que detecta contenido generado por IA, incluyendo deepfakes y material de abuso sexual infantil (CSAM), confirma que su empresa trabaja con plataformas como Reddit, Giphy, Vevo, Bluesky y BeReal. Hive ofrece un modelo de software-as-a-service que permite a las plataformas monitorear el contenido antes de que se publique.
Un portavoz de Reddit afirmó que la plataforma utiliza “herramientas, procesos y equipos internos sofisticados para abordar y eliminar” NCII. Sin embargo, McKinney advierte que este tipo de monitoreo podría extenderse a los mensajes cifrados, ya que la ley exige que las plataformas “eliminen y hagan esfuerzos razonables para evitar la re-carga” de imágenes íntimas no consentidas. La ley no incluye exenciones para servicios de mensajería cifrada de extremo a extremo como WhatsApp, Signal o iMessage. Meta, Signal y Apple no han respondido a las solicitudes de información sobre sus planes para el cifrado de mensajes.
Implicaciones Más Amplias para la Libertad de Expresión
Durante un discurso ante el Congreso, Donald Trump elogió la “Take It Down Act” y bromeó diciendo que la usaría para sí mismo, afirmando ser la persona peor tratada en línea. Si bien la audiencia se rió, no todos lo tomaron como una broma. Trump ha sido criticado por suprimir o tomar represalias contra discursos desfavorables, como cuando calificó a los medios de comunicación de “enemigos del pueblo”.
La administración Trump también prohibió a la Universidad de Harvard aceptar admisiones de estudiantes extranjeros, escalando un conflicto que comenzó cuando Harvard se negó a realizar cambios en su plan de estudios y eliminar contenido relacionado con la diversidad, equidad e inclusión (DEI). En represalia, Trump congeló la financiación federal a Harvard y amenazó con revocar su estatus de exención fiscal.
En un momento en que se están prohibiendo libros en las escuelas y ciertos políticos están expresando abiertamente su rechazo a ciertos tipos de contenido, “es profundamente incómodo para nosotros, con nuestro trabajo pasado en la moderación de contenido, ver a miembros de ambos partidos abogando abiertamente por la moderación de contenido a esta escala”, concluyó McKinney.
Conclusión
La ley “Take It Down Act” representa un intento ambicioso de abordar el problema de la pornografía de venganza y los deepfakes, pero su implementación plantea serias interrogantes sobre la libertad de expresión y la privacidad en el entorno digital. La presión sobre las plataformas para eliminar contenido en un plazo de 48 horas, la falta de rigor en la verificación de reclamaciones y la posibilidad de que la ley se utilice para censurar contenido legítimo son motivos de preocupación.
Es crucial encontrar un equilibrio entre la protección de las víctimas y la preservación de los derechos fundamentales. Se necesitan mecanismos de verificación más sólidos para evitar el abuso de la ley, así como garantías de que la libertad de expresión no se verá comprometida. La supervisión de la FTC y el papel de la inteligencia artificial en la moderación de contenidos deberán ser cuidadosamente monitoreados para asegurar que no se conviertan en herramientas de censura o vigilancia masiva. Solo así se podrá lograr un entorno digital más seguro y justo para todos.