El problema de los deepfakes sexualizados y no consensuales en el mundo de la tecnología ha crecido más allá de la plataforma X. Varios senadores de EE. UU. han enviado una carta a líderes de importantes empresas tecnológicas como X, Meta, Alphabet, Snap, Reddit y TikTok solicitando pruebas de que tienen “protecciones y políticas robustas” para combatir el aumento de estos contenidos en sus plataformas. Además, quieren que se conserven documentos relacionados con la creación, detección y moderación de imágenes generadas por inteligencia artificial (IA) que sean de naturaleza sexualizada.
Contenido de la carta a las empresas tecnológicas
Los senadores instan a las empresas a preservar todas las informaciones relacionadas con la creación y detección de imágenes AI que sean de índole sexualizada. Este llamado se produce justo después de que X anunciara una actualización en su herramienta Grok para prohibir la creación de imágenes de personas con ropa reveladora.
Solicitudes específicas
La carta detalla varias solicitudes específicas, tales como:
- Definiciones de política respecto al contenido «deepfake» y «imágenes íntimas no consensuales».
- Descripciones de cómo las empresas abordan y hacen cumplir sus políticas sobre contenidos sexuales generados por IA.
- Información sobre los filtros y medidas implementadas para prevenir la generación de deepfakes.
- Procedimientos relacionados con la notificación de víctimas afectadas.
Críticas hacia las plataformas
Las críticas hacia Grok, parte de X, han sido intensas, especialmente en lo relacionado con la generación de imágenes sexualizadas de mujeres y menores de edad. Los senadores han expresado preocupaciones sobre la falta de protección adecuada en las plataformas, subrayando que, a pesar de las políticas existentes, estas no son efectivas.
Ejemplos del problema
El fenómeno de los deepfakes no es nuevo. Se originó en Reddit, donde un grupo de contenido pornográfico sintético de celebridades se volvió viral. Desde entonces, ha crecido en plataformas como TikTok y YouTube, aunque en muchos casos su origen es en otros lugares.
Respuestas de las empresas
Al recibir la carta, algunas plataformas se han defendido. Un portavoz de Reddit afirmó que no permiten ninguna forma de contenido íntimo no consensual. Por su parte, other companies como Alphabet y Meta no han reaccionado públicamente a las solicitudes de los senadores.
Obstáculos legales
Aunque se han propuesto leyes como la Take It Down Act, que intenta criminalizar la creación y difusión de imágenes sexualizadas no consensuales, numerosos obstáculos legales dificultan que se responsabilice a las plataformas generadoras de imágenes, centrándose más en el usuario individual.
Consejos para emprendedores y negocios
- Educar sobre el uso responsable de la IA: Las empresas que utilizan IA deben educar a sus empleados y usuarios sobre el uso ético y responsable de estas tecnologías.
- Implementar políticas claras: Establecer políticas internas que aborden el uso y la creación de contenido generado por IA puede ayudar a prevenir problemas legales y éticos.
- Fomentar la denuncia de abusos: Crear mecanismos fáciles para que los usuarios puedan denunciar contenido no consensual o inapropiado es fundamental.
- Colaborar con entidades regulatorias: Las empresas deben estar abiertas a colaborar con reguladores y legisladores para cumplir con las leyes y generar confianza pública.
Conclusiones
El creciente problema de los deepfakes sexualizados y no consensuales representa un reto significativo para las plataformas tecnológicas y los legisladores. Mientras las empresas intentan implementar medidas de protección, la falta de un marco legal claro y efectivo complica la situación. La colaboración entre las empresas, los legisladores y las organizaciones de derechos humanos es fundamental para abordar este problema y proteger a los más vulnerables en este ámbito.