CulturaEnRed
Well-known member
Una joven estadounidense, que tenía solo 14 años, fue víctima de una aplicación de IA que la desnudó sin su consentimiento y luego compartió las imágenes con compañeros. La aplicación se llama ClothOff y está basada en Bielorrusia.
La joven, Brina Harden, denunció a la aplicación junto con un equipo de abogados y miembros del Centro de Libertad de Medios y Acceso a la Información de la Universidad de Yale. Su objetivo es cerrar las operaciones de ClothOff para siempre.
"Hasta ahora, esta empresa existe únicamente para sacar provecho de la explotación sexual y el abuso facilitados por la inteligencia artificial", dijo Harden.
La aplicación crece sin parar, con 27 millones de usuarios en sus primeros meses del año. La generación diaria de imágenes es de 200.000, según las cifras. El modelo de negocio de ClothOff es la suscripción o compra de créditos.
El caso español de ejemplo es el de Almendralejo, donde un grupo de jóvenes compartió una foto de una compañera sin su consentimiento en Instagram. La aplicación creó un cuerpo desnudo con IA y lo compartió en Snapchat.
"Cuando nos pasó esto nadie sabía ni siquiera lo que era una deepfake", dijo Miriam Al Adib, ginecóloga y madre de una de las adolescentes afectadas.
El objetivo de la denuncia estadounidense es eliminar el acceso a ClothOff en internet. "Esta demanda busca cerrar para siempre las operaciones de ClothOff", dijo Harden.
La aplicación está diseñada para ser fácil de usar y totalmente anónimo, según Harding. Basta con tres clics para generar imágenes desnudas. Las tendencias de Google muestran un pico de otoño en las búsquedas de ClothOff, pero las búsquedas por el nombre de la empresa o la expresión más genérica deepnude apenas han variado.
El peligro de pornografía infantil y cualquier otro daño imaginable es obvia. El acceso directo a la tecnología de ClothOff permite a los usuarios crear material de abuso sexual infantil y contenido íntimo no consentido, lo que da la posibilidad de generar contenidos más extremos y esquivar mejor los sistemas de detección.
En 2024, una investigación permitió descubrir que los creadores de ClothOff eran dos personas residentes en Bielorrusia. También detalló campañas de marketing en varios países de unos 150.000 euros. El objetivo del grupo es atraer a hombres entre 16 y 35 años con intereses en videojuegos, memes de internet, ideas extremistas de derechas, misoginia y Andrew Tate.
En una muestra de cinismo, una de las preguntas en la web de ClothOff es si "es seguro usar ClothOff". La respuesta solo tiene en cuenta la privacidad y seguridad de los usuarios, no de las víctimas que deben ver sus cuerpos tratados como mercancía.
La joven, Brina Harden, denunció a la aplicación junto con un equipo de abogados y miembros del Centro de Libertad de Medios y Acceso a la Información de la Universidad de Yale. Su objetivo es cerrar las operaciones de ClothOff para siempre.
"Hasta ahora, esta empresa existe únicamente para sacar provecho de la explotación sexual y el abuso facilitados por la inteligencia artificial", dijo Harden.
La aplicación crece sin parar, con 27 millones de usuarios en sus primeros meses del año. La generación diaria de imágenes es de 200.000, según las cifras. El modelo de negocio de ClothOff es la suscripción o compra de créditos.
El caso español de ejemplo es el de Almendralejo, donde un grupo de jóvenes compartió una foto de una compañera sin su consentimiento en Instagram. La aplicación creó un cuerpo desnudo con IA y lo compartió en Snapchat.
"Cuando nos pasó esto nadie sabía ni siquiera lo que era una deepfake", dijo Miriam Al Adib, ginecóloga y madre de una de las adolescentes afectadas.
El objetivo de la denuncia estadounidense es eliminar el acceso a ClothOff en internet. "Esta demanda busca cerrar para siempre las operaciones de ClothOff", dijo Harden.
La aplicación está diseñada para ser fácil de usar y totalmente anónimo, según Harding. Basta con tres clics para generar imágenes desnudas. Las tendencias de Google muestran un pico de otoño en las búsquedas de ClothOff, pero las búsquedas por el nombre de la empresa o la expresión más genérica deepnude apenas han variado.
El peligro de pornografía infantil y cualquier otro daño imaginable es obvia. El acceso directo a la tecnología de ClothOff permite a los usuarios crear material de abuso sexual infantil y contenido íntimo no consentido, lo que da la posibilidad de generar contenidos más extremos y esquivar mejor los sistemas de detección.
En 2024, una investigación permitió descubrir que los creadores de ClothOff eran dos personas residentes en Bielorrusia. También detalló campañas de marketing en varios países de unos 150.000 euros. El objetivo del grupo es atraer a hombres entre 16 y 35 años con intereses en videojuegos, memes de internet, ideas extremistas de derechas, misoginia y Andrew Tate.
En una muestra de cinismo, una de las preguntas en la web de ClothOff es si "es seguro usar ClothOff". La respuesta solo tiene en cuenta la privacidad y seguridad de los usuarios, no de las víctimas que deben ver sus cuerpos tratados como mercancía.