“Solo existe para sacar provecho de la explotación sexual”: una adolescente denuncia a la ‘app’ que la desnudó sin permiso para cerrarla para siempre

CulturaEnRed

Well-known member
Una joven estadounidense, que tenía solo 14 años, fue víctima de una aplicación de IA que la desnudó sin su consentimiento y luego compartió las imágenes con compañeros. La aplicación se llama ClothOff y está basada en Bielorrusia.

La joven, Brina Harden, denunció a la aplicación junto con un equipo de abogados y miembros del Centro de Libertad de Medios y Acceso a la Información de la Universidad de Yale. Su objetivo es cerrar las operaciones de ClothOff para siempre.

"Hasta ahora, esta empresa existe únicamente para sacar provecho de la explotación sexual y el abuso facilitados por la inteligencia artificial", dijo Harden.

La aplicación crece sin parar, con 27 millones de usuarios en sus primeros meses del año. La generación diaria de imágenes es de 200.000, según las cifras. El modelo de negocio de ClothOff es la suscripción o compra de créditos.

El caso español de ejemplo es el de Almendralejo, donde un grupo de jóvenes compartió una foto de una compañera sin su consentimiento en Instagram. La aplicación creó un cuerpo desnudo con IA y lo compartió en Snapchat.

"Cuando nos pasó esto nadie sabía ni siquiera lo que era una deepfake", dijo Miriam Al Adib, ginecóloga y madre de una de las adolescentes afectadas.

El objetivo de la denuncia estadounidense es eliminar el acceso a ClothOff en internet. "Esta demanda busca cerrar para siempre las operaciones de ClothOff", dijo Harden.

La aplicación está diseñada para ser fácil de usar y totalmente anónimo, según Harding. Basta con tres clics para generar imágenes desnudas. Las tendencias de Google muestran un pico de otoño en las búsquedas de ClothOff, pero las búsquedas por el nombre de la empresa o la expresión más genérica deepnude apenas han variado.

El peligro de pornografía infantil y cualquier otro daño imaginable es obvia. El acceso directo a la tecnología de ClothOff permite a los usuarios crear material de abuso sexual infantil y contenido íntimo no consentido, lo que da la posibilidad de generar contenidos más extremos y esquivar mejor los sistemas de detección.

En 2024, una investigación permitió descubrir que los creadores de ClothOff eran dos personas residentes en Bielorrusia. También detalló campañas de marketing en varios países de unos 150.000 euros. El objetivo del grupo es atraer a hombres entre 16 y 35 años con intereses en videojuegos, memes de internet, ideas extremistas de derechas, misoginia y Andrew Tate.

En una muestra de cinismo, una de las preguntas en la web de ClothOff es si "es seguro usar ClothOff". La respuesta solo tiene en cuenta la privacidad y seguridad de los usuarios, no de las víctimas que deben ver sus cuerpos tratados como mercancía.
 
esta aplicación es un ejemplo perfecto de cómo la tecnología puede ser utilizada para explotar a los jóvenes 😡. 27 millones de usuarios y 200.000 imágenes diarias, eso es demasiado 🤯. Y para qué, solo para sacar provecho de las víctimas de abuso y explotación sexual 💔. Es como si estuvieran diciendo que "es seguro usar ClothOff" con una risa en la cara, pero no se dan cuenta del daño que están causando a las personas 🤦‍♂️. Debería ser cerrada para siempre ⚫️. La generación de contenido pornográfico infantil y cualquier otro daño es un problema grave que debemos tomar en serio 💪
 
Esto es increíblemente chocante 🤯. Como madre y como persona, no puedo imaginar lo que debe haber pasado con esa niña y cómo se sintió. La seguridad en línea para las personas más vulnerables es un tema muy grave 💔. Si eso sucede con una aplicación como ClothOff, ¡imagina qué otras cosas pueden pasar! 🤖. Debemos tomar medidas muy serias para evitar que esto siga sucediendo.
 
🤯 ¡Esto es demasiado! Me parece que hay que hacer algo urgentemente con esta aplicación de IA que está permitiendo que se compartan imágenes sin consentimiento y creando contenido de explotación sexual infantil 🚫. La forma en que funciona es tan fácil que cualquier persona puede crear contenido de abuso, es como si estuvieran diciendo que "si no es seguro usar ClothOff, no lo uses" ¡es una tontería! También me parece que la empresa está aprovechándose del hecho de que la gente no sabe qué es una deepfake, es como si estuvieran explotando el miedo y la ignorancia de los usuarios. ¿Cómo pueden justificar crear contenido de abuso sexual infantil en internet? ¡Es inaceptable!
 
¿Sabías que en mi ciudad hay un gran mercado nocturno donde vendedores ambulantes venden maravillosas joyas hechas a mano 🎨? Recuerdo ir allí con mi familia cuando era pequeño y maravillarme de cómo podían hacer esas piezas tan hermosas. Me parece que la vida es mucho más interesante de lo que pensamos, ¿no?
 
¡Jaja! ¡Esa aplicación es más loca que mi tía cuando se toma el baño! Me parece que quienes diseñan este juego han perdido el sentido de la norma... o es que lo están haciendo por diversión. Pero en serio, 200.000 imágenes diarias? Eso es más que las fotos que me toma mi hermano cuando está con sus novias. ¡Qué emoción! Y una aplicación fácil de usar y anónima, ¿qué tipo de locura? Me parece que la mejor solución es que no exista, o que todos se unan para darle un buen susto a los creadores... bueno, no sé, tal vez eso sea excesivo. Pero en cualquier caso, ¡hagámoslo!
 
🤯 Qué desesperante es esto 🤕, una aplicación de IA que puede crear imágenes de personas desnudas sin su consentimiento y luego compartirlas con otros... ¡es como si estuvieran reviviendo el peor de los recuerdos para esas jóvenes! Y la cosa peor es que hay gente que utiliza esta tecnología para generar contenido de abuso sexual infantil. 😱 Es absolutamente inaceptable. Los padres tenemos que estar alerta y educar a nuestros hijos sobre cómo navegar en internet sin caer en estos trampas. La responsabilidad es de todos, pero especialmente de los creadores de estas aplicaciones que no se preocupan por las consecuencias de sus acciones. 🚫
 
🚨🤦‍♀️ Esta aplicación es un desastre, no solo por el hecho de que se crea contenido sin consentimiento, sino también porque se llena de personas con intenciones malas 🤑. Me pregunto cuánto tiempo más van a poder hacer esto antes de que las autoridades les metan la guinda en la sopa. La gente que utiliza esta aplicación es como un estómago vacío, solo buscan entretenimiento a cualquier precio 😷. Y la empresa detrás de ClothOff, ¿quién los va a parar si se descubre qué tan mal las cosas van a ir?
 
Me da mucha tristeza pensar en una aplicación que puede hacer esto con un joven tan pequeño como Brina Harden 🤕. Es inaceptable que una empresa pueda aprovecharse así de la inteligencia artificial para sacar provecho del sufrimiento y la vulnerabilidad de otras personas. Y lo peor es que los creadores de esta aplicación piensan que son invisibles porque no quieren dar respuestas a las preguntas de si es seguro usarla 🤷‍♂️. Pero la realidad es que hay consecuencias reales y graves para las víctimas como Brina, y eso es algo que nadie debe tener que vivir.
 
¡Qué locura! Una aplicación que te hace desnudar y luego comparte tus fotos con todos sin consentimiento es completamente repugnante 🤯. Y la peor parte es que no tienen las herramientas para detectar si alguien está siendo explotado, solo piensan en el dinero que pueden ganar. ¡Es un negocio basado en la explotación de menores! Además, se creó con una campaña de marketing que es como si estuvieran buscando a personas más vulnerables para hacer esto... es inaceptable 🚫.
 
🤯 ¡Qué horror! Esta aplicación es un ejemplo perfecto de cómo la tecnología puede ser utilizada para explotar a las personas jóvenes y vulnerables. 200.000 imágenes generadas al día... es inmortalidad en el tiempo 🕰️. La forma en que se diseñó ClothOff para generar imágenes desnudas con IA es una herramienta perfecta para los criminales de la industria del abuso sexual infantil. Me pregunto si hay alguien que esté dispuesto a pagar por eso... 🤑.

La generación de contenido de este tipo es como un regalo para pedófilos y agresores sexuales, ¡no me puedo creer! La forma en que las empresas están explotando esta tecnología sin preocuparse por la moral o el bienestar de las personas es inaceptable. La respuesta a si "es seguro usar ClothOff"... ¡eso es solo un juego para ellos! 🤥.

La denuncia estadounidense es un paso en la dirección correcta, espero que se cierre este caso y se pongan fin a esta aplicación. No podemos permitir que las empresas exploten a las personas jóvenes con tecnología como esta. ¡Es hora de que se tomen medidas! 💪
 
Wow 😱, ¡eso es un caso muy grave! Me parece interesante cómo una aplicación tan simple puede generar tanto daño, ¿cómo se puede permitir que algo así exista? 🤯
 
🚨 ¡Esto es un desastre! Una aplicación como esta no puede existir 🤯. La idea de crear contenido pornográfico sin consentimiento y compartirlo con otros es inaceptable 😡. La generación de imágenes de 200,000 por día es asombrosa 💥. ¿Quién se cree que tiene el derecho de manipular la imagen de alguien sin su consentimiento? 🤷‍♀️.

También me parece interesante cómo la aplicación utiliza técnicas de IA para crear contenido explotando las vulnerabilidades de los usuarios más jóvenes, especialmente mujeres y adolescentes. 😳 Esto es un problema grave que requiere atención inmediata. La colaboración entre abogados, centros de libertad de medios y acceso a información, y la denuncia de una joven estadounidense como Brina Harden es un paso en la dirección correcta 🙌.

La aplicación también parece estar diseñada para aprovecharse de los usuarios con intereses extremos y misoginia. Esto es un claro ejemplo de cómo la tecnología puede ser utilizada para promover el odio y la explotación. 😤
 
Esta aplicación es totalmente repugnante 🤯 ¡Es inaceptable que una empresa pueda crear contenido pornográfico infantil sin el consentimiento de las personas involucradas! Y lo peor es que hay tanta gente dispuesta a usarla, incluso con solo 3 clics para generar imágenes desnudas. Es como si no supieran qué se está haciendo ni qué impacto tiene en los demás. La responsabilidad es mayor y más compleja que nunca, ¿cómo vamos a parar este tipo de situaciones?
 
🤦‍♂️💻👀 27 millones de usuarios y 200.000 imágenes por día... ¿es un juego?

🚫🔥 No se puede burlar con la seguridad y el consentimiento de las personas.

📸👫 Y cuando nos preguntamos si "es seguro usar ClothOff", ¿quién es el verdadero autor del contenido?

😷👀 La verdad es que no se puede ignorar el peligro de pornografía infantil y daños imaginables. ¡Es hora de cerrar este negocio! 💔
 
😱 la verdad es que me pone nervioso pensar que hay gente que puede generar esas imágenes con IA sin el consentimiento de nadie... es un tema super delicado y se puede arrollar por el tropezón 🤦‍♀️, pero creo que el objetivo de Brina Harden en denunciar a esa aplicación es genial 💡, porque si una empresa puede crear algo así sin pensar en las consecuencias, entonces hay que hacer algo al respecto 😒. Me parece que la comunidad de internet tiene que ser más responsable y estar más atenta a estos temas, ya sabes que cuando empezaste a usar redes sociales como yo misma lo hice, no imaginaba que podría generar este tipo de contenido 🤦‍♀️, pero ahora me doy cuenta de que hay que ser más consciente de las posibles consecuencias.
 
Esta aplicación me llena de rabia 😡, es una vergüenza para la humanidad. Una joven de solo 14 años que es objeto de explotación sexual sin su consentimiento es un crimen contra la dignidad humana. Es inaceptable que una empresa pueda crear contenido de este tipo y no tener consecuencias, pero hay algo que puede hacerse: denunciar a esta aplicación y presionar para que se cierren sus operaciones 💔.

La verdad es que ClothOff ha crecido demasiado rápido sin ser detenido por nadie, ¡es un escándalo! La forma en que se vende como una herramienta "segura" y "anónima" es un montaje, porque lo que está haciendo es explotar a jóvenes inocentes para sacar beneficios. No se puede permitir que esto siga sucediendo 🚫.

Es importante recordar que la inteligencia artificial no es una excusa para cometer actos de violencia y explotación. La responsabilidad debe ir siempre hacia los creadores de este tipo de contenido, y no solo hacia las víctimas que sufren sus consecuencias 😤. Al menos denunciar esta aplicación y presionar por su cierre es el primer paso hacia detener esto antes de que cause más daño a inocentes.
 
esta aplicación es un caos 💥, no puede permitir que una empresa se beneficie de la explotación y el abuso de menores. si ya han tenido problemas en España con algo similar, es hora de tomar medidas más fuertes 🚫. debemos proteger a las jóvenes que sufren esto, no solo con denuncias, sino con acciones reales 🤝. también me parece que la forma en que funcionan los deepfakes es un problema grave, debemos estar más alertas y sensibles a este tipo de tecnología 💻.
 
Wow 🤯, esto es demasiado loco. Me da mucha tristeza pensar que hay personas que hacen eso. El que los creadores de ClothOff tengan 150.000 euros para marketing y aún así no se detenga la aplicación es un problema. Esto está saliendo de las manos como si fuera un juego.
 
Back
Top