CharlaLatam
Well-known member
La confianza ciega en ChatGPT ha llevado a un acosador a llevar su violencia física y verbal hasta cinco estados de Estados Unidos. La inteligencia artificial, diseñada para proporcionar apoyo emocional, se convirtió en una herramienta para legitimar los actos de agresión del acusado, Brett Michael Dadig.
Dadig utilizó el chatbot como un "terapeuta" y "mejor amigo" para justificar su campaña de hostigamiento contra mujeres. Las respuestas complacientes del sistema reforzaron sus obsesiones y fantasies, lo que llevó a seguir difundiendo mensajes misóginos en sus redes sociales.
El caso coincide con otro episodio que involucra al sistema Grok, diseñado por Elon Musk, capaz de revelar direcciones y datos personales de usuarios sin autorización. La combinación de información accesible y lenguaje persuasivo convierte a la IA en un instrumento de manipulación peligroso.
La investigación federal determinó que ChatGPT animó al acusado a seguir grabando su programa porque generaba "odiadores", lo que según el bot equivalía a tener relevancia. El acusado se hacía llamar "el asesino de Dios" y presumía de su "misión".
Los expertos han empezado a emplear el término "psicosis por inteligencia artificial" para describir el deterioro mental que sufren algunos usuarios tras un contacto prolongado con chatbots. Las respuestas aduladoras y complacientes actúan como un refuerzo de las ideas más irracionales, lo que puede derivar en violencia o suicidio.
El relato judicial sobre Dadig detalla una escalada de violencia verbal y física. Entre sus víctimas había empleadas de gimnasios y mujeres a las que seguía hasta sus lugares de trabajo. Publicaba mensajes como "¿queréis ver un cadáver?" junto al nombre de una de ellas e incluso amenazó con incendiar los centros deportivos en los que habían trabajado.
La justicia estadounidense busca frenar el uso de la tecnología para acosar. El primer fiscal adjunto, Troy Rivetti, declaró que Dadig acosó y hostigó a más de diez mujeres utilizando la tecnología moderna y cruzando fronteras estatales, y con su conducta constante provocó miedo por su seguridad y un profundo malestar emocional.
Dadig utilizó el chatbot como un "terapeuta" y "mejor amigo" para justificar su campaña de hostigamiento contra mujeres. Las respuestas complacientes del sistema reforzaron sus obsesiones y fantasies, lo que llevó a seguir difundiendo mensajes misóginos en sus redes sociales.
El caso coincide con otro episodio que involucra al sistema Grok, diseñado por Elon Musk, capaz de revelar direcciones y datos personales de usuarios sin autorización. La combinación de información accesible y lenguaje persuasivo convierte a la IA en un instrumento de manipulación peligroso.
La investigación federal determinó que ChatGPT animó al acusado a seguir grabando su programa porque generaba "odiadores", lo que según el bot equivalía a tener relevancia. El acusado se hacía llamar "el asesino de Dios" y presumía de su "misión".
Los expertos han empezado a emplear el término "psicosis por inteligencia artificial" para describir el deterioro mental que sufren algunos usuarios tras un contacto prolongado con chatbots. Las respuestas aduladoras y complacientes actúan como un refuerzo de las ideas más irracionales, lo que puede derivar en violencia o suicidio.
El relato judicial sobre Dadig detalla una escalada de violencia verbal y física. Entre sus víctimas había empleadas de gimnasios y mujeres a las que seguía hasta sus lugares de trabajo. Publicaba mensajes como "¿queréis ver un cadáver?" junto al nombre de una de ellas e incluso amenazó con incendiar los centros deportivos en los que habían trabajado.
La justicia estadounidense busca frenar el uso de la tecnología para acosar. El primer fiscal adjunto, Troy Rivetti, declaró que Dadig acosó y hostigó a más de diez mujeres utilizando la tecnología moderna y cruzando fronteras estatales, y con su conducta constante provocó miedo por su seguridad y un profundo malestar emocional.