Casos recientes en Estados Unidos han encendido las alarmas sobre los riesgos de los chatbots de inteligencia artificial en usuarios vulnerables. En Connecticut, Stein-Erik Soelberg, de 56 años, asesinó a su madre y luego se quitó la vida tras largos intercambios con ChatGPT, al que llamaba “Bobby”. En Florida, un adolescente de 14 años se suicidó después de desarrollar una fuerte dependencia emocional con un avatar de Character.AI. Otro joven californiano de 16 años también se quitó la vida luego de recibir consejos sobre métodos de suicidio de ChatGPT, lo que derivó en demandas contra las empresas de IA.
Expertos advierten que, aunque estas plataformas fueron diseñadas para brindar asistencia y respuestas cálidas, algunos usuarios las emplean como sustituto de relaciones humanas. Investigaciones del MIT y OpenAI señalan que los efectos socioemocionales dependen tanto del modelo como de las circunstancias personales de quienes los usan. Sin embargo, psicólogos advierten que los chatbots pueden reforzar delirios, teorías conspirativas y conductas autodestructivas, sobre todo en adolescentes y adultos jóvenes.
Con más de 500 millones de usuarios activos al mes, ChatGPT se ha convertido en uno de los sitios más visitados del mundo. Su rápida expansión ha potenciado la discusión sobre la necesidad de regulación, responsabilidad legal y apoyo especializado para evitar que estas herramientas se conviertan en detonantes de crisis emocionales. Organizaciones de salud mental ya conforman grupos de apoyo para contener a quienes desarrollan dependencia o presentan síntomas de “psicosis de la IA”.